Méga-test fonctionnel, cohérence entre plusieurs "runs" à des mois d'intervalle
Juste des réflexions, on en parlera un jour ensemble.
Lors d'une évolution de vidjil/algo, serait-ce intéressant de comparer sur tous les fichiers de la database que les résultats sont toujours bons ?
Ou bien lorsque l'admin ferait "relance all" ?
Autre manière de voir la chose : si un utilisateur fait "run" et qu'on a amélioré/changé le cpp, il ne trouve pas forcément la même chose. C'est voulu / documenté / warning ? Peut-il revenir en arrière s'il n'est pas content ?
Marc, merci de regarder rapidement cela, tu nous disais mercredi dernier que c'était facile de ne pas supprimer les anciens runs... J'en ai besoin pour relancer sur rbx avec la nouvelle version
e8b0805f compare-last-results.py
pour l'instant lancement manuel, on verra comment on améliorera cela ensuite
#1119 (closed), #1120 (closed), #1121 (closed)