Merci beaucoup pour ces compléments, tristan.
Je me demandais un truc, à propos des moteurs heuristiques et des méthodes pour les tester, j'en profite donc.
Il y a quelques temps, les moteurs heuristiques de nos antivirus étaient balbutiants, c'est normal, si bien que certains étaient insensibles à tout ou presque
, d'autres tiraient sur tout ce qui bouge
, créant au passage de nombreux faux-positifs.
Il y avait donc de grosses différences de sensibilité d'un moteur à l'autre.
Dans mon esprit, il vaut peut-être mieux la plupart du temps qu'il soit un tout petit peu trop sensible (ce qui le rend utile mais oblige à une validation personnelle avant d'agir) que pas assez (ce qui le rend inutile): d'ailleurs. Mais avec des limites, et on peut voir les choses autrement si l'outil est dans les main d'un parfait novice (ce que je ne suis pas loin d'être, donc il faut arriver à imaginer pire que moi
).
Les moteurs heuristiques ont d'ailleurs souvent (je n'ose dire toujours, je ne les connais pas tous) un réglage de leur sensibilité, et c'est le cas d'Antivir.
Et à ce propos, il y a un an environ, le mode d'identification élevée d'Antivir créait beaucoup de faux-positif, au point qu'il était conseillé de le laisser sur "Medium", au moins pour M.Tout-le-monde, histoire de ne pas effacer tout et n'importe quoi, suite à des sollicitations nombreuses et illégitimes de la détection heuristique.
Alors, ma question:
quid des faux-positifs dans ton test ? Faut-il comprendre qu'il n'y en a pas eu, et qu'Antivir s'en sort véritablement très bien (plus de 96 %, c'est tout de même impressionnant pour de l'heuristique pur, surtout que je suis persuadé que tu as varié les attaques). Ou ne les mentionnes-tu pas ?
Et plus généralement, y a-t-il un intérêt à glisser dans les tests des "riskwares", dont on sait donc qu'ils sont légitimes mais qui titillent les moteurs ?
Merci.