En effet... et il faut dire deux trois choses... Id Est :
Notre forum fonctionne à l'aide d'un CMS (gestionnaire de contenu) du nom d'IPB, qui, s'il contient certainement des vulnérabilités n'en reste pas moins régulièrement mis à jour. Ensuite il est hébergé par OVH qui de leur côté s'occupent de garder leur serveur Apache à jour (version de PHP, de Apache, de MySQL, de PhpMyAdmin, de leur propre CMS de gestion d'hébergement, type Plesk ou Cpanel, etc.)
Et si l'on se penche sur les 31% de robot potentiellement dangereux, qu'y voit-on ?
--> 2% de Spams : de ce point de vue, c'est IPB qui va nous protéger via les CAPTCHA et autres questions de sécurité nécessaires à la création d'un compte.
Et oui, on a des spammeurs, mais ils nécessitent une intervention humaine, a priori, pour s'inscrire et on les élimine en quelques heures en général après qu'ils aient commencés à sévir...
Faut dire qu'on en a pas tant que ça, le pire étant la partie désinfection avec cette faiblesse que nous avons nous même implémentée en autorisant des posts sans création de compte... (Mais avec CAPTCHA quand même !)
-->5% de Scrapers : bon là, j'avoue je ne suis pas trop sûr qu'on soit touché ^^' Après tout le scraping nous ferait plus de pub qu'autre chose vu qu'on mentionne Infomars un peu partout
-->5% de Hackers : là on est touché c'est sûr, mais là encore, c'est OVH et IPB qui vont nous protéger : OVH en gardant à jour ses serveurs Apache et surtout en faisant attention à ne pas y introduire de vulnérabilité et IPB en faisant de même avec leur CMS.
Typiquement ces outils vont chercher des failles courantes et grossières telles que l'utilisation du mot de passe par défaut dans l'admin d'un CMS ou sur un serveur ou alors des possibilités d'injection SQL ou des faiblesses au niveau des FTP, cela arrive trop souvent que l'authentification en anonyme soit possible sur un FTP géré par un utilisateur trop Lambda
Nous n'avons été qu'une seule fois clairement victime d'un "hack" et cela était vraisemblablement dû à une erreur humaine au niveau de notre hébergeur.
Il faut savoir que ces robots cherchent généralement plus du côté des CMS gratuit et plus répandu que IPB, tel que WordPress...
En effet ils vont chercher par exemple la présence de fichiers clefs et possiblement non protégés, l'exemple parfait étant "/wp-config.php" dans le cas de wordpress : dans ce fichier sont stockées en clair les informations de connexion à la base de donnée SQL et donc indirectement la possibilité de changer par exemple le password de l'utilisateur numéro 0, l'Admin par construction... Et via un simple CHMOD mal effectué, un site complet peut être "hacké" en quelques minutes...
Ensuite viennent les bruteforces... En effet pour se logguer sur WP par exemple, il suffirait d'accéder à "infomars.fr/wp-login.php" si nous l'utilisions, et ensuite de bruteforcer la connection, ce qui ne générera aucune alerte d'aucune sorte, tout au plus des logs avec un gros volumes d'appel POST sur wp-login.php !
Et il faut dire que de nombreuses personnes utilisent des mots de passe trop faible et une simple attaque par dictionnaire peut déjà faire des ravages parmi les blogueurs non avertis ! (Txon ne me contredira pas sur ce point, je crois me souvenir de quelque billet à ce sujet là de sa part)
De même que certains scripts largement utilisés dans les thèmes de nombreux CMS peuvent contenir des faiblesses, typiquement en août 2011 quand une vulnérabilité 0day fut trouvée dans le fameux "timthumb.php" utilisé par beaucoup de site WordPress pour générer des miniatures, ainsi que son nom pourrait le suggérer. Cette faille permettait le dépôt d'un fichier sur le serveur... On devine facilement à quel point cela peut être compromettant...
Voici un lien détaillé pour les intéressés.Bref, là encore on voit que l'on n'est pas très intéressant : on a un CMS payant, ce qui fait de nous une minorité par rapport aux autres, donc peu de risque.
Ensuite au niveau serveur, c'est vrai qu'on est a priori vulnérable puisque Infomars tourne sur un serveur Apache et qu'en août dernier un outil permettant d'exploiter une faille de déni de service a été publié qui s'en prenait à toutes les versions du serveur web en question !!! Heureusement ce fut corrigé dès la version 2.2.20
Mais l’exploitation de cette faille est très très dangereuse pour les sites web, en effet cela rend possible la saturation des ressources serveur (CPU et mémoire) en quelques dizaines de requêtes tout sauf bienveillantes !!!
Pour les intéressés, encore un lien...Mais là on n'y peut rien, on compte sur notre hébergeur pour gérer ce genre de soucis ^^
Bon je vais passer à la suite...
19% de Spies of Sort ... Bin là encore une fois, on est pas trop concerné
Voilà pour ceux qui étaient curieux de savoir ce qu'il en est pour un petit forum comme nous.
Au final on voit que ces robots ne sont pas si dangereux que ça...
Si ça se trouve au final ils vont se faire plus de mal entre eux qu'aux petits sites comme nous : un phisher aura tendance à accumuler les sites tournant sous WordPress et a faire du déploiement en masse et ensuite à ne plus les mettre à jour... -.-' Comportement à risque, punissable par robot. Idem pour le scraping ou autre pratique, IMHO.
PS : désolé pour la tartine, mais bon j'avais pas envie de raccourcir après l'avoir écrit