à l'opposé d'outils comme Anubis (qui essaient de bloquer les boßtes d'IA), il existe des outils pour les polluer (en générant des labyrinthes de pages avec du contenu bidon, souvent avec des chaßnes de Markov car c'est peu couteux en CPU).
Cet internaute a également créé un programme qui génÚre des images bidons, en consommant le moins de CPU possible.
(via
https://shaarli.zoemp.be/shaare/jHnBUQ)
Mon avis : J'étais partagé entre polluer les bots ou les bloquer. Et la remarque d'un internaute a résolu ce dilemme : "Dépenser du CPU pour polluer les boßtes d'IA ne sert à rien. Si vous pissez dans l'océan, le résultat n'est pas que l'océan se transforme en pisse."
Je pense qu'il vaut mieux les bloquer.
J'ai trĂšs fortement envie d'installer Anubis sur mon site, mais j'Ă©vite pour le moment car je sais que ça va emmerder une frange de mes lecteurs (qui naviguent sans Javascript, ou avec des navigateurs alternatifs, ou mĂȘme qui rĂ©cupĂšrent des choses avec curl/wallabag et autres).
Et puis installer Anubis, c'est un systÚme supplémentaire à surveiller/configurer.
Pour le moment, les bots n'écroulent pas mon site (qui est trÚs léger, que ce soit DokuWiki, Shaarli ou les pages statiques), je n'ai pas de motivations liées aux performances. Mais soyez certain que ça viendra si ça devient trop lourd.