À l'opposé d'outils comme Anubis (qui essaient de bloquer les boîtes d'IA), il existe des outils pour les polluer (en générant des labyrinthes de pages avec du contenu bidon, souvent avec des chaînes de Markov car c'est peu couteux en CPU).
Cet internaute a également créé un programme qui génère des images bidons, en consommant le moins de CPU possible.
(via
https://shaarli.zoemp.be/shaare/jHnBUQ)
Mon avis : J'étais partagé entre polluer les bots ou les bloquer. Et la remarque d'un internaute a résolu ce dilemme : "Dépenser du CPU pour polluer les boîtes d'IA ne sert à rien. Si vous pissez dans l'océan, le résultat n'est pas que l'océan se transforme en pisse."
Je pense qu'il vaut mieux les bloquer.
J'ai très fortement envie d'installer Anubis sur mon site, mais j'évite pour le moment car je sais que ça va emmerder une frange de mes lecteurs (qui naviguent sans Javascript, ou avec des navigateurs alternatifs, ou même qui récupèrent des choses avec curl/wallabag et autres).
Et puis installer Anubis, c'est un système supplémentaire à surveiller/configurer.
Pour le moment, les bots n'écroulent pas mon site (qui est très léger, que ce soit DokuWiki, Shaarli ou les pages statiques), je n'ai pas de motivations liées aux performances. Mais soyez certain que ça viendra si ça devient trop lourd.