
Source : Wikimedia Commons
Le milieu des technos sait cela depuis belle lurette, mais celui de l’édition, c’est moins certain.
Deux ou trois choses à savoir à propos des bots (ou « spiders » ou « crawlers »).
Il n’y a pas un nombre égal de bots sur le Web, le chiffre varie. En général cependant ils composent plus de 50% du trafic global du web. Et de votre site. Voici un article de « The Atlantic » pour donner une perspective générale :
https://www.theatlantic.com/technology/archive/2017/01/bots-bots-bots/515043
Mais les bots infectent aussi vos réseaux sociaux. Le Pew Research Center dans une récente étude a découvert que 66% des publications sur les sites populaires de Twitter proviennent de bots.
Vous pouvez être certains également que ces bots sont très actifs sur Facebook.
Il y a donc lieu pour l’éditeur ou l’auteur de relativiser les résultats de ses actions promotionnelles sur le web.
Petit conseil, il vaut aussi la peine de faire le ménage régulier de ses fans, histoire de s’assurer qu’ils sont justement bien des fans et non des trolls ou des boites de marketing numérique.
Dans une autre catégorie de nuisance algorithmique, signalée ici par Electronic Frontier Foundation
https://www.eff.org/takedowns/mueller-report-cant-be-copyrighted-flagged-copyright-bots-anyway
l’usage par des sites comme Scrib de filtres logiciels (comparables aux bots) pour signaler des contenus piratés. Le problème de l’aveu même de Scribd et ça été la catastrophe pour le fameux rapport Mueller, c’est que ces algorithmes ont d’abord ne fâcheuse tendance à produire de faux positifs. Autres cerises sur le gâteau : il n’y a personne pour valider que l’algorithme n’a pas fait d’erreur. Un contenu signalé est aussitôt retiré de la plate-forme. Les doublons sont considérés par défaut comme des contenus illégaux. Or sur Scribd, utilisés par les journalistes, plein de gens ont installé le rapport Mueller.