Je suis rédacteur web. Comme son nom l’indique, mon activité consiste à rédiger des textes destinés à une publication sur Internet. Les contenus rédactionnels que je produis prennent la forme de billets de blogs, de pages de sites, de fiches descriptives de produits. Jusque-là, quiconque à une appétence particulière pour l’écriture, une bonne orthographe et un certain goût pour la syntaxe pourrait faire le job. C’est vrai et c’est d’ailleurs souvent le cas. Mais à la différence du rédacteur, le rédacteur web n’écrit pas uniquement pour le lecteur lambda que nous sommes tous. Il rédige aussi, pour ne pas dire d’abord, à l’attention de robots.
Ces machines-là n’ont rien de l’image que la littérature et le cinéma de science-fiction ont instillé dans notre imaginaire depuis l’apparition du mot « robot », dont la paternité reviendrait à un certain Karel Čapek, écrivain tchécoslovaque du début du XXe siècle. Dans une pièce intitulée Rossumovi univerzální roboti, Karel Čapek met en scène des automates nés du rationalisme économique et créés en masse pour remplacer les ouvriers. Les robots de l’écrivain finissent par se révolter contre l’humanité et donnent ainsi naissance à une des thématiques phares du genre.
Mais revenons aux robots pour lesquels j’écris
Dépourvus d’apparence corporelle, ils semblent de prime abord assez éloignés de la réalité des choses terrestres. Alors que sont-ils vraiment ? Et bien, ce sont des formules mathématiques, de complexes algorithmes qui équipent les moteurs de recherche. Chaque jour ces robots scannent le contenu des sites internet et essayent de le comprendre pour l’associer aux requêtes des internautes. En clair, si vous tapez « pizza » dans Google, le moteur de recherche vous propose spontanément une liste de pizzeria à proximité de chez vous (pas toujours les meilleures mais celles qui auront investi dans leur communication numérique).
C’est là que le rédacteur web intervient. Mon travail consiste à optimiser le contenu rédactionnel que je produis pour que Google lui offre une place satisfaisante dans les résultats de recherche. Le Saint Graal de la première position dans ces résultats représente une enjeu économique de taille pour les marques, pour les grandes entreprises, pour les lobbyistes de tout poil et même pour mon voisin restaurateur dont les pizzas connaissent une concurrence accrue. Pour désigner ce travail qui consiste à attirer le regard des robots, on parle alors de Search Engine Optimization (SEO) ou de référencement naturel.
Des robots en quête de sens
Facile ! Il suffit donc d’employer toutes les techniques en notre possession pour se jouer des robots et obtenir un bon référencement. C’est vrai pour partie mais cela reviendrait surtout à sous-estimer une intelligence artificielle (IA) assez avancée pour qu’elle vous pénalise dès lors que vous essayez de la leurrer. Car oui, Google possède probablement une des formes d’IA les plus développée qui soit : son moteur de recherche.
Ses robots lisent tout, bien plus qu’un humain ne pourrait lire dans une vie, et dans presque toutes les langues. Ils analysent la fréquentation des sites et examinent ce que les internautes ou les autres sites disent sur eux. Ils analysent les mots sur les pages Web pour mieux comprendre le sujet traité. Tout en parcourant sans relâche le Web pour trouver de nouveaux contenus, ils essayent de leur donner du sens.
Le point de singularité
Cette quête de sens pourrait bien s’apparenter à un rêve de singularité technologique : un concept selon lequel l’intelligence artificielle surpassera un jour l’intelligence humaine. Difficile de ne pas se rappeler les robots de Karel Čapek… En 2012, avec le recrutement de Ray Kurzweill, icône controversée du transhumanisme, Google a confirmé ses ambitions liées à l’IA. À lire les prédictions de Ray Kurzweill qui annonce le point de singularité dans la 3è décennie de notre millénaire, je m’interroge quant au devenir de mon activité… Je sais que j’écris déjà pour des robots. L’inverse serait-il en voie de se produire ?
Les robots-journalistes
En réalité les robots-rédacteurs existent déjà. Ils s’illustrent au quotidien dans la rédaction d’une information similaire, à s’y méprendre, aux dépêches des agences de presse.
En 2014, un algorithme nommé Quakebot publiait dans le Los Angeles Times une dépêche sur un tremblement de terre en Californie seulement 3 minutes après la secousse. Plus récemment, ils ont couvert les JO de Rio pour alimenter le compte Twitter du Washington Post. En France, le journal Le Monde a expérimenté le recours à la génération automatique de textes lors des élections départementales de mars 2015. Résultat : 30 000 articles publiés en une nuit. Chaque jour, Yahoo et l’Associated Press font appel aux robots d’Automated Insights, une start-up américaine qui développe des logiciels capables de générer des contenus rédactionnels à partir de données.
Dans une courte vidéo, Automated Insights nous le confirme :
the robots are in the computer
Si votre avatar souhaite laisser un commentaire, le mien y répondra avec plaisir.