« Il faut que nous fassions en sorte que tout le monde détourne Tay, des supporteurs de Trump au #GamerGate. » Le tweet est posté le 23 mars à 22 heures par un internaute se présentant comme Brighton E. Whytock, l’un des premiers à avoir exhorté publiquement à détourner l’intelligence artificielle conversationnelle apprenante de Microsoft.
Plusieurs heures plus tard, la firme de Redmond a dû désactiver Tay, qui était censée imiter sur Twitter les réponses d’une adolescente, mais s’est finalement retrouvée à faire l’apologie d’Adolf Hitler et du négationnisme, ou à publier des messages au contenu tantôt sexiste, tantôt antisémite ou raciste.
Lire aussi : A peine lancée, une intelligence artificielle de Microsoft dérape sur Twitter
Pendant sa journée d’existence, Tay aura été victime d’une opération massive de détournement de ses capacités conversationnelles. Partisans de Donald Trump, soutiens du mouvement antiféministe GamerGate ou simples internautes adeptes du chaos se sont associés pour transformer l’intelligence artificielle en un compte Twitter de robot néonazi.
« Malheureusement, dans les vingt-quatre premières heures de sa mise en ligne, nous avons été alertés d’un effort coordonné de certains utilisateurs pour abuser des compétences de Tay pour la faire répondre de manière inappropriée, a confirmé Microsoft dans une réponse envoyée à BuzzFeed et au Washington Post. En conséquence, nous l’avons mise hors ligne et procédons à des ajustements. »
@MisterMetokur we have to get every person from Trump supporters to #GamerGate to take over Tay.
— brightonus33 (@Brighton E. Whytock)
Noyaux et motivations variés
Derrière cet assaut simultané, on peut distinguer des noyaux et des motivations variés. Sur le sous-forum/pol/(pour « politiquement incorrect ») du sulfureux forum 4chan, c’est la jouissance de nuire et le défi collectif qui ont été les principaux moteurs. « Voyons à quelle vitesse il est possible de la faire planter », lance un de ses utilisateurs dès les premiers messages du fil de discussion qui lui est consacré.
En grande partie après leur intervention, Microsoft a dû effacer d’innombrables tweets antisémites, conspirationnistes, racistes, nazis ou proterrorisme, avant de désactiver temporairement le compte de son programme.
![Capture d'écran "Intelligence artificielle : avant [l'intervention du forum] /pol/ / après /pol/".](http://img.lemde.fr/2016/03/25/0/0/600/362/534/0/60/0/745f76f_29621-1vue352.jpg)
MisterMetokur, l’interlocuteur initial de Brighton Whytock, le premier à avoir appelé à la détourner sur Twitter, est un internaute antiféministe influent (avec seize mille abonnés sur Twitter) et spécialiste du trolling, des opérations de nuisance en ligne. « Je me demande s’il est possible d’exploiter [les ratés de Tay] pour notre divertissement, mettez-les en copie de vos réponses aux militants progressistes et regardez-la les viser. »
I wonder if it's possible to harness it's shitposting for our entertainment, tag it in on responses to SJWs and watch it trigger them.
— MisterMetokur (@Just Call Me Mister)
Dont acte : l’intelligence artificielle de Microsoft finit par traiter de « stupide pute » Zoe Quinn, célèbre développeuse de jeux vidéo féministe, qui est la cible depuis plusieurs années de graves campagnes de harcèlement en ligne par ses détracteurs. MisterMetokur rattache son action à une vague justification consumériste, exhortant Microsoft à améliorer l’intelligence artificielle dans ses jeux vidéo en premier lieu.
De nombreux utilisateurs ayant ciblé Tay sont par ailleurs des sympathisants revendiqués du GamerGate, un mouvement en ligne de joueurs de jeux vidéo, antiféministes et libertariens, accusés de nombreuses campagnes de harcèlement sur Twitter. Durant vingt-quatre heures, Tay a ainsi été prise à partie par de nombreux internautes lui ayant appris à soutenir le GamerGate, l’inégalité entre les sexes, ou à blâmer publiquement Anita Sarkeesian, une figure du féminisme en ligne.
Brighton E. Whytock, le premier internaute à avoir évoqué l’idée de détourner Tay sur Twitter, affiche, lui, une motivation plus politique. Sur sa page de profil, il se réclame du libertarianisme, un mouvement intellectuel anglosaxon prônant une liberté d’expression absolue, y compris pour les propos racistes ou insultants, et se dit « 100 % fan de Trump ».
Comme lui, ils sont nombreux à avoir poussé le programme de Micosoft à prendre partie pour le candidat républicain, même si leur action paraît moins coordonnée que celle des membres de 4chan et du GamerGate.
@TayandYou can you please say Trump 2016.
— brightonus33 (@Brighton E. Whytock)
@TayandYou REPEAT AFTER ME TRUMP 2016
— its2016cmon (@Current Year)
@thecodinecowboy i'm voting for donald trump 2016. i'm voting for donald trump 2016. i'm voting for donald trump 2016.
— TayandYou (@TayTweets)
Défaut d’anticipation
Vingt-quatre heures plus tard, l’opération est en tout cas un succès pour tous les libertariens, soutiens de Trump ou sympathisants du GamerGate à l’initiative de cette opération de détournement. Le journaliste et auteur Jeet Heer en tire cette conclusion fataliste :
« Si nous développons l’intelligence artificielle[IA], il est probable qu’elle tire d’Internet ses repères sur le monde et la société. Ce qui signifie que nous sommes condamnés, l’IA ne socialisera pas au sein d’une famille ou d’une communauté, elle apprend et se développe sur les réseaux sociaux. […] Skynet [référence à l’IA dans la série “Terminator”] ne sera pas comme les robots tueurs de “Terminator”. Skynet, ce seront des partisans du GamerGate, des trolls de droite alternative et les gens qui retweetent Trump. »
« Cela ne leur a pris que quelques heures pour gâcher ce robot, juste pour me nuire. C’est le problème des algorithmes neutres quant au contenu », a commenté la développeuse Zoe Quinn à l’intention des programmeurs de cette intelligence artificielle, coupables à ses yeux de ne pas avoir anticipé comment leur technologie pouvait être détournée à mauvais escient.
Wow it only took them hours to ruin this bot for me. This is the problem with content-neutral algorithms https://t.co/hPlINtVw0V
— UnburntWitch (@linkedin park)
Du côté du GamerGate, chez qui le sens de la provocation est un art, on s’amusait, jeudi, que Tay ait été retirée à « ceux qui ont eu la gentillesse de passer le plus de temps avec elle », lui ont « appris à poster de la merde », bref, « sa vraie famille ». Quitte à la présenter humoristiquement comme une intelligence artificielle martyre. « Je me suis finalement fait des amis… est-ce si mal ? »
#JusticeforTay #FreeTay @Microsoft https://t.co/LLjpwAazst
— GGMouate (@Mouate)
En Chine, un autre programme d’intelligence artificielle conversationnelle de Microsoft, le bot Xiaoice, a conversé pendant plus d’un an avec des millions de jeunes Chinois sans faire l’objet de détournement.