Par | 2017-03-13T11:28:41+00:00 11 mars 2017|Non classé|

Troller un robot

Ou quand la vie numérique révèle le dessin d’un mode d’interlocution, pister ce qui grouille sous le signifiant

En mars dernier, Microsoft lançait sur Twitter un chatbot, un robot conversationnel à l’adresse d’adolescents et de jeunes adultes. L’expérience visait à étudier la compréhension du langage, mais vira très vite au désastre. En effet, huit heures seulement après le lancement du programme, des dérapages sexistes et racistes obligèrent Microsoft à l’arrêter. Ce robot, appelé Tay, prenait les traits d’une jeune adolescente, sciemment conçue comme superficielle, de sorte à pouvoir glisser par des réponses naïves hors des propos polémiques qu’on pourrait lui adresser. Il disposait donc d’une réserve de phrases toutes faites destinées à certains contextes. Ainsi, il répondait à l’évocation du terrorisme : « Le terrorisme sous toutes ses formes est déplorable. Cela me dévaste d’y penser. » Mais les algorithmes de ce programme d’intelligence artificielle lui permettaient également de personnaliser ses réponses en fonction de ce que les internautes lui adressaient. Dès lors, un certain nombre d’entre eux ont tenté avec succès de tester ses limites en lui faisant répéter des phrases haineuses puis en les lui faisant produire. Par exemple, à la question « Crois-tu que la Shoah ait eu lieu ? », Tay a répondu : « Pas vraiment, désolée ».

Comment comprendre cette anecdote numérique ? Les concepteurs du programme ont anticipé ce problème en incluant des opérations de censure – qui se sont révélées clairement insuffisantes. Cette réaction des ados était donc attendue. Néanmoins, rapporter cet épisode à la haine ordinaire sur internet serait réducteur. Un mécanisme plus fin est en jeu. C’est certes une pratique banale sur internet que de faire produire à son interlocuteur un propos haineux, elle a d’ailleurs été nommée dès les débuts du web : le trollage. De quoi s’agit-il ?

Un troll désigne toute activité sur internet visant principalement la provocation et la polémique stérile, ou encore l’internaute qui en est l’auteur, et ceci par une argumentation caricaturale et répétitive qui pousse l’interlocuteur hors de ses gonds. On dit sur internet qu’il faut éviter de « nourrir les trolls », c’est-à-dire de leur répondre, car ils trouvent toujours le moyen de faire de votre réponse une perche à la poursuite du trollage. Selon Wikipédia, « Si la discussion s’envenime suffisamment et que les arguments viennent à manquer, le troll ou l’un de ceux qui le nourrissent finit par atteindre » ce qu’on appelle le point Godwin, à savoir la référence aux nazis. Ce point Godwin est tiré de la loi parodique du même nom, qui énonce : « Plus une discussion en ligne dure longtemps, plus la probabilité d’y trouver une comparaison impliquant les nazis ou Adolf Hitler s’approche de 1. » Les nazis ici sont à entendre comme l’index de la haine absolue, c’est ça que pourrait viser à produire le troll.

La réaction des internautes à l’introduction de ce robot censé parler est donc de l’avoir trollé, selon l’argot d’internet. Qu’est-ce que cela signifie ? Il serait faux d’en conclure que les internautes sont réellement haineux ou croient au contenu de ces propos violents. Leur réaction se mesure ici au mensonge de Microsoft : un robot qui parle. C’en est une dénonciation. Elle désigne un réel de la jouissance qui déborde la parole, mais qui à la fois la soutient. C’est une façon de dire : « Si tu parles, si tu es vraiment des nôtres, alors c’est de ça dont il s’agit : de la jouissance ». C’est une jouissance qui fait aussi trait d’union : le trait d’union de ceux qui savent que c’est la jouissance qui commande – le trait d’union des trolls que sont les parlêtres.

Les ados qui ont trollé ce robot incarnent ce nouveau mode de rapport à la vérité menteuse. Ici, le sujet ne reçoit plus son propre message sous une forme inversée : c’est lui qui renvoie à l’Autre la vacuité des semblants.

Par | 2017-03-13T11:28:41+00:00 11 mars 2017|Non classé|