Que nous le sachions ou non, que nous l’acceptions ou non, nous laissons dans big data des traces, de véritables « phéromones numériques »1, que d’ailleurs nous ne pouvons toutes effacer – nos tentatives d’effacement elles-mêmes laissent des traces. Nos traces, signaux purement matériels, traits unaires pour reprendre le terme lacanien, sont l’objet de data mining et profilages par corrélations statistiques. Par exemple, à partir du traitement de dizaines de milliers de photos de chiens, peut être créé un profil générique du Chien.
Nul signifiant dans ces profils, mais qu’en est-il du langage lorsque phonèmes, signes, paroles et écrits sont réduits en objets de calculs numériques ? Qu’en est-il du langage à l’heure de l’IA générative et du deep learning, de la reconnaissance de la parole, de la traduction automatique et de nos conversations avec ChatGPT, Élisa ou Psychologist ?2
Dans le traitement algorithmique du langage, il s’agit, nous dit Yann Le Cun, à partir de la donnée d’un début de texte, d’anticiper le mot d’après statistiquement le plus probable3. Mais comment éliminer l’ambiguïté, l’équivoque structurale des mots et des phrases, pour en faire des supports de calculs probabilistes ? Selon les chercheurs en IA, le sens d’un mot dépend du « contexte » : en l’occurrence le « modèle de langage » utilisé, c’est-à-dire la structure et le lexique qui ont été injectés lors de la phase d’apprentissage de la machine. Ainsi Y. Le Cun nous raconte-t-il que l’on a utilisé, par exemple, l’immense base de données de Wikipédia (qui est éminemment structurée) pour construire une IA que je dirais, de façon un peu provocatrice, plus « cultivée ».
L’IA générative anticipe donc le mot le plus probable sur la base de tous les mots du modèle de langage, et conformément à sa syntaxe. Mais produire des phrases en articulant les signifiants de la langue, c’est ce que nous faisons tous les jours – l’Autre nous précède ! Quelle différence alors entre l’IA et notre pratique de la langue ? L’IA ne procède que par corrélations et calculs statistiques de probabilités, elle cherche à anticiper le signifiant le plus proche de ceux qui lui sont soumis. L’IA fonctionne de proche en proche. C’est-à-dire qu’elle ne se déploie que par métonymie. Elle exclut toute métaphore, qui, elle, procéderait par substitution d’un mot à un autre mot qui n’est pas dans son voisinage. Ainsi toute métaphore est-elle par définition rejetée par l’IA – comme toute coupure, comme tout acte, comme toute énonciation. Paraphrasons Jacques Lacan : pour elle, qu’on dise reste structuralement forclôt derrière ce qui se calcule dans ce qui se lit4.
Ceci dit, lorsque nous interrogeons ChatGPT, Élisa ou Psychologist, c’est bien pour en lire les réponses. C’est-à-dire que nous traitons les réponses de l’IA comme des signifiants. C’est bien nous, parlêtres, corps parlants, qui opérons le retour du signifiant, et réintroduisons équivoques, oublis, erreurs, mensonges et trous dans le savoir illusoire des algorithmes, dans le simulacre numérique de l’Autre.
Et pour en revenir à nos tentatives d’effacement de nos traces, qui elles-mêmes laissent des traces, comment ne pas penser qu’en celles-ci résiderait paradoxalement le seul lieu du sujet dans l’Autre numérique — le sujet du signifiant comme effaçon, pour reprendre un terme de Lacan. Au cœur des procédures numériques, un désir de dissidence.