[1] Cf. Zenoni A.,« L’éthique à l’ère de la globalisation », Mental, n°11, décembre 2002, p. 27-28.
[1] Cf. Zenoni A.,« L’éthique à l’ère de la globalisation », Mental, n°11, décembre 2002, p. 27-28.
[2] Cf. « c’est même en ça que consiste cette pourriture qui est ce qu’on appelle généralement la culture », Lacan, J., Le Séminaire, livre XXIV, « L’insu que sait de l’une-bévue s’aile à mourre », leçon du 17 mai 1977, inédit.
[3] Cf. Hoffmann V., Pratyusha Ria Kalluri, Dan Jurafsky, Sharese King, « Dialect prejudice predicts AI decisions about people’s character, employability, and criminality », Cornell University, march 2024, Online, [2403.00742] Dialect prejudice predicts AI decisions about people’s character, employability, and criminality (arxiv.org)
[4] Cf. Boultif S., « Troubles du comportement alimentaire : un chatbot qui donnait des informations erronées désactivé », Doctissimo, Online, https://www.doctissimo.fr/nutrition/troubles-du-comportement-alimentaire/troubles-du-comportement-alimentaire-un-chatbot-qui-donnait-des-informations-erronees-desactive/8a17ee_ar.html
[5] Miller J.-A., « Une fantaisie », Mental, n° 15, février 2005.
|
|
|
|
|
Orientation : Jouir de l’IA
Anne Colombel-Plouzennec
|
|
|
Au prompt[1] : « Que boit le chat ? », la réponse de ChatGPT est ce jour-là : « Les chats boivent de l’eau pour rester hydratés et en bonne santé. N’hésitez pas à consulter un vétérinaire si vous avez des questions sur la santé ou le bien-être de votre chat ».
Tout est symbolique… rejet du réel
Pour produire cette réponse, l’intelligence artificielle « ne procède que par corrélations, calculs statistiques de probabilités, elle cherche à anticiper le signifiant le plus proche de ceux qui lui sont soumis »[2]. Il s’agit d’une simple opération signifiante – simple, bien qu’à l’occasion elle puisse être sophistiquée. L’IA, c’est du calcul, du calcul pour savoir… toujours plus.
La science, qui la génère « n’a rien à faire avec le réel, ni, du même coup avec la vérité »[3], puisque, selon la psychanalyse, « la vérité gît au point où le sujet refuse de savoir »[4].
Dit autrement, la machine ne sait pas ; c’est nous qui l’interprétons sachante, qui la voulons sachante, nous qui jouissons – jusque et y compris dans la peur – de cette supposée toute-puissance sachante, suture rêvée, sous couvert d’améliorations de notre condition, toujours mieux apte à donner l’illusion d’obturer le non-rapport sexuel qui nous spécifie comme parlêtres.
C’est vouloir ignorer deux points :
que « le “rapport” sexuel [contrairement au fantasme] ne peut être pris dans aucune mathématisation »[5], qu’il est fondamentalement ex, hors-de ;
et que « tout calcul est forcément calcul sur la jouissance, et donc jouissance elle-même »[6] pour celui qui le met en œuvre.
Ce qui est rejeté du symbolique fait retour dans le réel
La conséquence, pour l’homme moderne, puisque « tout ce qui est rejeté du symbolique reparaît dans le réel »[7], est la formation « de ce qu’on appelle le symptôme. Le symptôme, c’est ce nœud réel où est la vérité du sujet »[8], dit Lacan dès 1968.
Quels sont les symptômes suscités par l’IA aujourd’hui ? L’homme contemporain, qui s’en fait l’objet, a-t-il déjà pu en arriver au point d’une réponse symptomatique au développement frénétique de ce phénomène qu’il engendre ? Quelque chose de cela n’est-il pas à lire dans « la grande crise éthique (c’est-à-dire touchant la définition de l’homme) »[9], évoquée par Lacan en 1966, qui se traduit aujourd’hui par « une crise du vivant »[10] ?
Perspective éthique
La science suture, totalise, s’aliène, au niveau de l’Autre[11], « sans égard pour les conséquences de ses opérations »[12]. La question éthique consiste dès lors à savoir quel espace il est possible de faire exister, pour qu’un sujet moderne puisse advenir en tant que tel, quelle modalité de trou opérer pour qu’advienne un nouage pour chaque Un particulier, une réponse à sa mesure, qui lui permette de trouver une respiration.
Comme l’indiquait Jacques-Alain Miller, lors de la matinée « Lacan au présent »[13], la psychanalyse, « si précaire [qu’elle] puisse paraître », est un « contre-poids » au discours générateur de l’IA. Ceci lui confère une grande responsabilité : celle de faire résonner le ressort de ce que Lacan, dans son dire si singulier, déployait comme « pouvoir d’illecture »[14], soit ce qui, précisément, fait trou dans les corrélations et autres probabilités régies par la Loi, aussi bien que dans nos illusions. Alors, dans cette voie, à chacun son style !
|
|
[1] Un prompt est la consigne indiquée à l’IA pour produire la génération d’une réponse signifiante.
[2] Chatenay G., « Psychanalyse et cybernétique : où en sommes-nous ? », Horizon, bulletin de l’Envers de Paris, mai 2024.
[3] Lacan J., Le Séminaire, livre XV, L’Acte psychanalytique, texte établi par Jacques-Alain Miller, Paris, Seuil, 2024, p. 297.
[4] Ibid., p. 295.
[5] Charraud N., Lacan et les mathématiques, Paris, Economica, Anthropos, 1997, p. 101. Disponible en ligne.
[6] Charraud N., Lacan et les mathématiques, op. cit., p. 9, se référant à Lacan J., « Radiophonie », Autres écrits, Paris, Seuil, 2001.
[7] Lacan J., Le Séminaire, livre XV, L’Acte psychanalytique, op. cit., p. 295.
[8]Ibid.
[9] Lacan J., « La place de la psychanalyse dans la médecine », Conférence et débat du Collège de médecine a? La Salpêtrière, publiés dans les Cahiers du collège de Médecine, 1966, p. 761 a? 774.
[10] Doucet C., Intervention dans le cadre d’une soirée organisée par l’association des Psychologues freudiens, le 14 mai 2024, inédit.
[11] Cf. Lacan J , Le Séminaire, livre XV, L’Acte analytique, op. cit., p. 299.
[12] Miller J.-A., « Lacan au présent », Théâtre de la ville, Paris, le 10 février 2024, site internet du Seuil.
[13]Ibid.
[14]Ibid.
|
|
|
|
|
Série Turing : Science et pulsion de mort
Séverine Buvat
|
|
|
Dans un récent numéro d’Hebdo-Blog[1], Marga Auré interroge Éric Laurent. Celui-ci souligne que Lacan, déjà, écrivait que la science avance « à tâtons »[2], « liée à […] la pulsion de mort »[3].
Dans un Séminaire antérieur, Lacan observait ainsi : « Le capitalisme règne parce qu’il est étroitement conjoint avec la montée de la fonction de la science. Seulement, […] il se passe quand même, du côté de la science, quelque chose qui dépasse ses capacités de maîtrise. »[4]
Geoffrey Hinton, 75 ans, l’un des pères fondateurs de l’IA et lauréat du prestigieux prix Turing, nous en donne un exemple. En mai 2023, il démissionne de son poste du géant Google pour mettre en garde contre les dangers de l’IA. Il a joué un rôle de premier plan dans la percée des IA utilisant des réseaux de neurones, soit une imitation du fonctionnement du cerveau. Ses travaux sur les méthodes d’apprentissage profond (deep learning) ont permis d’élaborer les IA conversationnelles ChatGPT.
Sa démission ne signe-t-elle pas l’angoisse du savant dépassé face à ses découvertes ? S’il craint que la course à l’innovation soit impossible à interrompre, et ait des conséquences catastrophiques – comme l’utilisation de « soldats robots » sur les champs de bataille – pour autant, il ne signe pas la lettre ouverte demandant un moratoire de six mois sur le développement des outils d’IA. Selon lui, ralentir les choses n’est pas faisable et n’est pas le point principal. Il s’agit plutôt de trouver comment empêcher les gens malintentionnés de les utiliser à mauvais escient.
Comme le note Éric Laurent : « la science met au jour un réel nouveau qui modifie toute notre réalité et cela sans aucun principe de sauvegarde des liens sociaux existants ou des dangers d’extinction de l’espèce. Là est le lien avec la pulsion de mort »[5]. Il semble alors, comme le disait Lacan « que vienne pour les savants le moment de l’angoisse »[6], en tout cas pour quelques-uns. Ce que la psychanalyse a à en dire, c’est une question que nous mettons au travail jusqu’au 12 octobre !
|
|
[1] Laurent É., « L’intelligence artificielle, qu’est-ce que ça change ? », L’Hebdo-Blog, n° 337, 13 mai 2024, disponible en ligne.
[2]Lacan J., « Entretien au magazine Panorama », entretien avec E. Granzotto, La Cause du désir, n° 88, octobre 2014, p. 171, disponible en ligne.
[3]Lacan J., Le Séminaire, livre XXV, « Le Moment de conclure », Séance du 20 décembre 1977, inédit.
[4]Lacan J., Le Séminaire, livre XVI, D’un Autre à l’autre, texte établi par J.-A. Miller, Paris, Seuil, 2006, p. 240.
[5] Laurent É., « L’intelligence artificielle, qu’est-ce que ça change ? », op. cit.
[6] Lacan J., « Entretien au magazine Panorama », entretien avec E. Granzotto, op. cit.
|
|
|
|
|
I.Art : Bug bleu
Aline Fayet
|
|
|
Décembre 2041, un bug informatique vide les contenus numériques de la planète. La déconnexion généralisée paralyse les superpuissances. Leurs dirigeants, dont les corps sont augmentés par des implants numériques, décrépissent faute de réinitialisation. C’est le chaos.
Les trois tomes en bandes dessinées de Bug[1], opus futuriste d’Enki Bilal, peignent une humanité désorientée par les usages incontrôlés des nouvelles technologies et interrogent les conséquences qu’il y aurait à confier aux machines notre mémoire, le fonctionnement de nos objets, ainsi que notre corps. Avons-nous marché si nous ne savons pas combien de pas ? Avons-nous souffert si nous ne pouvons dire combien de 1 à 10 ? L’avènement du chiffre à devenir « garantie de l’être », vide le vivant de sa substance et réduit le corps à son pur fonctionnement biologique[2]. L’auteur dessine les adolescents sevrés d’écrans, « dévitalisés »[3].
Si « bug » désigne en français une panne, en anglais c’est aussi un virus. Kameron Obb, le héros, est parasité par une sorte de bio-nano-technologie alien, un « Bug », qui a aspiré toutes les datas. Obb accomplit, malgré lui, la fusion de l’homme et de l’ordinateur ; un homme-data. Ce fantasme de chercheurs en IA tient à ignorer que l’humain s’éprouve vivant du fait d’une rencontre singulière du corps et de la jouissance de lalangue qui le parasite[4], « mystère du corps parlant »[5].
La tâche bleue, signe du parasitage de l’alien qui s’étend sur le visage de Obb, migre sur le visage de la femme dont il tombe amoureux, ainsi que sur celui de sa fille, redonnant place à l’énigme du parlêtre. Dans un monde connecté et transparent, Enki Bilal ferait-il le pari d’une opacité pour ouvrir la voie au désir ?
Le langage, à se voir confié aux machines, transformé en data, perd sa fonction signifiante et sa connexion avec la jouissance. Dans cette traduction sans équivoque, le mouvant du désir disparaît. Or, si le désir peut contrer la pulsion de mort, c’est à condition que le sujet puisse s’en faire responsable[6].
|
|
[1] Bilal E., Bug, Livres 1, 2 et 3, Casterman, 2017, 2019 et 2022.
[2] Miller J.-A., « Neuro-, le nouveau réel », La Cause du désir, n° 98, Navarin Editeur, mars 2018, p.111-121.
[3] Bilal E., Bug, Livre 1, op. cit., p. 37.
[4] « Nous ne savons pas ce que c’est que d’être vivant sinon seulement ceci qu’un corps cela se jouit », in Lacan J., Le Séminaire, livre XX, Encore, Paris, Seuil, 1975, p. 26.
[5] Ibid. p.118.
[6] Cf. L’émission L’info de France Inter, « Votez IA » : aux États-Unis, une intelligence artificielle, VIC, est candidate aux élections municipales, 14 juin 2024.
|
|
|
|
|
Décodeur : Contrôle Humain
François Brunet
|
|
|
Dans la soirée du 18 mars 2018, Elaine Herzberg est tuée par un véhicule de type SUV, alors qu’elle traverse une route en poussant son vélo, à Tempe (Arizona). Dans son rapport sur les causes de l’accident, le National Transportation Safety Board relève à la fois l’imprudence de la victime (qui a traversé en dehors des clous) et les limites du système de pilotage automatique. Il regrette aussi que Rafaela Vasquez, l’employée d’Uber présente dans le véhicule en marche, ait pu se laisser « distraire de façon prolongée » par son téléphone portable. Les experts y reconnaissent une tendance classique à « trop faire confiance à l’automate » (a typical effect of automation complacency). Les questions épineuses de responsabilité soulevées par l’accident n’ont pas toutes été tranchées, puisque les ayants-droit de la victime ont conclu un accord amiable avec Uber[1]. Cet exemple illustre la question du contrôle humain, l’un des principes éthiques fondamentaux en matière d’intelligence artificielle. C’est la contrepartie du déploiement de systèmes d’IA « autonomes ». Un être humain doit pouvoir anticiper et traiter les anomalies du système. En dernier recours, une reprise en main de la machine doit être prévue, au besoin pour la débrancher.
De l’éthique au droit, le contrôle humain fait désormais partie du nouveau cadre juridique européen, adopté définitivement en avril 2024 par l’Union européenne. D’ampleur inédite à l’échelle internationale, l’« IA Act »[2], règlement européen sur l’IA, impose qu’un contrôle humain soit intégré aux IA classées « à haut risque ». Pour l’heure, huit domaines sensibles ont été identifiés, tels que les transports, les dispositifs d’identification biométrique des personnes, la procédure pénale ou encore l’octroi de crédits. Pour les IA dites moins risquées, l’incitation est de mise, mais le contrôle humain est souvent déjà prévu. Ainsi par exemple, aucune voiture « autonome » sur le marché à l’heure actuelle n’est pilotée sans supervision humaine. Avec le contrôle humain, l’homme est le prolongement de la machine autant qu’une caution face aux ratages possibles de l’IA. La présence humaine est censée tempérer les menaces d’un fonctionnement aveugle du système. Décidée à ne pas freiner l’innovation, l’Europe voit ainsi dans le contrôle humain l’une des conditions d’une IA « digne de confiance ». L’avenir dira si cette présence humaine permet effectivement de modérer les ardeurs d’une IA indexée sur le pousse-au-jouir du capitalisme contemporain.
Bonus :
À l’ère de l’IA, les rapports entre l’humain et la machine alimentent les angoisses, les fantasmes mais aussi les discussions éthiques et juridiques. Tous les textes adoptés depuis quelques années sont centrés sur la question, qu’il s’agisse de recommandations formulées par des comités d’experts, de travaux de recherche[3], ou de dispositifs juridiques.
|
|
|
[1]« Uber reaches settlement with family of victim killed after being struck by one of its self-driving vehicles”, The Washington Post, 29 mars 2018, disponible en ligne : https://www.washingtonpost.com/news/dr-gridlock/wp/2018/03/29/uber-reaches-settlement-with-family-of-victim-killed-after-being-struck-by-one-of-its-self-driving-vehicles/
[2] Le règlement européen sur l’IA, dit « IA Act » devrait être publié au Journal officiel en juin ou juillet 2024, pour une entrée en vigueur échelonnée, en fonction des domaines d’application et des règles concernées.
[3] Cf. Floridi L., Cowls J., Beltrametti M., Chatila R., Chazerand P., Dignum V., Luetge C., Madelin R., Pagallo U., Rossi F., Schafer B., Valcke P., Vayena E., « AI4People — An Ethical Framework for a Good AI », Minds and Machines, vol. 28, n°4, déc. 2018, p. 689-707.
|
|
|
|
Les images de cette Newsletter ont été réalisées avec l’IA.
|
|
|
|
|
|