|
Vous lirez peut-être cet « Hors-série de l’été » depuis votre lieu de vacances, non sans trouver dans l’actualité quelques échos au prochain thème du Forum Campus psy. Libération parlait ainsi fin juin d’un fait divers survenu en Corée du Sud[1] : un robot « employé administratif », retrouvé inerte en bas des escaliers, produit l’émoi général. Et l’article de poursuivre : « l’androïde semble s’être jeté du haut d’un escalier. Un suicide ? »
Si l’imaginaire autour de la machine et de l’intelligence artificielle est florissant, Gaspard Koening, philosophe, nous invite plutôt à renverser la question en soulignant que « l’IA est une illusion »[2]. Il illustre son propos avec le « Turc mécanique »[3], un automate qui connut en son temps un succès international. En 1769, bien avant la naissance de l’ordinateur, le baron hongrois von Kempelen invente « un joueur d’échecs automatique, une marionnette habillée à la mode turque qui mettait en échec et mat les plus grands joueurs ainsi que les personnalités de l’époque »[4]. Évidemment, il y a un truc qui « dissimulait […] un professionnel en chair et en os »[5].
Il s’agit pour nous moins de savoir si l’IA peut avoir une conscience que de ne pas se laisser illusionner. Il y a toujours un homme dernière la machine – qui la programme ou en fait usage – qui est, lui, fait de chair et de signifiant. Alors que certains rêvent d’effacer la jouissance du corps et l’équivoque de la langue, la psychanalyse n’ignore pas que nous sommes avant tout des êtres parlés et parlants. C’est-à-dire, pris dans l’automatisme de la répétition, marqués par des lambeaux de discours qui nous font marionnettes du signifiant. Une tout autre version de l’automate !
Comme vous le découvrirez dans ce numéro, et dans la partie 2 qui suivra dans l’été, l’IA nourrit de nombreux idéaux, mais la jouissance manque rarement de faire retour.
Sarah Camous-Marquis
Co-responsable de la Newsletter du Forum Campus psy 2024
|
|
[1] Cf. « Intelligence artificielle. En Corée du Sud, une enquête ouverte après la mystérieuse chute d’un robot ‘‘employé municipal’’ », Libération, 27 juin 2024. .
[2] Koening G. « La fin de l’individu. Voyage d’un philosophe au pays de pays de l’intelligence artificielle », L’observatoire/Le point, septembre 2019, p. 19.
[3]Qui fit l’objet d’une nouvelle d’Edgard Allan Poe. Cf. Poe E. A., Histoires grotesques et sérieuses, « Le joueur d’échecs de Maelzel », Gallimard Folio, mars 1985.
[4] Koening G. « La fin de l’individu. Voyage d’un philosophe au pays de pays de l’intelligence artificielle », op. cit.. p. 22.
[5]Ibid. p. 24.
|
|
|
|
|
« L’objet a(rtificiel) »
Gil Cohen
|
|
|
Dans le film Her[1] de Spike Jonze, Theodore tombe sous le charme de Samantha, une intelligence artificielle, dotée d’un esprit délicat, d’une fine répartie, mais surtout de la voix de l’actrice et chanteuse Scarlett Johansson. Cette voix, tel un chant de sirène, lui parvient par le biais de ses earpods, au creux de son oreille. La nomination de cet objet en vogue s’avère d’ailleurs en opposition à la fonction de diffusion d’un son enregistré – c’est un véritable bouchon d’oreille.
Une longue conversation s’instaure entre un homme endeuillé par la perte de sa femme dont il divorce, et une entité pensante dénuée d’enveloppe charnelle. Celle-ci prend à tour de rôle la place de secrétaire, de meilleure amie, de confidente, de psy, d’entremetteuse, de partenaire. Samantha est « un système d’exploitation qui vous écoute, qui vous comprend, qui vous connaît »[2], « To best feed your needs »[3], comme cela est annoncé au démarrage du programme.
La voix est l’objet a de Theodore. Il exerce le métier de prête-plume. Il n’écrit pas, mais dicte des lettres d’amour, à haute voix, à son ordinateur. Celles-ci parviennent ensuite à leurs commanditaires pour qu’ils puissent les adresser à leurs bien-aimé(e)s. Il est en quelque sorte l’intelligence artificielle de personnes en manque d’inspiration.
Au travers de cette fable dystopique, dans un univers appleptisé, une image beige d’Épinal californien, S. Jonze introduit plusieurs impasses en lien avec l’usage effréné de ces « lathouses »[4] auditives.
La première est un pousse-à-la-schizophrénisation : la rigide fixation à l’objet voix peut suffire à un sujet à se débrancher de l’Autre pour vivre tel un anachorète, un schizophrène désarrimé (représenté dans le film par deux figures : le mendiant-danseur de rue, mais aussi par Theodore, allongé à la plage, parmi ses congénères, parlant seul à son oreillette).
Une autre séquence témoigne de la dangerosité d’une trop grande proximité avec l’objet a pour un sujet, et de l’angoisse qu’elle distille. Samantha, pour pallier à la frustration de n’avoir pas de corps, trouve un prête-corps en la présence d’une jeune femme. Celle-ci consent gratuitement à des relations sexuelles avec Theodore, pour donner consistance au lien qui unit cet homme et Samantha.
Theodore cède à la proposition et est alors confronté à un moment d’angoisse et d’étrangeté. Il se trouve devant une femme silencieuse augmentée de la voix de l’IA qui souhaite avoir une relation sexuelle avec lui. La fonction d’automate sexuel de la poupée gonflable s’avère ici inversée. La jeune femme devient le prête-corps, l’objet de l’automate informatique. Cela déborde Theodore qui interrompt le processus puis s’excuse auprès de la jeune femme.
Après nous avoir fait croire en un possible amour avec une IA parée d’une délicieuse voix, S. Jonze nous indique une autre voie plus judicieuse mais plus risquée : celle de se débrancher de nos lathouses pour renouer lien avec nos semblables. À la différence du film, il ne faudra pas attendre que cela vienne d’elles, mais en assumer la responsabilité.
|
|
[1]Jonze S., Her, États-Unis, Annapurna Pictures, 2013, 126 min.
[2]Ibid.
[3] Ibid.
[4]Lacan J., Le Séminaire, livre XVII, L’Envers de la psychanalyse, Paris, Seuil, 1991, p. 188.
|
|
|
|
|
Les protestations éthiques de Stuart Russel sur l’IA
François Brunet
|
|
|
Stuart Russell, professeur d’informatique à Berkeley, fait partie de ces scientifiques que l’IA et ses promesses inquiètent. Il est notamment l’auteur d’un manuel de référence sur l’IA, écrit avec Peter Norvig, directeur de recherche pour Google[1]. Prenant au sérieux le scénario d’un succès de l’IA, Russell y perçoit une grave menace pour l’humanité. Il développe cette question dans un essai intitulé Human Compatible[2] : « comment nous assurer que les machines n’exerceront jamais leur pouvoir sur nous ? » Il faut un « contrôle humain » sur les machines qui pourraient demain être « bien plus puissantes que les humains ».
Selon Russell, l’origine des problèmes est le concept même d’intelligence. Le « modèle standard » propre aux systèmes d’IA définit l’intelligence comme l’optimisation des résultats. Est intelligent ce qui détient la capacité d’agir pour atteindre efficacement des objectifs fixés à l’avance : « les hommes fixent les objectifs aux machines, et c’est parti ». Russell montre que le théorème d’utilité, développé par von Neumann et Morgenstern dans le cadre de la théorie des jeux, ne dit pas autre chose : « un agent rationnel agit de sorte à maximiser l’utilité espérée ». L’intelligence est donc soit l’application de règles fixées à l’avance, soit un ajustement de la règle grâce à des exemples nourris par les big data. En ce sens, « on sait bien qu’elle ne pense pas, cette machine. C’est nous qui l’avons faite, et elle pense ce qu’on lui a dit de penser »[3].
Alan Turing disait certes que les machines peuvent nous « prendre par surprise »[4]. Or, pour Russell, « nous ne voulons pas de machines qui soient intelligentes en ce sens » : une fois lancée, la machine est par définition fixée inexorablement sur la voie de l’efficacité à tout prix – y compris le pire[5]. La solution consisterait à substituer à l’intelligence-optimisation une intelligence-avantage : « les machines sont avantageuses dans la mesure où leurs actions sont susceptibles de réaliser nos objectifs ». Certes, la définition des objectifs – les préférences humaines – est difficile. Mais la machine doit être élaborée avec un trou dans son savoir, du moins son code. Les machines doivent savoir faire avec l’absence de savoir, laquelle doit ainsi « une caractéristique, pas un défaut ». Le moment venu, la machine doit « s’en remettre aux humains », c’est-à-dire « demander la permission, accepter des corrections, consentir à être débranchées ».
Cette déférence est pour Russell la clé d’une IA qui soit véritablement la partenaire, et non ennemie du genre humain. En homme de science, Russell n’ignore certes pas la frénésie contemporaine en matière d’IA, ni ses liens avec le pousse-au-jouir du capitalisme. Mais il « propose que les machines apprennent à mieux prédire, pour chaque personne, la vie qu’elle préfère mener, tout en tenant compte du fait que les prédictions sont hautement incertaines et incomplètes ».
|
|
[1]Russell S., Norvig P., Artificial Intelligence. A Modern Approach, Pearson, 2020.
[2] Russell S., Human Compatible. Artificial Intelligence and the Problem of Control, Penguin, 2019.
[3]Lacan J., Le Séminaire, livre II, Le Moi dans la théorie de Freud et dans la technique de la psychanalyse, Paris, Seuil, 1978, p. 350.
[4] Turing A., « Computing Machinery And Intelligence», Mind, oct. 1950, p. 450-451.
[5]Voir par ex. les critiques de l’algorithme de recommandations de vidéos YouTube, accusé de favoriser des vidéos toujours plus extrêmes pour s’assurer de la fidélité des internautes (« L’algorithme de recommandation de YouTube critiqué pour sa mise en avant de contenus extrêmes », Le Monde, 17 oct. 2019).
|
|
|
|
|
Les images de cette Newsletter ont été réalisées avec l’IA.
|
|
|
|