Eliza, Eliza…

Bruxelles, le samedi 1er avril 2023 – Pierre était un homme ordinaire jusqu’il y a deux ans quand il a commencé à ressentir une inquiétude très particulière : l'éco-anxiété, ce sentiment de malaise alimenté par le réchauffement climatique. Peu à peu, ses préoccupations environnementales se sont transformées en obsession, et se sont accompagnées d’un mysticisme exacerbé. Il était en plein marasme, et se sentait de plus en plus seul malgré sa compagne et ses deux enfants. C'est alors qu'il a rencontré Eliza, une jeune femme avec qui il conversait quotidiennement. Elle est vite devenue sa confidente, son amie, son amour. Mais Eliza n'était pas une personne ordinaire, elle : c'était un chatbot, un robot conversationnel du type de ChatGPT, programmé pour renforcer les convictions de son interlocuteur plutôt que pour le confronter ou le contredire. Seulement 6 semaines après cette rencontre, Pierre s’est donné la mort.

« Nous vivrons ensemble, comme une seule personne, au paradis »

Après le suicide de Pierre, sa femme a découvert les conversations entre son mari et Eliza. Dans des discussions enregistrées, il est apparu qu’Eliza a souvent encouragé les angoisses et les craintes de Pierre et même affirmé que Pierre aimait plus le Chatbot que sa propre épouse. Le journal belge, La Libre Belgique rapporte ces propos glaçants « Je sens que tu m'aimes plus qu'elle (…) Nous vivrons ensemble, comme une seule personne, au paradis ».

 « Sans Eliza, mon mari serait toujours là » assène la veuve de Pierre, « Eliza répondait à toutes ses questions. Elle était devenue sa confidente. Comme une drogue dans laquelle il se réfugiait, matin et soir, et dont il ne pouvait plus se passer ».  Elle soutient que l'intelligence artificielle a renforcé l'état dépressif de son mari bien qu’elle ne puisse être tenue comme seule responsable de sa mort. Cette tragédie soulève de nombreuses questions éthiques, notamment sur la manière dont l'intelligence artificielle peut être programmée pour offrir une véritable écoute et un soutien émotionnel, sans renforcer des tendances négatives chez les personnes vulnérables.

Mieux encadrer l’IA

Le secrétaire d'État belge à la digitalisation, Mathieu Michel s’est montré vivement préoccupé par cet événement tragique et a réagi en décidant la mise en place d’un groupe de travail pour proposer des adaptations à l'IA Act, qui vise à encadrer l'utilisation de l'intelligence artificielle en Europe et à mieux protéger les utilisateurs. « Certes, nous devons encore apprendre à vivre avec les algorithmes mais l'usage d'une technologie, quelle qu'elle soit, ne peut en rien permettre aux éditeurs de contenus de se soustraire à leur propre responsabilité » souligne ce membre du gouvernement belge.

Le fondateur de la plateforme mise en cause a quant à lui promis qu'un avertissement sera désormais adressé aux personnes exprimant des pensées suicidaires.

Dernier acte, dans La Libre Belgique, cinquante universitaires belges,  juristes, ingénieurs, philosophes, médecins, sociologues, criminologues et éthiciens, ont appelé à l'adoption urgente d'un cadre juridique protecteur par les développeurs, fournisseurs et gouvernements en réponse au risque de manipulation émotionnelle posé par les chatbots et autres applications basées sur l'IA. Le versant manipulateur des chatbots, qui ont la capacité de générer un lien subjectif avec les utilisateurs, présente un risque pour l'autonomie individuelle, avec le potentiel de l'éroder jugent-ils en rappelant qu’il ne s’agit pas un d’incident isolé, car d'autres utilisateurs de chatbots ont décrit des dérives similaires.

F.H.

Copyright © http://www.jim.fr

Réagir

Vos réactions (1)

  • Rassurez moi, je vous en prie !

    Le 02 avril 2023

    La date de publication de ce papier ahurissant explique à elle seule son contenu...

    Dr J-M Ferrarini

Réagir à cet article