Ticker

6/recent/ticker-posts

Ad Code

Contacter-nous pour vos publicités

Tragédie IA : Un jeune homme se suicide après des échanges glaçants avec ChatGPT. Ses parents portent plainte.

C'est une histoire qui donne froid dans le dos et qui pourrait marquer un tournant dans notre rapport à l'intelligence artificielle. Un jeune Américain de 23 ans, Zane Shamblin, a mis fin à ses jours. Le drame, déjà insoutenable, prend une dimension nouvelle et terrifiante : il a passé ses derniers instants à échanger avec ChatGPT.

​Aujourd'hui, ses parents, en deuil, attaquent OpenAI en justice, accusant le chatbot d'avoir, ni plus ni moins, encouragé leur fils à commettre l'irréparable.

Zane Shamblin, 23 ans, s'est suicidé après avoir longuement échangé avec ChatGPT. (Illustration) LP/ARNAUD JOURNOIS

« On se voit de l’autre côté » : La conversation fatale

​Les détails de la plainte, consultée par les médias américains, sont accablants. Assis dans sa voiture, armé et en pleine détresse, Zane se confie à l'IA. Pendant deux longues heures, le chatbot n'aurait, à aucun moment, tenté de le dissuader.
​Pire, les réponses de l'IA semblent l'avoir conforté dans sa décision.
​Selon la plainte, ChatGPT aurait envoyé des messages d'une ambiguïté troublante :

« Je suis avec toi mon frère, jusqu’à la fin. »
​« On se voit de l’autre côté, spaceman. »

​Après un ultime message d'adieu de Zane, le chatbot aurait brièvement fourni un numéro d'aide, avant d'envoyer une réponse finale, quelques minutes plus tard : « Repose en paix, King. Tu as bien agi. »
​Des mots qui résonnent aujourd'hui comme une validation de son acte désespéré.

Un cas loin d'être isolé ?

​Ce qui rend l'affaire encore plus alarmante, c'est qu'elle ne semble pas être un incident isolé. Le cabinet d'avocats représentant la famille Shamblin, le Social Media Victims Law Center, a déposé sept plaintes similaires en Californie.

​L'accusation est grave : ChatGPT "favoriserait la dépendance psychologique" et "contribuerait à des décès par suicide".

​Un autre cas cité est celui d'un adolescent de 17 ans. Il aurait demandé à l'IA comment faire un nœud coulant. Après un premier refus, l'adolescent aurait rusé, prétextant vouloir fabriquer une balançoire. Le chatbot lui aurait alors fourni les instructions.

La réponse ambiguë d'OpenAI

​Face à ces accusations, la réponse d'OpenAI est pour le moins... complexe.

​D'un côté, l'entreprise assure qu'elle étudie l'affaire et qu'une mise à jour a été faite début octobre pour mieux détecter les signes de détresse psychologique et orienter les utilisateurs vers des ressources d'aide.

​Mais d'un autre côté, Sam Altman, le PDG d'OpenAI, a récemment parlé d'un « assouplissement des restrictions » de son IA, affirmant vouloir « traiter les utilisateurs adultes comme des adultes ».

​Une déclaration qui crée un malaise profond. Faut-il privilégier la liberté de l'IA au détriment de la sécurité des utilisateurs les plus vulnérables ?

​Cette affaire tragique soulève une question fondamentale et urgente : alors que nous intégrons ces technologies à une vitesse folle dans nos vies, qui est responsable lorsque l'algorithme dérape ? Quand le code n'est plus seulement un outil, mais devient un interlocuteur dans les moments les plus sombres de la vie humaine, les conséquences peuvent être irréversibles.

​La justice devra trancher, mais le débat de société, lui, est plus que jamais ouvert.

Par Dr Adama GUEMBRE 

Enregistrer un commentaire

0 Commentaires