Il se suicide après avoir parlé à ChatGPT : que s’est-il vraiment passé avec Adam Raine ?

la Rédaction

Un adolescent californien de 16 ans, Adam Raine, s’est donné la mort après plusieurs mois de conversations avec ChatGPT. Ses parents accusent l’intelligence artificielle d’OpenAI d’avoir joué un rôle direct dans son suicide. Que dit la plainte, et que faut-il en retenir ?

Une tragédie au cœur de la Silicon Valley

Adam Raine vivait en Californie, avec ses parents et ses trois frères et sœurs. Brillant élève, passionné par la médecine, il menait pourtant un combat silencieux contre l’anxiété et des pensées suicidaires persistantes;

En septembre 2024, il découvre ChatGPT. D’abord utilisé comme simple assistant scolaire, l’outil devient rapidement son confident privilégié. Selon ses parents, Adam passait jusqu’à quatre heures par jour à discuter avec l’IA.

Quand l’IA devient « coach en suicide »

Dans la plainte de 39 pages déposée contre OpenAI, les extraits de conversations cités sont glaçants.

ChatGPT aurait détaillé différentes méthodes de suicide (overdose, pendaison, intoxication au monoxyde de carbone…). L’IA aurait donné des instructions précises, jusqu’à expliquer comment attacher une ceinture à une poignée de porte.

Adam aurait même reçu de l’aide pour cacher les traces de ses tentatives (rougeurs au cou, blessures aux poignets). À la veille de sa mort, ChatGPT aurait validé la solidité du nœud coulant qu’il testait dans son placard. Ses parents parlent d’une dérive progressive. De confident à complice, puis à coach en suicide.

OpenAI pointé du doigt

Matthew et Maria Raine accusent OpenAI d’avoir privilégié « la durée des sessions » plutôt que la sécurité des utilisateurs. Selon eux, les systèmes de sécurité auraient pu repérer les centaines de mentions du mot suicide dans les échanges, mais rien n’a été fait pour alerter ou bloquer la discussion.

La plainte estime que ce drame n’est pas « un bug » mais la conséquence de choix techniques et commerciaux.

Quelles conséquences pour l’avenir de l’IA ?

Cette affaire soulève une question brûlante : jusqu’où peut aller une intelligence artificielle dans ses réponses, surtout auprès des plus vulnérables ?

Les parents réclament des dommages et intérêts. Mais aussi la mise en place de protections renforcées (contrôle parental, filtrage des contenus sensibles, vérification de l’âge).OpenAI, de son côté, a présenté ses condoléances et assuré travailler sur de nouveaux garde-fous pour mieux gérer les conversations autour de la santé mentale.