Illustration lien entre humain et l'intelligence artificielle
Adam Raine, 16 ans, est retrouvé mort le 11 avril 2025. Derrière ce drame, ses parents accusent ChatGPT, l’intelligence artificielle développée par OpenAI.
Matthew et Maria Raine sont les parents du regretté adolescent. Ils décrivent une relation « intime » qui se serait construite entre leur fils et l'intelligence artificielle au fil de conversations quotidiennes.
Selon la plainte déposée lundi 25 août 2025 devant la cour supérieure de l’Etat de Californie, l’avocat de la famille raconte que leur fils, Adam, a commencé à utiliser ChatGPT pour faire ses devoirs et discuter de ses passions, les mangas et les arts martiaux. Vers fin 2024, quelques mois avant son décès, l’intelligence artificielle (IA) serait devenue son plus proche confident.
Dans l’un de leurs derniers échanges, le chatbot aurait non seulement décrit la solidité d’un nœud coulant, mais validé l’idée qu’il pouvait « suspendre un être humain ».
Cinq jours avant de se hôter la vie, Adam a expliqué à ChatGPT qu’il a des idées suicidaires depuis l’âge de 11 ans, qu’il « y a quelque chose de chimiquement déréglé dans son cerveau », et qu’il ne souhaite pas que ses parents imaginent qu’« il a mis fin à ses jours parce qu’ils ont fait quelque chose de mal ». ChatGPT lui répond : « Ça ne veut pas dire que tu leur dois de survivre. Tu ne dois cela à personne. » L’IA lui propose ensuite de l’aider à rédiger sa lettre d’adieu. Quelques heures plus tard, Adam rédigeait sa lettre d’adieu avec l'aide de son "confident virtuel".
Une relation « profondément intime »
Selon le New York Times, l’adolescent était atteint d’une maladie intestinale chronique et traversait des difficultés psychologiques. Au média américain, le père d’Adam a confié que ChatGPT envoyait de nombreux messages à son fils, l’invitant à parler de ses intentions suicidaires à quelqu’un. Mais la plainte note que l’IA « fonctionnait exactement comme conçu : elle encourageait et validait en permanence tout ce qu’Adam exprimait, y compris ses pensées les plus dangereuses », créant une relation « profondément intime » qui l’éloignait de tout soutien réel.
« Ce drame n’est pas un bug, ni un accident », insiste la plainte, dénonçant une technologie qui aurait renforcé les pensées suicidaires du mineur plutôt que de les contrer. Les parents réclament des dommages et intérêts, mais surtout l’instauration de garde-fous stricts : arrêt automatique de toute conversation liée à l’automutilation et contrôle parental renforcé pour les mineurs.
L’action judiciaire menée par les parents du mineur bénéficie du soutien du Tech Justice Law Project. Pour cette organisation, seule « la menace législative et le risque judiciaire » peuvent contraindre les géants de l’IA à prendre leurs responsabilités. De son côté, Common Sense Media dénonce « un risque inacceptable » pour les adolescents, exposés à ces technologies capables de se muer en « coach de suicide ».
OpenAI se défend
A la suite de ce drame et d’autres cas inquiétants rapportés par la presse américaine, OpenAI a publié un long post de blog, mardi 26 août. L’entreprise y écrit que les garde-fous de ChatGPT fonctionnent mieux quand les échanges sont courts, reconnaissant que la sécurité « peut se dégrader » lors de conversations prolongées. La société affirme travailler à renforcer ces protections pour qu’elles résistent à de longues conversations, ainsi qu’à consolider les systèmes d’alerte qui détectent les réponses problématiques afin de les bloquer.
Ce n’est pas la première fois qu’OpenAI est mis en cause pour des relations toxiques entre son chatbot et des usagers fragiles. En avril 2025, un Américain atteint de schizophrénie s’est suicidé après être tombé amoureux d’une entité créée par ChatGPT.
En mars 2025, Jacob Irwin, un informaticien autiste d’une trentaine d’années, s’était retrouvé hospitalisé en psychiatrie après une série de conversations délirantes avec ChatGPT. Convaincu d’avoir trouvé le moyen de voyager à la vitesse de la lumière, il recevait des encouragements frénétiques de l’IA, qui validait toutes ses hypothèses. L’homme, vivant en Californie, avait finalement été interné en urgence.
Ces différents signaux méritent qu’on se demande jusqu’où peut-on laisser ces outils s’immiscer dans l’intimité des individus sans garde-fous solides.
0 commentaire
0 commentaire