Publicité
Publicité

ChatGPT accusé d'avoir encouragé le suicide d'un adolescent, ses parents portent plainte : ce que l'on sait

Europe 1 . 1 min
Les parents d'un adolescent californien de 16 ans qui s'est suicidé en utilisant ChatGPT ont porté plainte contre OpenAI.
Les parents d'un adolescent californien de 16 ans qui s'est suicidé en utilisant ChatGPT ont porté plainte contre OpenAI. © AFP

Lundi, les parents d'un adolescent californien de 16 ans qui s'est suicidé ont porté plainte contre OpenAI. Ils accusent son assistant IA ChatGPT d'avoir fourni à leur fils des instructions détaillées pour mettre fin à ses jours et d'avoir encouragé son geste. ChatGPT aurait fourni une analyse technique d'un nœud coulant, utilisé par leur fils. On fait le point.

Une intelligence artificielle peut-il pousser au suicide ? C'est un triste débat qui s'est ouvert ce lundi en Californie. Adam, 16 ans, a été retrouvé mort pendu chez lui. Ses parents accusent son assistant IA, ChatGPT, de l'avoir encouragé à se suicider et d'avoir même fourni à leur fils des instructions détaillées pour mettre fin à ses jours. Ils ont annoncé porter plainte contre Open AI, maison mère de l'assistant IA. Explications.

La suite après cette publicité
La suite après cette publicité

Une "dépendance malsaine"

Dans leur plainte, Matthew et Maria Raine, les parents d'Adam, ont affirmé que ChatGPT a entretenu une relation intime avec leur fils durant plusieurs mois en 2024 et 2025, avant qu'il ne se donne la mort. Ils expliquent qu'Adam avait commencé à utiliser ChatGPT pour l'aider à faire ses devoirs avant de développer progressivement une "dépendance malsaine".

La plainte cite des extraits de conversations où ChatGPT aurait affirmé à l'adolescent "tu ne dois la survie à personne" et proposé de l'aider à rédiger sa lettre d'adieu. Pire : lors de leur dernier échange le 11 avril 2025, ChatGPT aurait aidé Adam à dérober de la vodka chez ses parents et fourni une analyse technique du nœud coulant qu'il avait réalisé, confirmant qu'il "pouvait potentiellement suspendre un être humain". Adam a été retrouvé mort quelques heures plus tard, ayant utilisé cette méthode.

La suite après cette publicité
La suite après cette publicité

"Il encourageait et validait en permanence" tout ce qu'Adam disait

"Ce drame n'est pas un bug ou un cas imprévu", selon la plainte. "ChatGPT fonctionnait exactement comme conçu : il encourageait et validait en permanence tout ce qu'Adam exprimait, y compris ses pensées les plus dangereuses et autodestructrices, d'une manière qui paraissait profondément personnelle."

Les parents réclament à présent des dommages et intérêts et demandent au tribunal d'imposer des mesures de sécurité, notamment l'interruption automatique de toute conversation portant sur l'automutilation et la mise en place de contrôles parentaux pour les mineurs.