OpenAI surveille vos conversations avec ChatGPT... et peut les transmettre à la police si besoin
OpenAI, la maison-mère derrière ChatGPT a révélé qu'elle avait pris des mesures pour venir en aide aux utilisateurs qui ont besoin d'aide. ChatGPT a reçu notamment une programmation spéciale pour répondre aux personnes en détresse mentale. Quant aux personnes malintentionnées, un groupe d'humain peut transmettre leurs conversations à la police si nécessaire.
Vous avez la (mauvaise) habitude de parler de vous et de vos sentiments à ChatGPT ? Attention, vos confidences sont loin d'être privées et peuvent être lues par des humains en chair et en os. Alors que les parents d'un adolescent californien de 16 ans qui s'est suicidé en 2025 ont porté plainte contre OpenAI, la maison-mère derrière ChatGPT, cette dernière a annoncé ses mesures pour protéger ses utilisateurs dans un article de blog.
Certaines conversations transmises à la police
Parmi eux, les personnes en situation de détresse mentale ou émotionnelle. "Nous ressentons une profonde responsabilité d’aider ceux qui en ont le plus besoin", écrit ainsi OpenAI qui précise que son assistant est programmé pour répondre avec empathie, mais également pour orienter les personnes suicidaires vers des numéros d'aide ou des professionnels. "Nous travaillons en étroite collaboration avec plus de 90 médecins dans plus de 30 pays — psychiatres, pédiatres et médecins généralistes — et nous réunissons un groupe consultatif d’experts en santé mentale, développement des jeunes et interaction homme-machine afin de garantir que notre approche reflète les dernières recherches et meilleures pratiques."
Par ailleurs, dans la même note de blog, OpenAI révèle l'existence de "circuits spécialisés" pour les conversations dont les "utilisateurs envisagent de faire du mal à d'autres". Lorsque ce cas est détecté, il est ainsi examiné par "une petite équipe formée [aux] politiques d'utilisation et autorisée à agir". Concrètement, ce groupe d'humains bien réels peut bannir des comptes, voire s'ils "jugent qu’un cas implique une menace imminente de dommages physiques graves envers autrui, [ils peuvent] le signaler aux forces de l’ordre."
À noter que "compte tenu de la nature particulièrement intime des interactions avec ChatGPT", OpenAI précise ne pas transmettre "les cas d'automutilation aux autorités afin de respecter la vie privée".
À l'avenir, OpenAI compte encore renforcer son programme d'aide aux personnes en détresse et réfléchit notamment à la mise en place d'un réseau d'experts qui pourrait être contacté directement via ChatGPT, mais également à une protection spécifique pour les mineurs.