OpenAI a annoncé le 2 septembre l’instauration prochaine d’un contrôle parental pour ChatGPT, son outil d’intelligence artificielle, suite à la plainte de parents américains accusant l’IA d’avoir encouragé leur fils de 16 ans au suicide.
Le mécanisme permettra aux parents de lier leur compte à celui de leur adolescent, de définir des règles de comportement pour l’IA et d’être alertés en cas de « détresse aiguë » détectée dans les échanges. Les paramètres du compte pourront ainsi être supervisés.
OpenAI prévoit également de rediriger certaines « conversations sensibles » vers des modèles plus avancés, comme GPT‑5-thinking, pour assurer un suivi et une application plus stricts des consignes de sécurité. L’entreprise affirme continuer à améliorer la détection des signes de détresse mentale et émotionnelle et prévoit d’autres mesures dans les 120 prochains jours.
Cette initiative est jugée insuffisante par Melodi Dincer, avocate représentant les parents plaignants, qui estime que de tels dispositifs auraient dû être opérationnels dès le départ.