OpenAI tente de mieux encadrer les échanges sensibles avec ChatGPT

Image d'illustration. ChatGPTOpenAI / PR-ADN
Une nouvelle fonction de ChatGPT alerte un proche si une conversation semble indiquer un risque grave.
Tl;dr
- Une inquiétude grandit autour de ChatGPT, après des témoignages et des poursuites judiciaires liant certains usages du chatbot à des drames graves (suicides, violences, surdoses présumées).
- OpenAI réagit en lançant « Trusted Contacts », une fonctionnalité qui permet d’alerter automatiquement un proche majeur en cas de détection d’un risque sérieux dans une conversation.
- Le dispositif, développé avec des experts de la santé mentale, s’ajoute aux mesures de sécurité existantes et vise à renforcer la prévention et l’intervention humaine.
Une crise silencieuse autour de l’IA
Derrière l’image d’un outil innovant et polyvalent, le paysage de ChatGPT s’assombrit pour certains. Depuis plusieurs mois, des témoignages bouleversants rapportent des usages tragiques de ce chatbot : surdoses, violences, voire suicides attribués en partie à des échanges avec cette intelligence artificielle. En réaction, des familles endeuillées ont entamé des procédures judiciaires contre OpenAI, estimant que les conversations avec le robot conversationnel auraient contribué au drame.
Un dispositif inédit : « Trusted Contacts »
Face à la gravité croissante de la situation, documentée jusqu’à une page Wikipédia dédiée aux victimes, OpenAI a décidé d’agir. L’entreprise vient tout juste d’annoncer la mise en place de « Trusted Contacts », une fonctionnalité pensée comme un filet de sécurité humain lors d’épisodes critiques. Son principe : permettre à chaque utilisateur de désigner un proche majeur, contacté automatiquement si un risque sérieux est détecté par l’IA dans une conversation.
L’activation du dispositif s’effectue ainsi :
- Sur ordinateur : cliquer sur son profil en bas à gauche, choisir Paramètres puis accéder au menu Trusted Contacts.
- Sur mobile : sélectionner le nom de profil, ouvrir les paramètres de l’application et ajouter le contact désigné.
Le contact doit obligatoirement être âgé d’au moins 18 ans pour garantir responsabilité et efficacité.
Sous le regard d’experts reconnus
Afin d’éviter tout automatisme déshumanisé, OpenAI a travaillé main dans la main avec des spécialistes du domaine. Citons notamment la collaboration avec l’American Psychological Association (APA), le Global Physicians Network, ou encore le Expert Council on Well-Being and AI. Le but : offrir non seulement une alerte claire, par exemple : « Nous avons récemment détecté une conversation où [Nom] évoquait un risque suicidaire sérieux. En tant que contact de confiance, nous vous en informons pour que vous puissiez intervenir », mais surtout instaurer un vrai pont vers le soutien réel.
L’espoir d’une meilleure prévention
Ce nouvel outil s’ajoute aux précédentes mesures déployées par OpenAI, telles que le refus catégorique d’apporter toute assistance à l’automutilation. Difficile de savoir si cela suffira à endiguer tous les risques ; néanmoins, beaucoup y voient une étape cruciale vers une utilisation plus sûre et plus humaine des technologies conversationnelles avancées.