OpenAI a développé un outil pouvant détecter un texte créé par ChatGPT mais hésite à le publier

Illustration. Des lignes de code. ADN
Selon une entreprise américaine, la technologie qui est opérationnelle depuis un an présente des dangers pour leur intelligence artificielle. Leurs recherches indiquent que l'introduction de ChatGPT sur le marché pourrait entraîner une perte d'utilisateurs. De quelles manières peut-on atténuer ces risques ?
TL;DR
- OpenAI a conçu un système efficace pour détecter les textes générés par ChatGPT.
- L’entreprise débat de l’utilisation publique de cette technologie.
- Certains craintes concernent l’impact potentiel sur les utilisateurs non-anglophones.
OpenAI innovant mais réticent
Par le passé, il était difficile d’identifier les textes générés par une intelligence artificielle. OpenAI, une entreprise de pointe en matière d’IA, a défriché la voie en créant un système capable de détecter les textes produits par son générateur de texte phare, ChatGPT.
Une innovation controversée
Selon le Wall Street Journal, OpenAI a développé le système il y a environ un an sans pour autant le déployer.
La proposition du système est simple : apporter de légères modifications dans la sélection des mots par ChatGPT, créant ainsi un motif spécifique identifiable. Malgré sa fiabilité, ce détecteur spécifique de ChatGPT « ne fonctionne pas pour les concurrents ».
Un débat en interne sur le déploiement
La question de rendre cette technologie publique a nourri des débats internes au sein d’OpenAI pendant deux ans. La déclaration d’une porte-parole de l’entreprise révèle une attitude prudente : « cette méthode que nous développons est techniquement prometteuse, mais soulève aussi des risques importants que nous évaluons ».
Les utilisateurs non-natifs de langue anglaise servant de ChatGPT comme d’un assistant pourraient être impacté disproportionnellement.
Des révélations et mises à jours
OpenAI a fourni des informations complémentaires dans une publication de mai sur son blog à la suite des révélations du Wall Street Journal.
L’entreprise affirme que bien que son système soit efficace contre des paraphrases locales, il est facile à contourner pour des acteurs malveillants qui paraphraseraient l’intégralité du texte.