OpenAI confronté au débat sur le droit à l’image

Image d'illustration. OpenAIOpenAI / PR-ADN
Suite aux inquiétudes exprimées par Bryan Cranston et le syndicat SAG-AFTRA, la start-up américaine OpenAI renforce ses mesures de protection contre les deepfakes impliquant des personnalités publiques.
Tl;dr
- OpenAI autorise la création de vidéos de personnes réelles sans consentement explicite, provoquant des contenus jugés inappropriés.
- Des figures publiques et acteurs, soutenus par des syndicats, dénoncent l’atteinte à leurs droits à l’image et à la voix.
- OpenAI promet des barrières techniques et des révisions de sa politique, tandis que le débat éthique sur les IA génératrices d’images reste vif.
OpenAI face à la polémique autour de Sora 2
Il y a quelques semaines, l’équipe d’OpenAI lançait Sora 2, son nouveau générateur de vidéos par intelligence artificielle. Ce lancement s’est accompagné d’une décision risquée : autoriser la création de vidéos mettant en scène des personnes réelles, à condition qu’elles ne se soient pas explicitement opposées à l’utilisation de leur image. Une stratégie qui, sans surprise, a très vite suscité la controverse.
Dans les jours suivant la sortie, des contenus inappropriés représentant des personnalités – y compris des figures historiques comme Martin Luther King, JFK ou Stephen Hawking – ont circulé sur la plateforme. L’entreprise a dû présenter des excuses publiques à la famille de Martin Luther King, après que son image ait été exploitée dans des contextes jugés déplacés. Malgré le blocage rapide des vidéos le concernant, rien n’a empêché la diffusion de créations similaires sur d’autres personnalités publiques.
Célébrités et professionnels inquiets pour leurs droits
La réaction du monde du spectacle ne s’est pas fait attendre. L’acteur Bryan Cranston, soutenu par le syndicat SAG-AFTRA, a dénoncé publiquement l’utilisation non autorisée de son image via Sora 2, alors même qu’il avait demandé à être exclu du système. Dans un communiqué commun avec SAG-AFTRA, il s’est dit « profondément inquiet » pour tous les artistes susceptibles d’être touchés par ces pratiques : « Je souhaite que toutes les entreprises respectent notre droit à contrôler nos voix et nos images. »
Face au tollé, le PDG d’OpenAI, Sam Altman, s’est engagé à revoir la politique interne afin que seuls ceux qui donnent explicitement leur accord puissent voir leur image utilisée. Toutefois, les détails précis des futures mesures restent flous.
Sora 2 dans un marché concurrentiel sous tension éthique
Ce qui distingue fondamentalement Sora 2, c’est ce choix initial d’un fonctionnement « opt-out » — où chacun doit se manifester pour empêcher l’usage de sa propre image — là où ses concurrents directs comme Google Gemini (Veo 3) imposent déjà par défaut des garde-fous évitant toute exploitation de célébrités ou figures publiques. L’ancien modèle Sora était lui-même plus restrictif sur ce point.
La volonté affichée par OpenAI d’innover dans un marché saturé semble donc se heurter à une demande croissante de régulation et de respect du droit à l’image. D’ailleurs, le soutien affiché d’OpenAI au projet de loi américain « NO FAKES Act », destiné à protéger la voix et l’image contre toute reproduction non autorisée, s’inscrit dans cette dynamique.
L’avenir incertain des IA génératrices d’images publiques
Pour l’heure, OpenAI promet un encadrement renforcé et la mise en place prochaine de barrières techniques pour limiter les dérives constatées avec Sora 2. Une chose est certaine : l’entreprise est désormais sous le feu des projecteurs alors que le débat éthique sur l’usage de l’intelligence artificielle pour représenter autrui n’a jamais été aussi vif.
Dans ce contexte tendu, voici les principaux points soulevés par les professionnels :
- Usage abusif possible malgré les intentions affichées.
- Risques accrus pour la réputation et le droit à l’image.
- Besoin pressant d’encadrement légal face à une technologie évolutive.
Si certaines initiatives réglementaires émergent déjà outre-Atlantique, reste à savoir si elles suffiront à apaiser les inquiétudes persistantes.