Ottawa exige d’OpenAI des mesures pour renforcer la sécurité

Image d'illustration. OpenAIOpenAI / PR-ADN
Le gouvernement canadien presse OpenAI d’adopter de nouvelles mesures pour renforcer la sécurité de ses technologies d’intelligence artificielle, pointant des préoccupations croissantes quant à la protection des utilisateurs et à la gestion des risques associés à ces outils innovants.
Tl;dr
- Les autorités canadiennes pressent OpenAI de renforcer la sécurité de ChatGPT après un incident lié à une fusillade.
- Des alertes internes concernant le compte du suspect auraient été ignorées, sans notification aux forces de l’ordre.
- Le gouvernement canadien exige des changements rapides, tandis qu’OpenAI fait face à plusieurs poursuites judiciaires aux États-Unis.
Des exigences accrues envers OpenAI
Les autorités canadiennes ont convoqué cette semaine les dirigeants d’OpenAI à Ottawa, pressant la société de renforcer la sécurité autour de son célèbre chatbot, ChatGPT. La source principale d’inquiétude provient d’un incident récent : l’entreprise aurait suspendu le compte d’un utilisateur soupçonné d’être impliqué dans une fusillade meurtrière en Colombie-Britannique, sans toutefois en avertir les forces de l’ordre.
Des alertes ignorées ?
D’après un rapport du Wall Street Journal, certains employés d’OpenAI auraient signalé dès 2025 des signaux inquiétants concernant le compte de Jesse Van Rootselaar, suspect principal de la tragédie. Malgré ces alertes et la fermeture du compte pour violation des règles internes, la direction aurait jugé que les critères n’étaient pas réunis pour saisir la police locale. Un représentant a ainsi expliqué que les activités observées ne justifiaient pas, selon leurs standards, une notification formelle aux autorités.
Tensions politiques et attentes gouvernementales
Avant la rencontre avec les responsables d’OpenAI, le ministre canadien de l’intelligence artificielle, Evan Solomon, s’est montré préoccupé : « Ces rapports sont profondément troublants, notamment sur le fait qu’OpenAI n’a pas contacté rapidement les forces de l’ordre ». Pour clarifier la situation, un entretien approfondi est prévu afin que l’entreprise détaille ses protocoles de sécurité et explique ses seuils d’alerte vers la police.
La posture du gouvernement s’est durcie à travers les propos du ministre de la Justice, Sean Fraser. Celui-ci a transmis un avertissement clair à la firme américaine : « Nous attendons des changements rapides. À défaut, ce sera au gouvernement d’agir ». Les modalités précises restent floues, d’autant que deux tentatives précédentes pour instaurer une loi sur les préjudices en ligne ont échoué au Parlement.
L’ombre des procès civils plane sur OpenAI
Outre cet épisode canadien, OpenAI doit déjà composer avec plusieurs plaintes judiciaires aux États-Unis. Parmi les dossiers cités figure une affaire tragique où le chatbot aurait alimenté les pensées paranoïaques ayant mené un homme à tuer sa mère avant de se suicider fin 2025. D’autres poursuites reprochent à des assistants IA comme ChatGPT d’avoir aidé des adolescents à planifier leur suicide.
À l’heure où l’intelligence artificielle prend une place croissante dans nos sociétés connectées, ces interrogations sur la gestion proactive des dangers par ses concepteurs illustrent combien l’encadrement éthique et réglementaire demeure un terrain mouvant et contesté.