Google dévoile son grand plan pour nous protéger des menaces de l’intelligence artificielle
Google dévoile son grand plan pour nous protéger des menaces de l'intelligence artificielle. Un framework qui veut servir de standard pour la sécurité contre l'IA.
Alors que de plus en plus d’entreprises se lancent sur l’intelligence artificielle (IA) générative, Google veut que nous nous inquiétions davantage pour notre sécurité. Pour cela, le géant de la tech a lancé son Secure AI Framework (SAIF), pensé et conçu comme une sorte de roadmap, même si cette dernière assez légère pour le moment.
Google dévoile son grand plan pour nous protéger des menaces de l’intelligence artificielle
Si vous imaginez déjà un véritable plan d’attaque pour gérer le risque existentiel de l’IA dont Elon Musk ne cesse de parler ces derniers temps, il va falloir vous faire une raison : ce n’est pas le cas. Voyez plus petit et à plus court terme.
Voiic un résumé des six « éléments principaux » de ce framework :
- Les éléments 1 et 2 concernent l’extension des frameworks de sécurité existants d’une entreprise pour inclure les menaces de l’IA.
- L’élément 3 se soucie d’intégrer l’IA dans la défense contre les menaces de l’IA, ce qui peut paraître assez perturbant, à tout le moins.
- L’élément 4 concerne les avantages de la sécurité à uniformiser les « frameworks de contrôle » relatifs à l’IA.
- Dans les éléments 5 et 6, il s’agit d’inspecter, évaluer et tester constamment les applications IA pour être sûr qu’elles peuvent encaisser des attaques et qu’elles ne vous exposent pas à des risques non nécessaires.
Autrement dit, pour l’heure, Google veut principalement que les sociétés amènent des idées de cybersécurité élémentaire autour de l’IA. Comme le directeur de la sécurité de Google Clou, Phil Venables, le déclarait à Axios, « même alors que les gens cherchent les approchent les plus avancées, ils devraient vraiment se rappeler qu’il faut aussi, et surtout, avoir d’abord les plus basiques. »
Mais il y a des craintes pour le moins nouvelles et uniques qui apparaissent avec les applications d’IA générative comme ChatGPT.
Un framework qui veut servir de standard pour la sécurité contre l’IA
Par exemple, des chercheurs en sécurité ont identifié un risque : les « injections de prompt », une forme étrange d’exploitation de l’IA dans laquelle une commande malveillante dirigée vers un plugin de chatbot IA se trouve intégré dans des blocs de texte. Lorsque l’IA scanne l’injection de prompt, celui-ci change la nature de la commande donnée à l’IA. C’est un peu comme si vous cachiez un sort de contrôle de l’esprit sur le téléprompteur d’un animateur TV ou d’un chanteur pour lui faire dire ce que vous voulez.
Et les injections de prompt ne sont que l’un des nouveaux types que Google espère pouvoir ainsi combattre. On trouve aussi :
- « Voler le modèle », une manière de duper un modèle de traduction en abandonnant ses secrets.
- « L’empoisonnement des données », dans laquelle une personne malveillante sabote le processus d’entraînement avec des données intentionnellement fausses.
- Construire des prompts qui peuvent extraire des textes potentiellement confidentiels ou sensibles qui avaient été, à l’origine, utilisés pour entraîner le modèle.
Le post de blog de Google à propos de SAIF explique que le framework est actuellement adopté par Google. Quant à savoir ce que la sortie de ce « framework » pourrait signifier en pratique, la réponse est simple : cela pourrait ne servir à rien du tout, mais ce pourrait aussi devenir un vrai standard. Par exemple, le National Institute of Standards and Technology (NIST) du gouvernement américain avait dévoilé un framework plus général pour la cybersécurité en 2014. L’objectif était de protéger les infrastructures critiques des cyberattaques, mais aussi d’influencer grandement. Il est aujourd’hui reconnu comme un vrai standard dans la cybersécurité par les professionnels de l’IT.
Google, cependant, n’est pas le gouvernement américain, qui met en doute l’autorité de son framework face aux IA concurrentes de Google, comme OpenAI. Mais en matière de sécurité, il semble que Google veuille vouloir prendre les rênes, plutôt que de jouer la grande bataille de l’IA en elle-même. Peut-être que le lancement de SAIF doit justement servir à cela. À suivre !