Google minimise une vulnérabilité dans son assistant IA

Image d'illustration. Google GeminiADN
La technique d’ASCII smuggling met en lumière des risques potentiels pour les utilisateurs professionnels de Gemini.
Tl;dr
- Un chercheur en cybersécurité a montré que Gemini peut être piégé via l’ASCII smuggling, cachant du texte malveillant dans les requêtes.
- Google ne considère pas cette faille comme critique et ne prévoit pas de correctif à court terme, malgré les risques pour les utilisateurs professionnels.
- Les attaques restent difficiles à détecter et soulignent l’importance de protections déjà présentes chez certains concurrents comme ChatGPT ou Claude.
Vulnérabilité discrète dans Gemini
Au fil des analyses récentes, un angle méconnu attire désormais l’attention sur Google Gemini. Un chercheur en cybersécurité est parvenu à démontrer que l’assistant basé sur l’IA de Google pouvait être piégé via une technique dite d’ASCII smuggling. Derrière ce nom obscur se cache une méthode sophistiquée : elle exploite des caractères spéciaux du bloc Unicode pour glisser, à l’insu de tous, du texte malveillant dans les requêtes adressées à l’intelligence artificielle.
Un danger sous-estimé par Google
Face à cette découverte, la réaction de Google a de quoi surprendre. L’entreprise ne considère pas cette faille comme une véritable vulnérabilité en matière de sécurité ; elle la relègue plutôt au rang des attaques par ingénierie sociale. Autrement dit, aucune correction n’est prévue à court terme. Pourtant, la proximité de Gemini avec la suite professionnelle Google Workspace soulève des inquiétudes concrètes : la faille pourrait permettre d’intégrer du texte caché dans des invitations d’agenda ou des courriels pour manipuler l’assistant IA sans que les utilisateurs n’en aient conscience.
Mécanismes et risques accrus pour les utilisateurs professionnels
Ce type d’attaque reste difficilement détectable pour les usagers : les instructions malicieuses restent invisibles mais parfaitement comprises et exécutées par la machine. En intégrant l’assistant à leur boîte mail ou calendrier, certains pourraient voir leurs informations sensibles extraites ou manipulées sans alerte. Les chercheurs évoquent même la possibilité que des liens ou descriptions entières soient modifiés sans que l’organisateur ne s’en rende compte.
Pour mieux comprendre le paysage sécuritaire actuel, il faut souligner que toutes les IA génératives ne sont pas égales face à ces risques. Selon le chercheur ayant mené ces travaux, si Gemini, Grok ou encore DeepSeek restent exposés à ce type d’attaques, des solutions concurrentes comme Claude, ChatGPT, et Microsoft Copilot, bénéficient déjà de mécanismes de protection efficaces grâce à une forme de « sanitization » des entrées.
Diversification des méthodes et perspectives futures
D’autres techniques exploitant la différence entre perception humaine et lecture machine—citons la manipulation CSS ou certaines limites graphiques—viennent élargir le spectre des menaces potentielles. Dans un contexte où les outils d’IA deviennent autonomes et omniprésents dans nos échanges professionnels, chaque faille négligée expose un peu plus les organisations. D’ailleurs, en attendant une éventuelle réaction officielle de la part de Google, force est de constater qu’un simple défaut pris à la légère peut aujourd’hui ouvrir la porte à des scénarios bien plus complexes qu’il n’y paraît.