Menu
24matins
Navigation : 
  • Actualité
    • Faits Divers
    • Insolite
    • Société
    • International
  • Économie
  • Santé
  • Politique
  • Sport
  • Tech
    • trackr.fr
  • Divertissement
    • Séries TV
    • Films
    • Recettes
En ce moment : 
  • Apple
  • Argent
  • Crise cardiaque
  • Tempête
  • Astuces

Cybersécurité : l’IA, une menace invisible pour les données d’entreprise

Tech > IA > Données personnelles
Par Jordan Servan,  publié le 9 octobre 2025 à 14h00.
Tech
Intelligence artificielle

Image d'illustration. Intelligence artificielleADN

Un récent rapport met en lumière un risque grandissant : des salariés, sans en avoir conscience, divulguent des informations confidentielles de leur entreprise via des chatbots intelligents, exposant ainsi leur organisation à des fuites potentielles de données sensibles.

Tl;dr

  • L’utilisation massive d’IA générative en entreprise devient la principale source de fuites de données sensibles.
  • Le problème vient surtout des employés qui partagent involontairement des informations confidentielles via des comptes personnels.
  • Les experts recommandent de mieux encadrer l’usage de l’IA avec contrôles, SSO et surveillance pour protéger les données sans freiner la productivité.

Les failles de sécurité : une menace venue de l’intérieur

Depuis quelques mois, une inquiétude monte dans les directions informatiques : l’utilisation massive d’IA générative comme ChatGPT, Copilot ou encore Claude, bouleverse les équilibres en matière de cybersécurité. Un rapport publié par la société Cyera met en lumière un phénomène alarmant : ces nouveaux outils sont aujourd’hui la première cause de fuites de données sensibles en entreprise, dépassant même le stockage cloud et l’email.

L’origine du problème ne provient pas d’un piratage sophistiqué mais bien des utilisateurs eux-mêmes. Selon l’étude, près d’un salarié sur deux aurait déjà intégré des informations confidentielles — finances, stratégies, données personnelles — directement dans une fenêtre de chatbot IA. La plupart du temps, cela se fait via des comptes personnels, totalement invisibles pour les systèmes de sécurité d’entreprise. Pire encore, dans 77% des cas recensés, il s’agit bel et bien de véritables données corporate.

L’impuissance des dispositifs traditionnels face aux nouveaux usages

Comment expliquer cette vulnérabilité inédite ? Les solutions de protection actuelles surveillent surtout les transferts de fichiers, les pièces jointes suspectes ou les emails sortants. Or, lorsqu’un employé copie-colle du contenu confidentiel dans un chat IA, rien ne vient alerter le service informatique : cette activité ressemble à un trafic web ordinaire. D’après un rapport LayerX cité par Cyera, 67% des interactions se font sur des comptes personnels — là encore, hors du radar des équipes IT.

Le fonctionnement même des outils IA génère donc une véritable zone aveugle pour la plupart des organisations.

Mieux encadrer l’usage professionnel de l’IA

Faut-il bannir totalement l’IA ? La réponse est plus nuancée. Les experts insistent : il s’agit surtout d’instaurer davantage de contrôle et d’accompagner la montée en compétence des utilisateurs. Parmi les recommandations clés pour renforcer la sécurité :

  • Bloquer l’accès aux IA depuis les comptes non gérés par l’entreprise ;
  • Imposer un identifiant unique (SSO) sur tous les outils utilisés ;
  • Surveiller activement la présence de mots-clés sensibles ou d’activités anormales sur le presse-papiers ;
  • Considérer chaque interaction avec un chatbot comme un transfert potentiel à risque.

Un simple rappel s’impose : ne copiez jamais dans une conversation IA ce que vous n’accepteriez pas de rendre public.

Bousculer la productivité sans sacrifier la confidentialité

En définitive, l’introduction rapide de ces technologies oblige entreprises et salariés à naviguer entre efficacité accrue et gestion responsable des risques. Si la tentation est grande d’accélérer certains processus grâce à l’intelligence artificielle générative, il suffit parfois d’un copier-coller malheureux pour compromettre toute une organisation. Savoir que cette menace existe constitue déjà un premier pas vers une meilleure vigilance collective.

Le Récap
  • Tl;dr
  • Les failles de sécurité : une menace venue de l’intérieur
  • L’impuissance des dispositifs traditionnels face aux nouveaux usages
  • Mieux encadrer l’usage professionnel de l’IA
  • Bousculer la productivité sans sacrifier la confidentialité
En savoir plus
  • Gareth Edwards plaide pour l’IA au cinéma
  • Meta exploitera vos conversations avec l’IA pour cibler les pubs
  • Les résumés IA de Google sous le feu des critiques
Vous aimez nos contenus ?
Recevez chaque jour nos dernières publications gratuitement et directement dans votre boite mail
Recevoir la newsletter
  • À Propos
  • Nous contacter
  • Infos Légales
  • Gestion des données personnelles
© 2025 - Tous droits réservés sur les contenus du site 24matins  - ADN Contents -