La direction de Google a demandé à ses employés de faire attention lorsqu'il s'agit d'utiliser Bard, l'intelligence artificielle made in Google.
Si l’utilisation de l’intelligence artificielle n’est pas nouvelle dans le secteur de la tech, la percée de technologies comme ChatGPT a forcé les géants du secteur à mettre un coup de collier dans ce domaine.
Tous se mettent donc à développer leur propre IA avec plus ou moins de succès. Google est bien entendu entré dans la danse avec Bard. Mais le chatbot de la firme de Mountain View suscite la méfiance, et ce, même en interne.
Google met ses employés en garde
On le voit, l’arrivée de robots conversationnels permet à beaucoup de gagner du temps dans des petites tâches fastidieuses du quotidien. Que ce soit pour rédiger des courriers internes ou faire cracher quelques lignes de code, il y en a pour tout le monde !
Chez Google, on utilise l’IA Bard pour s’aider au quotidien mais les dirigeants de la firme ont demandé à leurs salariés de faire attention, mais avec l’outil maison.
La crainte des fuites de données
Comme l’indique l’agence Reuters, on craint chez Google que des employés s’appuient un peu trop sur Bard dans leur travail quotidien, au risque d’y entrer des données confidentielles. Que ce soit avec ChatGPT (ou tout autre outil externe) ou même avec l’IA interne, il est donc rappelé qu’il est proscrit d’échanger des données sensibles avec les chatbots.
Aussi, il est demandé aux développeurs et aux ingénieurs informatiques de ne pas utiliser des morceaux de code qui auraient été générés par une IA. Cette fois, c’est parce que Bard n’est pas encore tout à fait infaillible dans ce domaine.
Déjà des précédents
Si Google met ce frein à l’utilisation des chatbots, c’est parce qu’ils ont déjà démontré quelques failles ces derniers mois. C’est notamment le cas chez Samsung dont certaines données sensibles avaient été utilisées par des employés dans des IA, ce qui avait contraint le géant coréen à interdire leur utilisation à ses salariés.