Google épinglé pour des synthèses médicales erronées
Image d'illustration. GoogleADN
Face à des critiques concernant la fiabilité de ses résumés générés par intelligence artificielle, Google a choisi de retirer cette fonctionnalité pour certaines recherches liées à la santé, après que des utilisateurs ont signalé des informations jugées trompeuses.
Tl;dr
- Les AI Overviews de Google ont livré des informations médicales incorrectes, incluant des conseils potentiellement dangereux pour les patients.
- Des experts en santé ont dénoncé ces erreurs, qui concernent notamment le dépistage du cancer et l’interprétation des analyses sanguines.
- Google a supprimé certaines synthèses problématiques, mais d’autres continuent d’afficher des données partiellement inexactes, montrant les limites de l’IA médicale.
Des réponses IA de Google épinglées pour imprécision médicale
La confiance envers les outils d’intelligence artificielle appliqués à la santé vacille une nouvelle fois. Récemment, une enquête du The Guardian a mis en lumière plusieurs cas où les fameux AI Overviews, ces synthèses automatisées proposées par Google, fournissaient des informations de santé erronées, voire dangereuses. Ainsi, une simple recherche sur les analyses sanguines du foie aboutissait à un résumé négligeant des facteurs clés tels que l’âge ou l’ethnie. Plus troublant encore, certains conseils adressés à des patients atteints de cancer du pancréas allaient à l’encontre des recommandations médicales reconnues.
Des spécialistes tirent la sonnette d’alarme
Face à ces erreurs, des voix expertes n’ont pas tardé à réagir. Pour Anna Jewell, directrice de soutien chez Pancreatic Cancer UK, l’information délivrée était « complètement incorrecte » et « pourrait réellement mettre en danger la vie des patients ». Dans d’autres cas, les AI Overviews ont confondu le dépistage du cancer vaginal avec celui du col de l’utérus, ou encore fourni des indications inadaptées concernant les troubles alimentaires.
Google corrige discrètement le tir… partiellement
En réponse à cette polémique, certaines synthèses IA incriminées ont été retirées par le géant du numérique. Désormais, chercher la norme des analyses hépatiques ne génère plus d’Overview IA ; toutefois, d’autres requêtes affichent encore des résumés corrigés mais pas toujours irréprochables. Interrogée, l’entreprise s’est limitée à préciser : « Nous ne commentons pas les suppressions individuelles dans Search… », rappelant simplement ses efforts pour améliorer la qualité générale et respecter ses propres règles.
L’IA médicale : promesses et incertitudes persistantes
Malgré ces défaillances visibles, le débat reste ouvert quant au potentiel réel de l’IA en santé. Si fournir une information incorrecte via un moteur de recherche inquiète à juste titre, certains avancent que l’IA pourrait également seconder efficacement les praticiens dans leurs diagnostics ou guider les patients vers les bons interlocuteurs. Au fil des mois, tant chez OpenAI, qui vient tout juste d’annoncer son outil ChatGPT Health, que chez Google, les efforts pour rendre ces technologies plus fiables se multiplient.
Dans ce contexte évolutif, il n’existe pas de réponse tranchée à la question suivante : peut-on vraiment faire confiance à une intelligence artificielle pour obtenir un conseil médical pertinent ? Les avis divergent ; chaque avancée suscite autant d’espoirs que d’interrogations prudentes.