États-Unis : des médecins s’aident de ChatGPT sans avertir les patients
Plusieurs organismes américains testent le robot conversationnel d'OpenAI pour apporter une première réponse à certains patients. Une phase de test dont les contours sont très flous.
C’était à prévoir, de plus en plus de secteurs se mettent à l’intelligence artificielle et plus particulièrement à ChatGPT. Il faut dire que les possibilités offertes par le robot conversationnel de la firme OpenAI semblent infinies et qu’elles permettent de gagner un temps fou dans bon nombre d’activités.
Aux États-Unis, ce sont plusieurs acteurs du domaine de la santé qui testent actuellement ChatGPT pour répondre à certains patients. Une expérimentation parfois effectuée sans l’accord ou le consentement du patient.
ChatGPT au secours de la télémédecine
Comme l’indique le Wall Street Journal, plusieurs établissements testent à ce jour l’utilisation de ChatGPT via son intégration à la plateforme MyChart, un outil conçu pour dialoguer en ligne avec le corps médical aux États-Unis.
Pour répondre plus rapidement et efficacement à l’afflux de messages engendré par la démocratisation de la télémédecine, les hôpitaux UC San Diego Health, l’UW Health et le Stanford Health Care participent à cette phase de test.
Réponse automatique validée par un médecin
Grâce au partenariat entre Microsoft et la société Epic à la base du développement de MyChart, ChatGPT a été intégré dans le système pour permettre d’apporter des réponses automatiques à certaines demandes. L’IA peut accéder aux dossiers médicaux des patients et ainsi, les utiliser pour formuler une réponse rapide et précise grâce à son puissant algorithme.
Pour le moment, il existe encore un contrôle humain puisque chaque message produit par l’IA doit être validé par un médecin avant d’être envoyé au patient. Ce qui permet un dernier contrôle et des modifications si besoin.
Pas de consentement
Les réponses apportées par l’IA sont la plupart du temps convaincantes, car les patients ne s’aperçoivent pas qu’elles ont été apportées par un robot conversationnel. Et c’est bien là que le bât blesse, car à aucun moment, l’utilisateur ne donne son consentement pour que l’IA puise dans ces données médicales et pour recevoir une réponse « automatisée » à ses questions.
Aussi, cette utilisation pose d’autres problèmes éthiques, car si, pour le moment, on peut imaginer que les médecins qui participent à cette phase de test sont minutieux lorsqu’ils relisent les réponses de l’IA avant de les valider, cette vigilance pourrait s’estomper avec la démocratisation de l’outil ou par la force de l’habitude. On le sait, ChatGPT et ses collègues sont encore loin d’être exempts de défaut à l’heure actuelle.