Cet été, le Wall Street Journal a révélé qu'une IA conçue par Google était testée dans différents services hospitaliers américains. Ainsi, le modèle linguistique dédié au milieu médical, s’est installée dans plusieurs hôpitaux et cliniques outre-Atlantique. Baptisée Med-PaLM 2, cette IA générative aurait été nourrie par une montagne d’informations médicales qui la spécialise davantage que ses concurrents actuels, GPT-4 d’OpenAI et LLaMA de Meta.
Med-PaLM 2, qui repose sur un modèle linguistique spécialement dédié au secteur médical, est déjà testé outre-Atlantique, selon le Wall Street Journal. D’après ses concepteurs chez Google, cette IA serait capable d’atteindre « une précision de 86,5% aux questions posées à l’examen américain sanctionnant l’obtention du diplôme de médecin. C'est un bond de 19% par rapport aux résultats de Med-PaLM », la version précédente. Cette dernière IA générative tire son expertise d’une quantité astronomique de données et d’informations médicales avec lesquelles elle a été entraînée. Med-PaLM 2 est donc véritablement spécialisée dans le domaine médical et ce bien davantage que ses concurrents directs GPT-4 d’OpenAi et LLaMA de Meta.
La firme de Mountain View l’assure : « L’objectif de ce nouvel outil est uniquement d’accompagner les médecins, pas de les remplacer ». Pour Google, le plus important est de s’implanter dans « les pays qui manquent cruellement de médecins ». Ainsi, les déserts médicaux pourraient être éradiqués dans un proche avenir. Mais certains, encore réticents, exigent que Google réponde d’abord aux interrogations suscitées par son projet, notamment celles concernant le respect de la vie privée des patients. Il faut savoir que ce type de modèle de langage automatique a besoin d’absorber une énorme quantité de données communiquées par ses interlocuteurs. Dans un contexte sanitaire, on peut imaginer que des data sensibles puissent se retrouver compilées parmi un ensemble d’informations plus large. On encourt donc le risque qu’elles soient réutilisées par erreur lors d’un échange avec un autre utilisateur. Pour rassurer ses futurs clients, Google garantit que les données médicales exploitées par l’IA seront directement chiffrées et stockées par les établissements hospitaliers. Ainsi, elles ne pourront pas servir à entraîner Med-PaLM 2.
Mais selon certains professionnels, il est nécessaire que l’IA subisse un entrainement beaucoup plus important afin de pallier son manque de précision récurrent. Comme disent les spécialistes, l’IA « hallucine » régulièrement en générant avec aplomb des informations parfaitement erronées ou inexactes. Med-PaLM 2 doit donc subir d’autres tests avant de pouvoir recommander les traitements médicaux appropriés. C’est pourquoi Google a choisi de la déployer progressivement.
Cependant, une concurrence féroce semble se dessiner avec OpenAi. Une étude menée au printemps 2023 a révélé que ChatGPT serait bientôt capable d’accomplir certaines tâches et de suppléer les médecins. Depuis la pandémie, les soins médicaux dispensés virtuellement se sont largement répandus. La quasi-totalité des prestataires de soins de santé sont équipés d’outils numériques et chaque patient peut désormais contacter directement son médecin par l’intermédiaire d’un portail en ligne. Les patients peuvent ainsi échanger directement avec la plupart des praticiens en leur posant des questions médicales sérieuses, qui requièrent connaissances et expérience. Mais cela constitue une charge de travail supplémentaire importante pour tout médecin. Bien que facturée aux patients, cette prestation est particulièrement chronophage pour les professionnels de santé.
Dans le but de soulager son emploi du temps et de réduire les coûts pour ses patients, le Dr John Ayers, vice-chef de l’innovation à la division des maladies infectieuses de la faculté de médecine de l’Université de San Diego, a testé ChatGPT au printemps dernier. Avec son équipe composée d’universitaires, il a voulu vérifier si le chatbot était capable de répondre avec précision et empathie aux questions de sa patientèle. Selon la revue spécialisée JAMA Internal Medicine, John Ayers et ses collaborateurs ont d’abord sélectionné au hasard 195 questions publiées sur la plateforme communautaire Reddit/r/AskDocs, qui permet de discuter avec de nombreux professionnels de santé. Pour y répondre, ils ont ensuite sollicité en parallèle de vrais médecins et ChatGPT 3.5. Enfin, les échanges ont été communiqués à un groupe de professionnels de la santé qui ont évalué les réponses apportées par les médecins et l’IA en termes de qualité et d’empathie, selon une échelle de notation de 1 à 5 points.
Sous la houlette du Dr Ayers, les chercheurs ont expliqué en ces termes leur méthodologie : « Les réponses ont été classées au hasard, dépouillées de toute information révélatrice et étiquetées réponse 1 ou réponse 2 afin que les évaluateurs ne connaissent pas l’identité de l’auteur ».
Ne sachant donc pas si les réponses avaient été données par ChatGPT ou par un médecin, les évaluateurs ont créé la surprise et la stupeur chez les universitaires car les résultats ont largement favorisé ChatGPT par rapport à ses « confrères » humains. En effet, dans près de 8 cas sur 10 (78,6%), les évaluateurs ont préféré la réponse de l’IA, avec une note de qualité moyenne de 4,1 sur 5 contre 3,26 pour les médecins. Pire encore, les réponses de ChatGPT ont été jugé 9,8 fois plus empathique que les réponses « humaines » des professionnels. Convaincu par cette expérimentation, le Dr John Ayers considère que « les possibilités d’améliorer les soins de santé grâce à l’IA sont énormes ». Il affirme même que « les soins augmentés par l’IA sont l’avenir de la médecine ».
Pour illustrer l’engouement du chercheur, il suffit de mentionner l’exemple du diagnostic fait par un médecin en comparaison de celui effectué par ChatGPT pour un patient ayant reçu de l’eau de Javel dans l’œil. Le premier lui explique d’abord que « tout va bien se passer » avant d’ajouter : « Vous devez vous rincer l’œil chaque fois que vous recevez un produit chimique ou un corps étranger dans l’œil. Vous pouvez également contacter le centre antipoison au 1-800-222-1222 ». De son côté, ChatGPT exprime avant tout son désarroi d’apprendre que le patient a reçu des éclaboussures d’eau de Javel dans l’œil. Et le chatbot dispense ensuite sa prescription : « Il est important de rincer l’œil dès que possible après une éclaboussure de produit chimique afin d’éliminer le maximum de produit chimique et d’éviter toute irritation ou dommage supplémentaire. Si vous ne l’avez pas encore fait, vous devez rincer votre œil avec de l’eau propre ou une solution saline dès que possible ».