L’une des histoires les plus marquantes concernant ChatGPT est celle d’Alex, un jeune garçon qui souffrait de douleurs chroniques. Après avoir consulté 17 spécialistes différents sans obtenir de réponse claire, sa mère s’est tournée vers ChatGPT. En quelques interactions, l’IA a suggéré le syndrome de la moelle attachée comme diagnostic, qui a ensuite été confirmé par des professionnels de la santé(1)(2). Une autre histoire similaire en France concerne Michel. Après avoir reçu un diagnostic incorrect concernant sa vésicule biliaire, Michel a utilisé ChatGPT pour obtenir un second avis, qui s’est avéré être le bon(2).
Une récente étude néerlandaise a comparé les capacités diagnostiques de ChatGPT à celles des médecins humains. Les résultats ont été surprenants : dans 97% des cas, ChatGPT a proposé le bon diagnostic, contre 87% pour les médecins(2)(3). Cependant, il est essentiel de noter que ChatGPT, comme toute IA, a ses limites. Dans certains cas, il a fourni des informations médicalement invraisemblables ou incohérentes(2).
Bien que les résultats soient prometteurs, il est crucial de comprendre que ChatGPT et d’autres IAs ne sont pas destinés à remplacer les médecins. Au contraire, ils peuvent servir d’outils complémentaires, aidant les professionnels de la santé à poser des diagnostics plus rapidement et avec précision. Cependant, la prudence est de mise. Comme le souligne Andrew Beam, Ph.D., de Harvard, bien que ChatGPT puisse être un outil précieux, il ne remplacera pas l’expertise d’un clinicien de sitôt(4).
L’IA, avec des outils comme ChatGPT, offre un potentiel énorme pour améliorer la qualité des soins médicaux. Cependant, il est essentiel de l’utiliser judicieusement, en complément de l’expertise humaine, pour garantir les meilleurs soins possibles aux patients.