Chatbots et santé : une étude révèle des failles majeures chez ChatGPT, Meta AI et Grok

0

 Une analyse publiée dans le BMJ Open met en lumière des informations médicales inexactes fournies par plusieurs intelligences artificielles populaires.


Chatbots et santé, VOA LAKAY

 Une étude scientifique publiée dans BMJ Open met en évidence des lacunes importantes dans les réponses médicales générées par des chatbots comme ChatGPT, Gemini ou Grok. Les résultats soulignent des risques potentiels pour les utilisateurs en quête d’informations de santé fiables.

Une fiabilité limitée des chatbots en santé

L’étude sur les chatbots et santé révèle que la qualité des réponses fournies par les intelligences artificielles reste inégale. Selon les chercheurs du Institut Lundquist pour l’Innovation Biomédicale, environ 50 % des réponses analysées présentent des problèmes.

Parmi celles-ci :

  • 30 % sont jugées « quelque peu problématiques »
  • 20 % sont considérées « très problématiques »

Ces résultats mettent en évidence les limites actuelles des chatbots et santé, notamment en matière de précision et d’exhaustivité.

Méthodologie de l’étude sur les chatbots et santé

Cinq intelligences artificielles analysées

Les chercheurs ont évalué cinq chatbots accessibles au grand public :

  • ChatGPT (OpenAI)
  • Gemini (Google)
  • Meta AI (Meta)
  • Grok (xAI)
  • DeepSeek

L’analyse a été réalisée en février 2025 à partir de questions simulant des consultations médicales courantes.

Domaines de santé étudiés

Les tests portaient sur cinq domaines clés :

  • Cancer
  • Vaccins
  • Cellules souches
  • Nutrition
  • Performance sportive

Ces catégories ont permis d’évaluer les performances des chatbots et santé dans différents contextes médicaux.


VOIRE AUSSI: Maltraitance infantile à La Altagracia : une Haïtienne arrêtée après avoir brûlé les mains de son fils


Des résultats contrastés selon les plateformes

Grok pointé du doigt

L’étude souligne que Grok a généré le plus grand nombre de réponses « très problématiques », avec 58 % des cas analysés dans cette catégorie.

À l’inverse, Gemini s’est distingué par un plus faible taux de réponses problématiques et une meilleure fiabilité globale.

Des performances variables selon les sujets

Les chatbots et santé ont montré de meilleurs résultats dans les domaines :

  • Des vaccins
  • Du cancer

En revanche, leurs performances se sont révélées plus faibles concernant:

  • Les cellules souches
  • La nutrition
  • Le sport

Ces écarts soulignent la complexité de certains sujets médicaux et les limites des modèles actuels.

Risques de désinformation et enjeux pour le public

Des réponses potentiellement dangereuses

Les chercheurs considèrent une réponse comme problématique lorsqu’elle peut inciter un utilisateur à suivre un traitement inefficace ou risqué sans supervision médicale.

Dans ce contexte, les chatbots et santé peuvent représenter un danger, notamment pour les personnes sans connaissances médicales.

Un besoin de régulation et d’éducation

L’étude met en garde contre le déploiement massif de ces outils sans accompagnement. Les experts recommandent :

  • Une meilleure éducation du public
  • Une supervision accrue des contenus générés
  • Une transparence sur les limites des IA

Ces mesures pourraient réduire les risques liés à la désinformation médicale.

L’étude publiée dans BMJ Open souligne que les chatbots et santé, malgré leur utilité croissante, présentent encore des failles importantes. Si ces outils peuvent faciliter l’accès à l’information, leur usage nécessite prudence et encadrement afin d’éviter des conséquences potentiellement graves pour les utilisateurs.

Voa Lakay

Ces posts pourraient vous intéresser

Aucun commentaire