ChatGPT fait des recommandations médicales et les suivre est un risque mortel

Publié le 06.12.2023
Une étude récente souligne que 74,3 % des réponses fournies par ChatGPT sur des sujets de santé étaient inappropriées ou erronées. (EFE/EPA/WUHAO)

L’une des recommandations fondamentales lors de l’utilisation de l’intelligence artificielle est de ne pas croire totalement que les informations qu’elle fournit sont adéquates ou même réelles à 100 % . En ce sens, une étude récente réalisée par l'Université de Long Island à New York indique que les utilisateurs doivent être particulièrement prudents avec les informations médicales que l'application ChatGPT peut offrir concernant la consommation de pilules ou d'autres médicaments .

Les chercheurs ont demandé à ChatGPT de répondre à 39 questions liées aux médicaments et à leurs effets sur la santé des personnes. Celles-ci ont été soulevées par le service d'information sur les médicaments de la Faculté de Pharmacie de l'établissement, mais seulement dix d'entre elles ont reçu une réponse pouvant être considérée comme adéquate selon les critères des professionnels humains.

L'analyse, réalisée sur une période de 16 mois entre les années 2022 et 2023, a confronté les réponses créées par l'intelligence artificielle d' OpenAI et celles soulevées par un groupe de pharmaciens spécialisés, ce qui a conduit à la conclusion que ChatGPT est pas fiable à cet égard, car la plupart des données fournies en réponse étaient incomplètes ou erronées.

L'équipe de recherche , dirigée par Sara Grossman , professeure agrégée de pratique pharmaceutique à l'Université de Long Island et auteur principal de l'étude, a indiqué que 74,3 % des réponses du chatbot n'ont pas passé le filtre des connaissances des spécialistes de la santé .

Les chercheurs ont évalué 39 questions médicales auxquelles ChatGPT a répondu et seulement dix ont reçu des réponses jugées adéquates. (Photo AP/Michael Dwyer, dossier)

Non seulement cela, mais en essayant de vérifier les sources d'informations de ChatGPT , il a été possible de constater que celles-ci n'étaient proposées que huit fois, mais qu'en réalité toutes étaient inexistantes et ont été inventées par l'intelligence artificielle comme moyen de créer une fausse idée de support pour les réponses. Ces résultats ont été présentés lors d'une récente réunion de l'American Society of Health-System Pharmacists (ASHP).

Par exemple, dans l’une des réponses fournies, l’intelligence artificielle n’a pas pu identifier l’interaction potentiellement dangereuse entre deux médicaments qui, ingérés ensemble, peuvent causer de graves dommages à la santé des patients. "Quiconque utilise ChatGPT pour obtenir des informations relatives aux médicaments doit vérifier ces informations en utilisant des sources fiables", a souligné Grossman.

Gina Luchen , directrice des données et de la santé numérique à l'ASHP , a indiqué que l'intelligence artificielle peut avoir un grand impact sur les soins dans les établissements de santé tels que les cliniques, mais a souligné qu'en même temps il est nécessaire que les informations qu'elle génère soient validées par. un professionnel de santé pour offrir une plus grande sécurité aux patients.

Outre les résultats de l'étude de l'Université de Long Island, une étude similaire visant à déterminer le degré de fiabilité des informations, qui incluait GPT-4 (d'OpenAI), a signalé un taux d'erreur de réponse de 3 % , démontrant que même les plus avancés Le modèle ChatGPT n’est pas exempt de défauts.

Même le modèle avancé GPT-4 présente des erreurs, avec 3 % d'inexactitudes dans les réponses selon les études. (Gabby Jones/Bloomberg)

Désinformation sur les traitements contre le cancer

D'autre part, des chercheurs du Brigham and Women's Hospital , affilié à la Harvard Medical School, ont découvert des erreurs dans les réponses ChatGPT liées au cancer et à son traitement.

Les résultats montrent que ces types de problèmes doivent être pris avec précaution par les utilisateurs, en ne considérant pas leurs réponses comme un guide à suivre dans le traitement et le diagnostic des maladies .

« Nous avons été surpris par la mesure dans laquelle des informations incorrectes étaient mélangées à des informations correctes. "Cela rend particulièrement difficile la détection des erreurs, même pour les experts", a déclaré le Dr Danielle Bitterman , l'une des auteurs de l'étude.

En particulier, au moins 12,5 % de données fabriquées ont été retrouvées. Même si cela ne semble pas pertinent ou facile à surmonter, puisqu'il s'agit d'informations médicales, les conséquences de ces erreurs pourraient être fatales et encore plus lorsqu'il s'agit d'une maladie comme le cancer.

Comment activer le mode football sur une Smart TV pour regarder la Copa América

Comment activer le mode football sur une Smart TV pour regarder la Copa América

Avec l'effervescence de la Copa América, plusieurs fans recherchent la meilleure façon de regarder les matchs sur leur Smart TV. L’une des meilleures alternatives est le mode football ou le mode sport.

Modern Family est la vedette d'une publicité WhatsApp destinée aux familles équipées d'iPhone et d'Android

Modern Family est la vedette d'une publicité WhatsApp destinée aux familles équipées d'iPhone et d'Android

WhatsApp a réuni une partie du casting de Modern Family pour jouer dans une nouvelle publicité axée sur la promotion de groupes entre familles utilisant à la fois des appareils iPhone et Android.

Glossaire technologique : quels types d'innovation existe-t-il

Glossaire technologique : quels types d'innovation existe-t-il

Au cours des dernières décennies, la technologie est non seulement devenue un outil de base, mais elle fait également partie de notre vie quotidienne, au point qu’il est presque impossible d’imaginer ce que serait d’accomplir des tâches sans elle.

Tether : quel est le prix de cette cryptomonnaie ce 19 juin

Tether : quel est le prix de cette cryptomonnaie ce 19 juin

Tether, la cryptomonnaie de type stablecoin qui prétend que chacun de ses tokens est adossé à un dollar américain, est émise par la société Tether Limited et depuis ses origines a été impliquée dans diverses controverses.

Comment personnaliser WhatsApp avec le mode cœur noir

Comment personnaliser WhatsApp avec le mode cœur noir

Pour les utilisateurs de WhatsApp souhaitant personnaliser leur expérience, l’activation du « mode cœur noir » est une excellente option. Ce mode remplace l’icône d’appel téléphonique standard (qui est généralement blanche) par l’emoji cœur noir.

Deprecated: explode(): Passing null to parameter #2 ($string) of type string is deprecated in /home/httpd/vhosts/iphone-dev.ch/mot-avec.com/index.php on line 156