Des scientifiques avertissent les patients que ChatGPT invente de fausses informations sur le cancer

Modifié le
Lecture: 2 minutes
© DepositPhotos

Des chercheurs de l'école de médecine de l'université du Maryland ont mis en garde contre l'utilisation de pour obtenir des conseils médicaux après qu'une étude a révélé que le chatbot alimenté par l' (IA) inventait des faits sur la lorsqu'on lui demandait des informations sur le cancer.

Selon un article publié sur le site web du Daily Mail citant la recherche, le chatbot a répondu de manière incorrecte à une question sur dix concernant le dépistage du cancer du sein et les réponses correctes n'étaient pas aussi « complètes » que celles trouvées par une simple recherche sur .

Les chercheurs ont indiqué que, dans certains cas, le chatbot d'IA avait même utilisé de faux articles de journaux pour étayer ses affirmations.

Cette étude intervient alors que les utilisateurs sont invités à traiter le logiciel avec prudence, car il a tendance à halluciner ou, en d'autres termes, à inventer des choses.

L'étude qui a mis ChatGPT sous les feux de la rampe

Les chercheurs ont demandé à ChatGPT de répondre à 25 questions relatives à des conseils sur le dépistage du cancer du sein. Le chatbot étant connu pour varier ses réponses, chaque question a été posée trois fois. Les résultats ont ensuite été analysés par trois radiologues formés à la mammographie.

Quatre-vingt-huit pour cent des réponses étaient appropriées et faciles à comprendre. Cependant, certaines réponses étaient inexactes, voire fictives, ont-ils averti.

Une réponse, par exemple, était basée sur des informations obsolètes. Elle conseillait de retarder la mammographie de quatre à six semaines après avoir reçu le vaccin COVID-19, alors que ce conseil a été modifié il y a plus d'un an pour recommander aux femmes de ne pas attendre.

ChatGPT a également fourni des réponses incohérentes aux questions concernant le risque de cancer du sein et l'endroit où passer une mammographie. L'étude a révélé que les réponses « variaient de manière significative » chaque fois que la même question était posée.

Le Dr Paul Yi, coauteur de l'étude, a déclaré : « Notre expérience nous a montré que ChatGPT invente parfois de faux articles de journaux ou des consortiums de santé pour étayer ses affirmations. Les consommateurs doivent être conscients qu'il s'agit de technologies nouvelles et non éprouvées, et doivent toujours se fier à leur médecin, plutôt qu'à ChatGPT, pour obtenir des conseils« .

3.6/5 - (11 votes)