OpenAI présente désormais les réponses liées à la santé du chatbot IA comme une fonctionnalité majeure de GPT - 5 .
Selon une étude de cas récente , un homme a été hospitalisé suite aux conseils de santé de ChatGPT . L' étude a révélé qu'un sexagénaire présentait une intoxication inhabituelle aux métaux , entraînant divers symptômes , dont une psychose. Le rapport indique également que le patient a suivi les recommandations de ChatGPT concernant les ajustements alimentaires , ce qui a entraîné l' intoxication , dont la cause a été déterminée comme étant une consommation prolongée de bromure de sodium . Il est intéressant de constater qu'OpenAI présente désormais les réponses liées à la santé du chatbot IA comme une fonctionnalité majeure de GPT - 5 .Une personne qui a demandé des conseils de santé au chatbot IA ChatGPT a contracté le bromisme, selon une étude publiée dans les Annals of Internal Medicine Clinical Cases intitulée « Un cas de bromisme influencé par l' utilisation de l'intelligence artificielle ».
Selon l' étude de cas , le patient, un homme de 60 ans sans antécédents médicaux ni mentaux , a été amené aux urgences car il pensait que son voisin l'empoisonnait . Il a présenté une ataxie ( troubles de coordination musculaire ), de la paranoïa, des hallucinations, une suspicion d' eau lorsqu'il avait soif, des insomnies, de l'épuisement et des troubles cutanés tels que de l' acné et des angiomes cerises .
Le personnel médical a pu identifier le bromisme après avoir administré une sédation rapide et effectué plusieurs tests , dont une consultation auprès du service antipoison . L' exposition prolongée au bromure de sodium est à l'origine de cette affection.
Le patient a déclaré avoir utilisé ChatGPT pour remplacer le chlorure de sodium dans son alimentation, et après avoir reçu du bromure de sodium comme substitut , il a commencé à le prendre régulièrement pendant trois mois, selon l' étude de cas .
Selon l' étude , la consultation a été menée avec GPT -3.5 ou GPT-4, selon la chronologie cachée du cas . Les chercheurs soulignent qu'ils n'ont pas pu évaluer la réponse de l' IA , car ils n'avaient pas accès à l' enregistrement de la conversation . L' homme a probablement mal compris la réponse de ChatGPT .
OpenAI a été contacté par Live Science pour obtenir un commentaire. Conformément aux conditions d' utilisation de l'entreprise , qui stipulent qu'il ne faut pas se fier aux résultats de ChatGPT comme « unique source de vérité ou d' informations factuelles , ni comme substitut à un avis professionnel » , une porte-parole de l' entreprise a déclaré à Live Science.
Selon l' étude , les résultats ont commencé à se manifester après une action rapide et un traitement de trois semaines .
Publicité
Publicité