29.3 C
София
понеделник, 18 авг. 2025

Мъж последвал хранителен съвет от ChatGPT и се озовал в болница с халюцинации

Най-четени

Още от същото

Мъж беше хоспитализиран за седмици и страдаше от халюцинации, след като се отрови, следвайки хранителен съвет от ChatGPT.

Клиничен случай, публикуван на 5 август в Annals of Internal Medicine – академично списание, съобщава, че 60-годишен мъж решил да премахне солта от хранителния си режим. За целта той попитал ChatGPT за алтернатива на готварската сол (натриев хлорид), а чатботът му предложил натриев бромид – съединение, което исторически е било използвано във фармацевтиката и промишлеността.

Въпреки че в статията се отбелязва, че лекарите не са имали достъп до оригиналните чат логове и че ботът вероятно е предложил бромида с друга цел (например за почистване), мъжът си купил натриев бромид и го използвал вместо сол в продължение на три месеца.

В резултат той постъпил в спешното отделение с параноидни заблуди, въпреки че нямал психиатрична история. Убеден, че съседът му го трови, мъжът отказвал дори да приема вода в болницата, макар да изпитвал силна жажда. Той продължил да има нарастваща параноя, както и слухови и зрителни халюцинации, докато накрая бил задържан неволно в психиатрично отделение след опит за бягство по време на лечението.

Какво се случвало с мъжа?

Лекарите установили, че страда от бромидна токсичност (бромизъм), която може да предизвика неврологични и психиатрични симптоми, както и акне, червеникави кожни израстъци (ангиоми), умора, безсъние, лека атаксия (несръчност) и полидипсия (прекомерна жажда).

Други симптоми на бромизъм включват гадене и повръщане, диария, тремори или гърчове, сънливост, главоболие, слабост, загуба на тегло, увреждане на бъбреците, дихателна недостатъчност и кома, според iCliniq.

В миналото бромизмът е бил по-често срещан заради съдържанието на бромиди в ежедневни продукти. В началото на XX век натриевият бромид е бил използван в лекарства без рецепта, което често е водело до неврологични и дерматологични проблеми. Случаите рязко намалели, след като Американската администрация по храните и лекарствата (FDA) постепенно забранила употребата на бромиди във фармацевтиката през 70-те и 80-те години.

Мъжът е лекуван в болница три седмици, като през това време симптомите му постепенно се подобрили.

USA TODAY се обърнало към OpenAI (създателя на ChatGPT) за коментар на 13 август, но не получило отговор. Компанията дала изявление за Fox News Digital:

„Нашите условия ясно посочват, че ChatGPT не е предназначен за използване при лечение на здравословни състояния и не е заместител на професионален съвет. Имаме екипи за безопасност, които работят за намаляване на рисковете, и сме обучили системите си да насърчават хората да потърсят професионална помощ.“

Лекарите: AI може да „подхранва разпространението на дезинформация“

Лекарите, участвали в проучването, предполагат, че пациентът е използвал версия 3.5 или 4.0 на ChatGPT. Те тествали модела, за да се опитат да възпроизведат отговора, който е получил мъжът, и действително получили предложение за бромид като заместител на хлорид.

„Макар че отговорът уточняваше, че контекстът е важен, той не съдържаше конкретно здравно предупреждение и не попита защо се интересуваме – както би направил медицински специалист,“ казват авторите д-р Одри Айхенбергер, д-р Стивън Тийлке и д-р Адам Ван Бускерк.

AI крие риск да дава информация без контекст, обясняват те. Например малко вероятно е медицински експерт изобщо да би споменал натриев бромид, ако пациент поиска заместител на сол.

„Затова е важно да се отчита, че ChatGPT и други AI системи могат да генерират научни неточности, нямат способността критично да обсъждат резултатите и в крайна сметка могат да подхранват разпространението на дезинформация,“ заключава изследването.

Четете още: Лечението на високо кръвно започва по-рано и без алкохол

Източник: Banker.bg

spot_img

Последни публикации