Bărbat internat la psihiatrie după ce a urmat un sfat de la ChatGPT

Bărbat internat la psihiatrie după ce a urmat un sfat de la ChatGPT

În câteva cuvinte

Un bărbat de 60 de ani din Washington a ajuns la spitalul de psihiatrie după ce a urmat timp de trei luni un sfat periculos de la chatbot-ul ChatGPT. Incidentul subliniază riscurile de a acorda încredere oarbă recomandărilor inteligenței artificiale.


WASHINGTON D.C. (SUA) – Milioane de oameni întreabă zilnic chatbot-uri precum ChatGPT pentru sfaturi, încredințându-și problemele și preocupările inteligenței artificiale. Cu toate acestea, nu ar trebui să urmăm întotdeauna recomandările AI: un bărbat a ajuns recent la spitalul de psihiatrie din această cauză!

Potrivit unui raport de caz, un bărbat de 60 de ani din Washington D.C. a încercat să elimine sarea din dieta sa. Căutând alternative, el a întrebat ChatGPT, iar inteligența artificială i-a sugerat bromura de sodiu. Bărbatul a luat această substanță, comandată online, timp de trei luni.

Prea multă sare este considerată nesănătoasă – mulți încearcă să o elimine din dieta lor. Dar nu orice înlocuitor este inofensiv.

Cu timpul, starea bărbatului s-a schimbat: a condus singur la spital și era convins că vecinul său voia să-l otrăvească. Valorile anormale ale sângelui indicau o tulburare gravă a echilibrului de sare și minerale. Comportamentul său a iritat, de asemenea, personalul clinicii: îi era extrem de sete, dar refuza orice apă oferită – avea încredere doar în apa distilată de el însuși.

În 24 de ore, starea sa s-a deteriorat: halucinații, paranoia și, în cele din urmă, o tentativă de evadare din spital. A urmat o internare forțată la secția de psihiatrie. Medicii curanți au diagnosticat o rară otrăvire cu bromură. Abia după trei săptămâni în clinică, bărbatul a fost din nou stabil.

CE ESTE BROMISMUL?

Bromismul este o otrăvire cauzată de ingestia de bromură, o substanță răspândită în trecut, care se găsea, printre altele, în sedative și antiepileptice. Simptomele se potrivesc cu cazul din SUA. Astăzi, substanța nu mai este aprobată din punct de vedere medical, dar este încă disponibilă online.

Nu s-a putut reconstitui ulterior ce întrebare exactă a pus pacientul și ce răspuns a primit de la ChatGPT. Istoricul conversației nu mai exista.

Rămâne neclar dacă inteligența artificială a sfătuit cu adevărat să ia bromură sau dacă pacientul a înțeles greșit răspunsul AI. Cu toate acestea, când medicii au testat ChatGPT, bromura a fost într-adevăr menționată ca un posibil înlocuitor al sării – fără o avertizare clară.

Про автора

Stefan este un comentator economic cu experiență în sectorul bancar și analiză financiară. Articolele sale se remarcă prin analiza profundă a proceselor economice din România și din lume. El poate explica concepte economice complexe într-un mod accesibil, ajutând cititorii să înțeleagă evenimentele economice curente.