O revistă medicală americană avertizează asupra folosirii ChatGPT pentru sfaturi legate de sănătate, după ce un bărbat a dezvoltat o afecțiune rară în urma unei interacțiuni cu chatbotul despre eliminarea sării din alimentație, potrivit The Guardian.
Articolul descrie bromismul drept un sindrom „bine cunoscut” la începutul secolului XX, despre care se credea că a contribuit la aproape unul din zece cazuri de internare în spitalele de psihiatrie la acea vreme.
Pacientul le-a spus medicilor că, după ce a citit despre efectele negative ale clorurii de sodiu (sarea de masă), a consultat ChatGPT despre cum să elimine clorura din alimentație și a început să ia bromură de sodiu timp de trei luni. Aceasta, deși citise că „clorura poate fi înlocuită cu bromură, deși probabil pentru alte scopuri, cum ar fi curățarea”. Bromura de sodiu era folosită ca sedativ la începutul secolului XX.
Autorii articolului, de la Universitatea din Washington, Seattle, susțin că acest caz evidențiază „modul în care utilizarea inteligenței artificiale poate contribui la apariția unor probleme de sănătate adverse, dar prevenibile”. Aceștia au adăugat că, neavând acces la istoricul conversațiilor pacientului cu ChatGPT, nu au putut determina exact ce sfat a primit.
Cu toate acestea, atunci când autorii au întrebat ei înșiși ChatGPT ce ar putea înlocui clorura, răspunsul a inclus și bromura, nu a conținut un avertisment medical specific și nu a întrebat de ce era solicitată acea informație, „așa cum presupunem că ar fi făcut un profesionist din domeniul medical”, au scris aceștia.
Autorii au avertizat că ChatGPT și alte aplicații AI pot „genera inexactități științifice, nu pot discuta critic rezultatele și, în final, pot alimenta răspândirea dezinformării”.
OpenAI susține că ChatGPT va fi mai bun după noua actualizare
Compania a anunțat săptămâna trecută o actualizare a chatbotului și a susținut că unul dintre punctele sale forte este în domeniul sănătății. A spus că ChatGPT – acum bazat pe modelul GPT-5 – va fi mai bun în a răspunde la întrebări medicale și mai proactiv în „semnalarea potențialelor riscuri”, cum ar fi bolile grave fizice sau psihice. Cu toate acestea, a subliniat că chatbotul nu înlocuiește ajutorul profesional. Articolul din revistă, publicat săptămâna trecută, înainte de lansarea GPT-5, afirmă că pacientul a folosit o versiune anterioară a ChatGPT.
Deși au recunoscut că AI poate fi o punte între oamenii de știință și public, autorii au spus că tehnologia prezintă și riscul de a promova „informații scoase din context” și că este foarte puțin probabil ca un profesionist medical să fi sugerat bromura de sodiu drept înlocuitor al sării de masă. Prin urmare, autorii au concluzionat că medicii ar trebui să ia în considerare și utilizarea AI atunci când verifică sursele de informare ale pacienților.
Pacientul cu bromism s-a prezentat la spital susținând că vecinul său ar putea să-l otrăvească. A mai spus că avea multiple restricții alimentare. Deși îi era sete, era paranoic în privința apei care i se oferea. A încercat să fugă din spital în mai puțin de 24 de ore de la internare și, după ce a fost internat forțat, a fost tratat pentru psihoză. După ce s-a stabilizat, pacientul a raportat că avea și alte simptome indicatoare de bromism, cum ar fi acnee facială, sete excesivă și insomnie.
Editor : M.I.