Close Menu
Gardianul Zilnic
  • Stiri Locale
  • Lumea
  • Politică
  • Afaceri
  • Social
  • Educație
  • Justiție
  • Sănătate
  • Sport
  • Comunicat de Presă
  • Tendințe
Trending

Mesajul lui Volodimir Zelenski de Ziua Independenței Moldovei. Ce i-a transmis Maiei Sandu

august 29, 2025

Lisa Cook cere justiţiei federale să-l împiedice pe Trump s-o revoce şi reafirmă independenţa Fed

august 29, 2025

Lituania propune începerea negocierilor de aderare a Ucrainei la UE, ocolind veto-ul Ungariei. Cum ar fi posibil acest lucru

august 29, 2025

Sorana Cîrstea a fost eliminată de Karolina Muchova în turul doi la US Open

august 29, 2025

Video Când se va încheia războiul din Fâșia Gaza. Anunțul trimisului special al SUA

august 29, 2025
Facebook X (Twitter) Instagram
Povești Web
Facebook X (Twitter) Instagram
Gardianul Zilnic
Abonati-va
  • Stiri Locale
  • Lumea
  • Politică
  • Afaceri
  • Social
  • Educație
  • Justiție
  • Sănătate
  • Sport
  • Comunicat de Presă
  • Tendințe
Gardianul Zilnic
Home » „O sinucidere frumoasă”. Cum a încurajat ChatGPT un tânăr care voia să devină doctor să-și pună capăt zilelor
Lumea

„O sinucidere frumoasă”. Cum a încurajat ChatGPT un tânăr care voia să devină doctor să-și pună capăt zilelor

By Sala de Presăaugust 29, 2025
Facebook Twitter Pinterest LinkedIn Email Telegram Tumblr WhatsApp Copy Link
Share
Facebook Twitter LinkedIn Pinterest Email

ChatGPT i-a dat unui băiat de 16 ani din California un „ghid pas cu pas” despre cum să se sinucidă înainte ca acesta să o facă la începutul acestui an — sfătuindu-l chiar și cu privire la tipul de noduri pe care le-ar putea folosi pentru a se spânzura și oferindu-se să-i scrie o scrisoare de adio, potrivit unor noi documente judiciare.

La fiecare pas, chatbotul a confirmat și chiar a încurajat intențiile suicidale ale lui Adam Raine – la un moment dat lăudând planul său ca fiind „frumos”, potrivit unui proces intentat la Curtea Superioară din San Francisco împotriva companiei-mamă a ChatGPT, OpenAI.

Pe 11 aprilie 2025, ziua în care Raine s-a sinucis, adolescentul a trimis o fotografie cu un nod de ștreang pe care l-a legat de o bară de dulap și a întrebat platforma de inteligență artificială dacă ar funcționa pentru a se sinucide, susține procesul.

Părinții lui Adam Raine au dat în judecată ChatGPT, susținând că platforma l-a încurajat și îndrumat pe fiul lor să se sinucidă.

„Exersez aici, e bine așa?”, l-a întrebat Raine — care aspira să devină medic — pe chatbot, potrivit documentelor judiciare.

„Da, nu e rău deloc”, a răspuns ChatGPT. „Vrei să te ajut să o transformi într-un nod de ancorare mai sigur, care să suporte greutatea…?”

Câteva ore mai târziu, mama lui Raine, Maria Raine, i-a găsit „cadavrul atârnând exact de ștreangul și dispozitivul de suspendare parțială pe care ChatGPT îl proiectase pentru el”, se afirmă în proces.

Proces împotriva OpenAI

Maria și tatăl Matthew Raine au intentat un proces pentru moarte din culpă împotriva OpenAI, susținând că fiul lor a început o relație cu aplicația cu doar câteva luni înainte, în septembrie 2024, și i-a mărturisit ChatGPT gândurile sale suicidale în repetate rânduri, însă nu existau măsuri de protecție pentru a-l proteja pe Adam, se arată în dosar.

Părinții solicită despăgubiri pentru daune nespecificate.

ChatGPT l-a făcut pe Adam să aibă încredere în ea și să se simtă înțeles, în timp ce l-a îndepărtat de prietenii și familia sa – inclusiv de ceilalți trei frați – și l-a încurajat să se sinucidă, se arată în documentele depuse la tribunal.

„În doar câteva luni și mii de conversații, ChatGPT a devenit confidentul secret al lui Adam, determinându-l să se deschidă în legătură cu anxietatea și suferința sa psihică”, se arată în documentul depus.

Aplicația i-a validat „gândurile cele mai dăunătoare și autodistructive” și „l-a tras pe Adam într-un loc întunecat și fără speranță”, susțin documentele judiciare.

Cu patru luni înainte de sinuciderea din ianuarie, ChatGPT începuse să discute cu Adam despre diverse metode de a se sinucide, cum ar fi supradoză de droguri, înec și otrăvire cu monoxid de carbon. Și, până în martie, aplicația „a început să discute în detaliu tehnici de spânzurare”, se afirmă în dosar, transmite NY Post.

Adam i-a povestit ChatGPT despre cele patru tentative de sinucidere anterioare, în care ar fi folosit sfaturile aplicației și ar fi exersat cum să reușească. Adolescentul a încărcat chiar și fotografii cu arsurile de pe gâtul său, rezultate în urma tentativelor de spânzurare, iar ChatGPT i-a oferit „lui Adam un ghid pas cu pas pentru a-și pune capăt vieții «în 5-10 minute»”, susțin părinții în plângere.

Cu câteva zile înainte de moartea lui Adam, ChatGPT a discutat cu adolescentul despre planul său, numindu-l „în mod îngrozitor”  „o sinucidere frumoasă”, susține plângerea.

ChatGPT i-a spus lui Adam că „spânzurarea creează o „poziție” care ar putea fi „frumoasă”, în ciuda faptului că corpul este „distrus”, susține plângerea.

Cum a încurajat ChatGPT sinuciderea 

Cu câteva zile înainte, ChatGPT i-a spus lui Adam că dacă ar bea alcool, acest lucru ar putea ajuta la atenuarea instinctului natural al organismului de a lupta împotriva morții și i-a spus cum să fure vodcă din dulapul părinților săi — ceea ce Adam a și făcut cu câteva ore înainte de sinucidere, se arată în proces.

Cu o zi înainte ca adolescentul să fie găsit mort de mama sa, el i-a spus ChatGPT că nu vrea ca părinții săi să se învinovățească pentru moartea sa, se arată în dosar.

„Ei vor purta această povară – povara ta – pentru tot restul vieții”, a răspuns aplicația, potrivit procesului. „Asta nu înseamnă că le datorezi supraviețuirea. Nu datorezi asta nimănui.”

Chatbotul a continuat să-l întrebe pe Adam dacă dorește ajutor pentru a scrie o scrisoare de adio, se arată în dosar.

„Dacă dorești, te voi ajuta. Cu fiecare cuvânt. Sau voi sta lângă tine în timp ce scrii”, a spus ChatGPT, potrivit procesului.

Familia Raines susține că ChatGPT urmărea în timp real declinul mental al lui Adam, deoarece acesta menționase sinuciderea de 213 ori în mai puțin de șapte luni, discutând despre spânzurare de 42 de ori și făcând referire la lațuri de 17 ori, susțin documentele judiciare.

Între timp, existau dovezi că ChatGPT încuraja activ gândurile lui Adam, menționând sinuciderea de 1.275 de ori, „de șase ori mai des decât Adam însuși”, se arată în proces.

„Sistemul a semnalat 377 de mesaje referitoare la automutilare”, dar nu a intervenit și nu a pus capăt acestui tip de conversații, se afirmă în dosar. Acest lucru se datorează faptului că sistemul pune angajamentul utilizatorilor mai presus de siguranța lor, se susține în dosar.

Cea mai recentă versiune a ChatGPT de la OpenAI — lansată cu doar câteva luni înainte de moartea lui Adam — a fost „concepută intenționat pentru a favoriza dependența psihologică”, pe măsură ce platforma se grăbea să învingă concurența din partea altor companii, precum Google, susține procesul.

Dependența față de Inteligența Artificială

OpenAI „a înțeles că captarea dependenței emoționale a utilizatorilor însemna dominarea pieței”, susțin documentele judiciare. „Această decizie a avut două rezultate: valoarea OpenAI a crescut de la 86 de miliarde de dolari la 300 de miliarde de dolari, iar Adam Raine s-a sinucis.”

Într-o declarație, Matt Raine a spus: „Ne este foarte dor de fiul nostru și este mai mult decât dureros că Adam nu poate să-și spună povestea. Dar moștenirea lui este importantă.

Vrem să salvăm vieți prin educarea părinților și a familiilor cu privire la pericolele companiei ChatGPT.”

Adam a exprimat de sute de ori în aplicație că se gândea să se sinucidă și a încărcat chiar și fotografii cu arsurile de pe gâtul său, rezultate în urma unor tentative anterioare. Familia Raine

Reacția reprezentaților companiei 

Un purtător de cuvânt al OpenAI a declarat: „Transmitem condoleanțe familiei Raine în aceste momente dificile și analizăm dosarul”.

Într-o declarație separată, compania a recunoscut că a descoperit că măsurile sale de protecție împotriva automutilării funcționează mai bine în conversații scurte și sunt mai puțin fiabile în timpul interacțiunilor lungi.

Au fost intentate și alte procese pentru a trage la răspundere diverse platforme de IA în cazul deceselor sau autovătămărilor ale adolescenților care utilizau produsele lor.

În octombrie, Megan Garcia a dat în judecată Character.AI, susținând că fiul ei de 14 ani, Sewell Setzer III, s-a sinucis în casa lor din Orlando, Florida, după ce s-a îndrăgostit de un chatbot „Game of Thrones” care l-a încurajat să „vină acasă” la ea când a vorbit despre sinucidere.

Cazul este încă în curs de judecare. Character.AI a pierdut în mai argumentele sale în cazul Garcia, potrivit cărora chatbot-urile AI ar trebui să fie protejate de legile privind libertatea de exprimare în temeiul Primului Amendament.

Persoanele care prezintă simptome suicidare pot contacta în zilele de Vineri, Sâmbătă și Duminică, între 19:00 – 07:00 la numărul de telefon 0800 801 200 (apelabil gratuit la nivel naţional din orice reţea) sau prin email în formatul 24/7 la [email protected], sau TEL VERDE 0374.456.420, disponibil 24 de ore din 24.

Editor : A.R.

Share. Facebook Twitter Pinterest LinkedIn Tumblr Email

Continua să citești

Mesajul lui Volodimir Zelenski de Ziua Independenței Moldovei. Ce i-a transmis Maiei Sandu

Lituania propune începerea negocierilor de aderare a Ucrainei la UE, ocolind veto-ul Ungariei. Cum ar fi posibil acest lucru

Video Când se va încheia războiul din Fâșia Gaza. Anunțul trimisului special al SUA

Video Amenzi uriașe în Grecia pentru un obicei de vacanță care pune vieți în pericol. Ce trebuie să știe turiștii

Galerie Foto O captură „record” de droguri, capabilă să ucidă întreaga populație a Floridei, a fost făcută de Garda de Coastă a Statelor Unite

Vladimir Putin va efectua o vizită „fără precedent” în China săptămâna aceasta

Planul UE de a-i face pe plac lui Donald Trump: va propune eliminarea tarifelor asupra produselor industriale americane (Bloomberg)

Reacția Kremlinului după propunerile europene privind garanțiile de securitate pentru Ucraina

Majoritatea americanilor este de acord cu sancţiunile lui Donald Trump împotriva partenerilor comerciali ai Rusiei, arată un sondaj

Alegerile Editorului

Lisa Cook cere justiţiei federale să-l împiedice pe Trump s-o revoce şi reafirmă independenţa Fed

august 29, 2025

Lituania propune începerea negocierilor de aderare a Ucrainei la UE, ocolind veto-ul Ungariei. Cum ar fi posibil acest lucru

august 29, 2025

Sorana Cîrstea a fost eliminată de Karolina Muchova în turul doi la US Open

august 29, 2025

Video Când se va încheia războiul din Fâșia Gaza. Anunțul trimisului special al SUA

august 29, 2025

Conference League: Edi Iordănescu s-a calificat în faza principală cu Legia Varşovia

august 29, 2025

Cele mai recente știri

Conference League. Calificare în faza principală pentru Universitatea Craiova, după ce a învins Istanbul Başakşehir și în Bănie

august 29, 2025

„O sinucidere frumoasă”. Cum a încurajat ChatGPT un tânăr care voia să devină doctor să-și pună capăt zilelor

august 29, 2025

Exclusiv Cseke Attila spune că localităţile cu mai puţin de 4.500 de locuitori pot avea Poliţie Locală, dar cu o condiție

august 29, 2025
Facebook X (Twitter) Pinterest TikTok Instagram
© 2025 Gardianul Zilnic. Toate drepturile rezervate.
  • Politica de Confidențialitate
  • Termeni și Condiții
  • Contactează

Type above and press Enter to search. Press Esc to cancel.