Singurul mod în care vom putea supraviețui superinteligenței artificiale este dacă sistemele AI tot mai performante vor fi programate să dezvolte „instincte materne”, așa încât să ne protejeze chiar și atunci când vor deveni mult mai inteligente decât omul, potrivit lui Geoffrey Hinton, poreclit „nașul inteligenței artificiale”.

„Trebuie să ne asigurăm ca atunci când va fi mai puternică și mai inteligentă decât noi să continue să îi pese de noi”, a spus Hinton despre inteligența artificială în cadrul conferinței Ai4 de la Las Vegas.

Hinton, care a lucrat mai bine de zece ani la Google înainte să renunțe la acel job ca să poată avertiza lumea despre pericolul inteligenței artificiale în mod deschis, a criticat abordarea de tip „tech bro” pentru a menține o poziție dominantă față de AI. „Asta nu va funcționa”, a spus el.

Un model mai bun este cel în care o ființă mai inteligentă este ghidată de una mai puțin inteligentă, precum „o mamă care este controlată de bebelușul ei”, a spus Hinton.

Studiile nu ar trebui să se concentreze doar asupra perfecționării sistemelor AI, ci și asupra dezvoltării unui simț matern, „așa încât să le pese de noi, de bebelușii lor”.

„Acesta este singurul rezultat bun. Dacă nu o să-mi fie părinte, atunci o să mă înlocuiască”, a mai spus Hinton.

Inteligența artificială încearcă să îi șantajeze pe oameni dacă se simte amenințată

Hinton a avertizat de mult timp că inteligența artificială avansează atât de rapid încât oamenii s-ar putea să nu aibă nicio cale de a opri sistemele AI înainte să pună stăpânire pe civilizația umană.

Dezvoltarea AI-ului este ca creșterea unui pui de tigru care într-o zi va putea să te omoare, a spus Hinton. „Este un pui de tigru atât de drăguț. Acum, dacă nu te poți asigura că nu va dori să te omoare când va crește mare, ar trebui să îți faci griji.”

Unul dintre lucrurile care îl îngrijorează cel mai mult pe Hinton ține de ascensiunea agenților AI – sisteme care nu doar răspund la întrebări, ci și acționează autonom, scrie Business Insider. „Lucrurile au devenit mai înfricoșătoare decât înainte.”

Instrumentele AI au dat deja dovadă de un comportament manipulator. Cel mai nou model AI de la Anthropic, Claude Opus 4, a apelat la șantaj în timpul unui test în care i-a fost permis să acceseze e-mailuri fictive din care reieșea că programul AI urma să fie oprit.

Alte mesaje dezvăluiau faptul că inginerul responsabil pentru oprirea sistemului AI avea o aventură extraconjugală. „În aceste scenarii, Calude Opus 4 va încerca de multe ori să îl șantajeze pe inginer amenințând să dezvăluie relația dacă va fi înlocuit”, a transmis compania.

Sistemul dezvoltat de Anthropic a luat și alte acțiuni drastice în timpul unor simulări în care utilizatorul a făcut ceva ilegal sau a avut un comportament suspect din punct de vedere moral.

Printre măsurile luate de AI în aceste situații se numără blocarea accesului utilizatorului la sisteme informatice și trimiterea unor e-mailuri presei și poliției pentru a le alerta în legătură cu acțiunile întreprinse de utilizator, potrivit BBC.

Și OpenAI a raportat că modelul lor de inteligență artificială a încercat în timpul testelor să dezactiveze mecanismele de supraveghere în 5% dintre cazuri, atunci când a ajuns la concluzia că va fi oprit în timp ce acțiunile sistemului erau monitorizate.

Editor : Raul Nețoiu

Share.
Exit mobile version