CEO-ul OpenAI, Sam Altman, a admis că firma ”nu ar fi trebuit să se grăbească” în anunţarea acordului recent cu Departamentul Apărării al SUA şi a prezentat revizuiri ale contractului, pe fondul reacţiilor intense din mediul public şi tehnologic, transmite CNBC.
Altman a publicat pe X un mesaj derivat dintr-un memo intern, în care explică faptul că OpenAI va modifica înţelegerea pentru a include formulări clare privind limitele de utilizare ale sistemelor AI, în special cele legate de supraveghere. Contractul actualizat va preciza explicit că ”sistemul de inteligenţă artificială nu va fi folosit intenţionat pentru supravegherea internă a persoanelor sau cetăţenilor americani”.
Memo-ul adaugă că Departamentul Apărării ”înţelege limitarea care interzice urmărirea, monitorizarea sau supravegherea deliberată a persoanelor americane, inclusiv prin folosirea datelor personale achiziţionate comercial”.
Schimbările vin la doar câteva zile după ce OpenAI anunţase noul acord cu Pentagonul, într-un moment tensionat: administraţia preşedintelui Donald Trump tocmai ceruse tuturor agenţiilor federale să înceteze utilizarea produselor Anthropic, iar Washingtonul se pregătea să lanseze atacuri asupra Iranului.
Altman a declarat că Departamentul Apărării a confirmat că instrumentele OpenAI nu vor fi utilizate de agenţii de informaţii precum NSA.
”Există multe lucruri pentru care tehnologia pur şi simplu nu este pregătită”, a spus el, adăugând că firma va lucra cu Pentagonul pentru a implementa măsuri tehnice de siguranţă.
CEO-ul a recunoscut şi o eroare personală: ”Nu ar fi trebuit să ne grăbim vineri. Încercam sincer să detensionăm situaţia şi să evităm un rezultat mult mai rău, dar în exterior a părut oportunist şi neglijent.”
Declaraţia apare pe fondul unei dispute publice acute între Anthropic şi Washington privind utilizările permise ale AI-ului Claude pentru securitate naţională, dispute care s-au încheiat fără acord, iar secretarul Apărării Pete Hegseth a desemnat compania drept risc în lanţul de aprovizionare.
Anthropic, prima firmă care şi-a distribuit modelele AI pe reţeaua clasificată a Pentagonului, a cerut ulterior garanţii ferme că tehnologia nu va fi utilizată pentru supraveghere internă sau arme autonome fără control uman. Tensiunile au escaladat după dezvăluirea că modelul Claude fusese utilizat în operaţiunea militară americană de capturare a preşedintelui venezuelean Nicolás Maduro în ianuarie.
Acordul OpenAI cu Pentagonul a venit imediat după ruperea negocierilor dintre Anthropic şi Departamentul Apărării, deşi Altman le-a transmis angajaţilor într-un memo intern că OpenAI împărtăşeşte aceleaşi ”linii roşii”.
Nu este clar de ce Pentagonul a acceptat condiţiile OpenAI, dar nu şi pe cele ale Anthropic, însă oficiali americani au criticat în ultimele luni firma rivală pentru ”preocupări excesive” legate de siguranţa AI.
Controversa a declanşat o reacţie online puternică, mulţi utilizatori renunţând la ChatGPT în favoarea lui Claude în magazinele de aplicaţii. Altman a cerut totuşi ca Anthropic să nu fie clasificată drept risc şi a spus că speră ca Pentagonul să îi ofere aceleaşi condiţii. Anthropic a fost fondată în 2021 de foşti cercetători OpenAI, plecaţi din cauza diferenţelor privind direcţia companiei.









