Modelele de inteligenţă artificială dezvoltate de Anthropic au înregistrat luni ”erori crescute”, în timp ce aplicaţia Claude îşi păstra poziţia de cea mai populară aplicaţie gratuită din App Store-ul companiei Apple.
Site-ul de status al Claude a indicat ”performanţă degradată” pentru modelul Claude Opus 4.6, lansat luna trecută. La ora 10:49 a.m. ET, platforma a raportat că problema a fost identificată şi se lucrează la remediere. Un update din 10:47 a.m. ET anunţa că disfuncţionalităţile de pe claude.ai, consola de dezvoltare şi modulul Claude Code au fost deja rezolvate.
CNBC a solicitat un comentariu suplimentar companiei Anthropic.
Aplicaţia a cunoscut un val puternic de popularitate pe fondul conflictului dintre Anthropic şi Departamentul Apărării. Compania a semnat în iulie un contract de 200 de milioane de dolari cu Pentagonul, însă tensiunile au izbucnit după ce Anthropic a cerut garanţii că modelele sale AI nu vor fi folosite pentru arme complet autonome sau pentru supravegherea în masă a populaţiei americane.
Departamentul pentru Război al SUA a respins solicitarea, susţinând că armata trebuie să poată utiliza tehnologia pentru orice scop considerat legal.
Vineri, preşedintele Donald Trump a ordonat tuturor agenţiilor federale să înceteze ”imediat” folosirea tehnologiei Anthropic. La scurt timp, secretarul pentru Război Pete Hegseth a anunţat pe X că Pentagonul va eticheta compania drept ”risc pentru securitatea naţională pe lanţul de aprovizionare”.
Rivalul AI OpenAI a încheiat un acord cu Departamentul pentru Război la doar câteva ore după ce guvernul a rupt legăturile cu Anthropic.









