După un conflict public legat de modul în care armata SUA poate folosi modelele AI, Administrația Trump a decis interzicerea produselor Anthropic în toate agențiile federale. Măsura vine la pachet cu punerea companiei sub eticheta „supply chain risk”, folosită de obicei pentru furnizori considerați problematici din motive de securitate. Detalii avem mai jos!
La mijloc este un contract al Pentagonului în valoare de până la 200 de milioane de dolari, care urmează să fie întrerupt. Departamentul Apărării le cere acum contractorilor să certifice că nu mai folosesc modelul Claude în proiectele legate de armată. Există o perioadă de tranziție de șase luni, dar oficialii recunosc că decuplarea va fi complicată, mai ales în sistemele clasificate unde AI-ul era deja integrat în fluxuri de analiză și planificare.
Disputa a pornit de la o cerință prin care armata vrea libertate totală de utilizare a modelelor licențiate pentru orice misiune legală. Anthropic, prin CEO-ul Dario Amodei, a susținut că nu poate elimina anumite limitări legate de supraveghere în masă și arme complet autonome. Pentagonul consideră însă că deciziile operaționale nu pot fi limitate de termenii impuși de un furnizor privat.
Pe termen scurt, presiunea se mută pe rivali. xAI, OpenAI și Google sunt deja în discuții pentru extinderea accesului în medii sensibile, inclusiv clasificate. xAI are un acord pentru integrarea Grok în sisteme militare, dar există rezerve interne privind siguranța.


