Curtea federală de apel permite Pentagonului să desemneze Anthropic drept risc pentru lanţul de aprovizionare

Într-o evoluţie semnificativă pentru intersecţia dintre politica inteligenţei artificiale şi securitatea naţională, o curte federală de apel din Washington a decis pe 8 aprilie că Departamentul de Război poate desemna Anthropic drept risc pentru lanţul de aprovizionare în timp ce o analiză judiciară completă este în desfăşurare.
Decizia a venit după ce compania de AI a solicitat o suspendare de urgenţă pentru a bloca această desemnare controversată.
Anthropic este o companie americană de inteligenţă artificială, cunoscută în special pentru dezvoltarea unor modele AI avansate, precum Claude.
Completul de trei judecători al Curţii de Apel a SUA pentru Circuitul Districtului Columbia a concluzionat că Anthropic „nu a îndeplinit cerinţele stricte pentru acordarea unei suspendări până la revizuirea de către instanţă”, permiţând ca includerea pe lista neagră să rămână în vigoare deocamdată, scrie ZeroHedge.
Această hotărâre intră în conflict direct cu o ordonanţă temporară emisă luna trecută de o instanţă federală districtuală din California, care suspendase desemnarea în timpul litigiului în curs.
Desemnarea, autorizată în temeiul legilor federale menite să protejeze sistemele militare şi guvernamentale de vulnerabilităţile lanţului de aprovizionare şi sabotajul extern, funcţionează practic ca o listă neagră. Aceasta interzice Anthropic să desfăşoare activităţi comerciale cu guvernul federal sau cu contractorii acestuia şi obligă agenţiile federale, contractorii şi furnizorii să înceteze relaţiile existente cu compania.
Măsura a apărut după ce Anthropic a refuzat o solicitare a Departamentului de Război de a modifica politicile de utilizare şi mecanismele de siguranţă ale modelului său principal de AI, Claude. Compania a refuzat să elimine restricţiile care împiedică utilizarea AI-ului pentru supraveghere în masă sau pentru dezvoltarea şi operarea sistemelor de arme complet autonome. Anthropic şi-a subliniat angajamentul faţă de principiile „inteligenţei artificiale constituţionale” şi implementării responsabile, argumentând că aceste mecanisme de protecţie sunt esenţiale pentru utilizarea etică a AI.
Pentagonul a declarat public că nu intenţionează să utilizeze Claude în aceste scopuri specifice, dar a insistat asupra flexibilităţii de a folosi tehnologia pentru toate aplicaţiile militare legale. Preşedintele Donald Trump a intervenit anterior pe reţelele sociale, acuzând Anthropic că încearcă să „forţeze mâna” guvernului federal folosindu-şi politicile AI pentru a dicta deciziile militare.
Târziu, pe 8 aprilie, procurorul general interimar Todd Blanche a salutat decizia curţii de apel pe X (fostul Twitter), descriind-o drept „o victorie răsunătoare pentru pregătirea militară”. El a adăugat: „Armata noastră are nevoie de acces deplin la modelele Anthropic dacă tehnologia sa este integrată în sistemele noastre sensibile.”
Context
Anthropic, o firmă importantă de inteligenţă artificială fondată de foşti executivi OpenAI şi susţinută de investitori majori, inclusiv Amazon şi Google, s-a poziţionat ca un lider în dezvoltarea AI sigură şi de încredere. Modelele sale Claude sunt utilizate pe scară largă în aplicaţii enterprise, de cercetare şi creative, tocmai datorită mecanismelor de protecţie integrate.
Se crede că acest caz marchează prima dată când o astfel de desemnare de risc pentru lanţul de aprovizionare — de obicei rezervată entităţilor străine considerate ameninţări de securitate — este aplicată unei mari companii americane de AI. Acesta evidenţiază tensiunile tot mai mari dintre accentul pus de dezvoltatorii comerciali de AI pe garanţii etice şi dorinţa guvernului de a avea acces neîngrădit la tehnologii avansate pentru scopuri de apărare.
Litigiul continuă atât în instanţa districtuală din California, cât şi în Circuitul D.C., iar noi evoluţii sunt aşteptate pe măsură ce hotărârile contradictorii vor fi reconciliate.