Trump vs. Claude: Inteligența artificială se pare că va câștiga

Luni după-amiază, în sala 15 a tribunalului federal din San Francisco, judecătoarea Rita F. Lin a formulat o întrebare care a răsunat ca un trăsnet în mijlocul argumentelor guvernului american:dacă amenințarea pe care o reprezintă Anthropic este atât de gravă și atât de iminentă pentru securitatea națională, de ce a durat atât de mult ca Departamentul Apărării să o descopere?

Întrebarea, aparent retorică, a lovit în miezul unui paradox pe care avocații guvernului nu l-au putut explica convingător: Anthropic a colaborat cu Departamentul de Război ani la rând, livrând tehnologie AI pentru aplicații militare. Abia când compania a refuzat să-și lase modelele să fie folosite pentru drone ucigașe autonome și supraveghere în masă a propriilor cetățeni, brusc a devenit un„risc iminent pentru securitatea națională „.

Această observație a judecătoarei Lin a ridicat semnificativ moralul echipei Anthropic prezentă în sală și a semnalat că instanța vede ceea ce compania susține din prima zi: că acțiunile Pentagonului nu reprezintă o măsură de securitate națională, ci o retorsiune față de refuzul unei companii americane de a-și abandona valorile etice.

Cum a ajuns Claude în vizorul Pentagonului

Totul a început în toamna lui 2025, în timpul negocierilor pentru reînnoirea contractului dintre Anthropic și Departamentul de Război — noua denumire a fostului Departament al Apărării, rebotezat de administrația Trump. Compania din San Francisco, creatoarea modelului AI Claude, a trasat două linii roșii clare: tehnologia sa nu va fi utilizată pentru sisteme de arme letale autonome — adică drone sau roboți militari care identifică și elimină ținte fără intervenție umană — și nici pentru supravegherea în masă a cetățenilor americani.

Pentagonul nu a acceptat aceste condiții. Pe 27 februarie 2026, secretarul Pete Hegseth a postat pe rețelele sociale un mesaj categoric: nicio companie care colaborează cu armata americană nu mai poate desfășura activitate comercială cu Anthropic, „cu efect imediat”. Șase zile mai târziu, pe 3 martie, Departamentul de Război a mers mai departe și a emis o desemnare formală, clasificând Anthropic drept „risc pentru lanțul de aprovizionare” — o autoritate legală concepută de Congres pentru a combate sabotajul din partea adversarilor străini, precum China sau Rusia.

Era pentru prima dată în istorie când această prevedere legală era aplicată unei companii americane. Anthropic a depus imediat acțiune în instanță.

Audierea: două concesii și o teorie prăbușită

Audierea pentru injuncția preliminară, care ar putea suspenda sancțiunile pe durata procesului, a avut loc luni, 24 martie, și a durat câteva ore bune. Judecătoarea Lin, cu o metodă neobișnuit de riguroasă, publicase în avans șase întrebări precise pe care dorea să le clarifice cu ambele tabere. Răspunsurile au scos la iveală fisuri profunde în argumentația guvernului.

Prima concesie importantă a venit rapid: avocatul guvernului a recunoscut că scrisorile trimise comisiilor parlamentare de resort nu conțineau ce prevedea legea — anume o analiză a „măsurilor mai puțin intruzive” care ar fi putut fi luate în loc. Statutul de „risc pentru lanțul de aprovizionare” impune explicit această cerință procedurală înainte de orice desemnare. Ea lipsea complet, nu doar din scrisori, ci și din întregul dosar administrativ.

A doua concesie a fost și mai revelatoare. Teoria centrală a Pentagonului suna astfel: Anthropic ar putea, în viitor, să trimită o actualizare malițioasă pe sistemele militare sau să instaleze un „comutator de oprire” care să saboteze operațiunile armatei. Judecătoarea Lin a întrebat direct: există dovezi că Anthropic are acces la sistemele militare după livrarea produsului și poate trimite actualizări fără știința Departamentului? Răspunsul avocatului guvernului: nu știm. Există un audit în curs, dar deocamdată nu avem o poziție.

Cu alte cuvinte: Pentagonul a desemnat o companie americană drept amenințare la adresa securității naționale — folosind o unealtă legală rezervată adversarilor precum Huawei sau Kaspersky — înainte de a verifica dacă amenințarea este măcar tehnic posibilă. O declarație depusă de Anthropic, necontestată de guvern, afirmă că după implementarea modelelor, compania nu mai are niciun control asupra lor.

Sancțiunea înainte de dosar

Dincolo de argumentele tehnice, audierea a scos la iveală ceva și mai îngrijorător despre modul în care a funcționat procesul administrativ. Avocații Anthropic au arătat că memorandumul intern care stă la baza desemnării a fost semnat pe 2 martie — cu o zi înainte de desemnarea formală din 3 martie. O a doua declarație a subsecretarului Emil Michael, depusă chiar în dimineața audierii, a confirmat această cronologie.

Tabloul care se conturează este acela al unei decizii luate pe 27 februarie — în ziua postării pe rețelele sociale a lui Hegseth — iar funcționarii departamentului au încercat ulterior să construiască documentația necesară. Practic, concluzia a venit înaintea procesului, nu invers. Avocatul Anthropic a rezumat situația cu o formulare tăioasă: „Se pare că secretarul luase această decizie pe 27 februarie, iar personalul agenției s-a grăbit să completeze retroactiv cerințele procedurale — și nici măcar fără succes”.

Acesta este, în esență, argumentul de fond al Anthropic: că nu a fost vorba niciodată despre securitate națională, ci despre pedepsirea unei companii care a îndrăznit să spună „nu” armatei americane și să-și apere public principiile etice — ceea ce, în viziunea Anthropic, constituie discurs protejat de Primul Amendament al Constituției.

Ce urmează: orele care contează

La finalul audierii, judecătoarea Lin a anunțat că ia cazul în deliberare și că anticipează emiterea unui ordin scris „în câteva zile”. Potrivit surselor apropiate procesului, ordinul ar putea apărea pe portalul instanței în cursul zilei de miercuri, 25 martie, după ce oficialii de pe Coasta de Vest a SUA încep programul de lucru.

Dacă judecătoarea acordă injuncția preliminară, sancțiunile impuse de Pentagon vor fi suspendate pe durata procesului — un succes major pentru Anthropic și, mai larg, pentru industria AI americană. Dacă cererea va fi respinsă, Anthropic va trebui să supraviețuiască fără contracte militare și fără parteneri comerciali care lucrează cu Departamentul de Război, în timp ce litigiul continuă pe fond.

Semnalele din sala de judecată sunt, fără îndoială, favorabile Anthropic. Dar tribunalele nu se conduc după semnale.

De ce contează acest dosar

Cazul Anthropic nu este doar despre o companie și un contract militar. El ridică întrebări fundamentale despre rolul eticii în industria AI, despre limitele autorității executive și despre dacă companiile americane pot fi pedepsite pentru că refuză să dezvolte tehnologii pe care le consideră periculoase. Precedentul creat — în orice direcție — va reverbera în întreaga industrie.

Un moment de referință pentru AI și democrație

Există un ironie aparte în această bătălie juridică. Administrația Trump a pariat enorm pe inteligența artificială ca armă geopolitică împotriva Chinei, cheltuind miliarde pentru a menține supremația americană în domeniu. Dar acțiunile sale împotriva Anthropic — una dintre cele mai avansate companii AI din lume — riscă tocmai să submineze ce încearcă să protejeze.

Dacă companiile de AI învață că a refuza să construiești arme autonome sau sisteme de supraveghere în masă înseamnă a fi eliminat din piață prin forța statului, concluzia logică este că supraviețuirea comercială cere complicitate morală. Este exact tipul de mediu care produce accidente — și exact ceea ce Anthropic a spus că vrea să prevină.

Deocamdată, miza imediată este mai prozaică: va semna sau nu judecătoarea Rita Lin un ordin de suspendare a sancțiunilor? Dar ceea ce se decide în sala 15 a tribunalului federal din San Francisco nu rămâne acolo. Se decide, de fapt, câtă putere are un guvern să forțeze companiile de tehnologie să ignore propriile limite etice — și dacă America vrea să câștige cursa AI cu principii sau fără ele.

Ordinul scris al Judecătoarei Lin este așteptat în cursul zilei de 25 martie 2026.

Sursa: https://www.ziaruldeiasi.ro/stiri/trump-vs-claude-inteligenta-artificiala-se-pare-ca-va-castiga–1845949.html

Ultimă oră

Același autor