Armata Statelor Unite ar fi utilizat instrumentul de inteligență artificială Claude, dezvoltat de compania Anthropic, pentru a sprijini atacurile asupra Iranului, inclusiv în fazele de evaluare a informațiilor, identificare a țintelor și simulare a scenariilor de luptă, chiar în condițiile în care administrația americană condusă de Donald Trump anunțase interzicerea utilizării tehnologiei respective de către guvern. Sursele citate în raport menționează că directivele privind interdicția au venit cu doar câteva ore înainte de începerea operațiunilor militare, dar sistemele bazate pe Claude erau deja integrate în fluxurile de lucru ale Comandamentului Central al SUA în Orientul Mijlociu. 
Disputa din jurul utilizării acestor instrumente reflectă tensiuni mai largi între conducerea Pentagonului și compania Anthropic, care a refuzat să elimine restricțiile asupra modului în care tehnologia sa AI poate fi folosită, pe motiv de valori etice și preocupări privind supravegherea în masă sau armele autonome. În pofida acestui refuz și a ordinului executiv de a opri folosirea produselor sale în sistemele federale, AI-ul Claude a rămas activ în operațiuni critice la momentul inițierii atacului. 
Anthropic, compania din spatele tehnologiei Claude, se confruntă acum cu presiuni puternice din partea Pentagonului, care a amenințat să o eticheteze drept risc pentru lanțul de aprovizionare dacă nu acceptă condițiile impuse pentru utilizarea tehnologiei în scopuri militare fără restricții. În contextul în care Claude a fost deja folosit și în alte operațiuni clasificate ale SUA, această controversă evidențiază complexitatea debateului despre limitele etice ale AI în aplicații militare și dificultățile Guvernului de a reglementa utilizarea tehnologiei în situații reale de război. 
Imagine:Ilustrație, sursa (https://hotnews.ro/dezvaluire-razboiul-sua-in-iran-ajutat-de-inteligenta-artificiala-produsa-de-compania-criticata-de-trump-cum-a-fost-folosit-asistentul-ai-claude-in-atacurile-americane-2182547)
