Un’infelice scelta di tempi
Venerdì 27 febbraio Donald Trump ha firmato il divieto per tutte le agenzie governative di utilizzare l’AI di Anthropic, più nota al pubblico con il nome di Claude.
Poche ore dopo è avvenuto l’attacco all’Iran (preannunciato dal picco nella notte precedente del Pentagon Pizza Index) che, secondo il Wall Street Journal, è stato pianificato dal Comando centrale degli Stati Uniti in Medio Oriente con ampio ricorso a valutazioni di intelligence, identificazione di obiettivi e simulazione di scenari di battaglia fornite da Claude.
Una successione cronologica piuttosto infelice, ma inevitabile, dato che la sostituzione di Anthropic come fornitore, peraltro prontamente sostituito da OpenAI, richiederà mesi per essere interamente portata a termine.
Un curioso effetto collaterale è che poche ore dopo il ban e l’attacco in Iran, Anthropic è diventata la app più scaricata dall’Apple Store statunitense, superando ChatGPT di OpenAI. Un risultato impensabile solo un mese fa, quando la app di Anthropic non risultava neppure nella top 100.
L’AI sta acquisendo sempre più importanza anche all’interno dei processi decisionali militari, com’era emerso anche successivamente alla recente azione di forza in Venezuela, che ha portato all’arresto del presidente Maduro, che sembra sia stata pianificata con ampio utilizzo della tecnologia di Anthropic; cosa che, sempre secondo il WSJ, ha creato un marcato disappunto nei vertici della società di San Francisco.
Per quali ragioni Anthropic è stata messa al ban?
Anthropic è stata estromessa, perché nonostante le pressioni esercitate dal Pentagono, ha rifiutato di rimuovere i limiti, che si era autoimposta, su sorveglianza di massa e utilizzo di armi autonome senza supervisione umana.
In seguito alle dichiarazioni di Dario Amodei, fondatore e CEO di Anthropic, secondo il quale «I sistemi AI di frontiera non sono abbastanza affidabili da governare armi completamente autonome», Trump ha deciso di rescindere il contratto da 200 milioni di dollari con il Pentagono, sottoscritto a metà dello scorso anno, dichiarando Anthropic un rischio nella catena di approvvigionamento militare.
Dalle parole di Amodei si intuisce la posizione etica di Anthropic, secondo cui l’AI non è semplicemente uno strumento, ma una tecnologia nascente con potenziali implicazioni che richiedono un perimetro d’azione ben definito, proprio perché i suoi limiti e le sue possibilità sono ancora in buona parte da scoprire.
La posizione del governo americano è che il Congresso definisce le regole, il presidente le firma e il Pentagono le esegue. In quest’ottica, un contratto governativo non lascia spazio a vincoli etici del fornitore, che anzi sono da intendere come un’ingerenza privata in questioni governative.
Le riserve etiche di Anthropic sono state classificate come propaganda woke, spostando lo scontro dal piano della sicurezza tecnologica a quello della battaglia ideologica, con una mossa efficace sul piano della comunicazione.
Una ulteriore precisazione di Amodei merita, però, un’attenta riflessione: «Nessuno sul campo ha mai, a nostra conoscenza, incontrato i limiti che abbiamo imposto. Non so quali siano i loro piani — non li conosciamo — ma non abbiamo prove che questi casi d’uso abbiano effettivamente creato problemi». La rescissione del contratto è, quindi, figlia dell’atteggiamento governativo, che non accetta che vengano posti limiti al proprio operato, o si vogliono rimuovere quei limiti per realizzare qualcosa di potenzialmente molto preoccupante?
![]()


