Dall’etica alla pratica (militare): le Big Tech dell’Ai abbracciano l’esercito americano

Dall’etica alla pratica (militare): le Big Tech dell’Ai abbracciano l’esercito americano

L’intelligenza artificiale in ambito militare va usata con cautela, pena rischi catastrofici per l’Umanità? Un tempo, forse, potevano avere questi temori, ma adesso vanno avanti spedite: le aziende tech stanno mettendo, sempre più spesso, le proprie innovazioni IA al servizio dell’esercito americano. L’ultima notizia, a dicembre, riguarda OpenAI – l’azienda di Chatgpt: sta lavorando con la società Anduril, per fornire sistemi intelligenti anti-drone alla Difesa Usa. Meta invece ha reso disponibile il suo modello AI (large language) open-source Llama per applicazioni legate alla sicurezza nazionale degli Stati Uniti.

E c’è anche Anthropic, società che pure con il suo modello Claude si è sempre distinta per un approccio iper-etico all’innovazione. Ha siglato una partnership con Palantir Technologies e Amazon Web Services (Aws), per offrire al governo statunitense strumenti di intelligence militare basata sull’AI.

Gli scrupoli sono caduti

Eppure era il 16 maggio 2023, quando, durante un’udienza al Senato americano, Sam Altman aveva messo in guardia dai pericoli della tecnologia AI. “Se questa tecnologia va male, può andare molto male” e potrebbe causare “danni significativi al mondo”. Aveva così inserito nelle sue policy il divieto di utilizzare i modelli di intelligenza artificiale per applicazioni “militari e di guerra”. Divieto rimosso a gennaio. Adesso la sola linea di demarcazione da non superare è l’uso dell’AI per compiti che attivamente possono uccidere qualcuno o danneggiare cose. Tutto il resto a contorno va bene, insomma: difesa automatizzata contro droni, armi; intelligence. Poche ore dopo l’annuncio della partnership con Anduril, alcuni dipendenti di OpenAI hanno espresso timori sui risvolti etici e anche preoccupazione per gli impatti reputazionali per la società. Uno di loro è arrivato a ricordare che Skynet – il software AI immaginario dei film Terminator che ha portato alla quasi distruzione dell’umanità – ha iniziato proprio così la propria carriera: è stato utilizzato come strumento di difesa aerea per il Nord America.

Sempre a gennaio 2024 pure Meta ha rimosso quel divieto tra le proprie policy.

Google non ha ancora annunciato accordi simili basati sull’AI ma quest’anno ha licenziato i dipendenti che protestavano per la vendita di software al Governo di Israele. Nel 2018 invece aveva ceduto a una protesta di massa dei dipendenti – la più grande nella storia della Silicon Valley e ha cancellato un contratto con il Pentagono per una tecnologia di image-recognition.

Fonte: Il Sole 24 Ore