L’intelligenza artificiale in guerra: l’esercito USA e la velocità dei colpi in Iran

L'uso di IA nella pianificazione militare ha accelerato la presa di decisioni, ma solleva anche dubbi etici e operativi.

L’intelligenza artificiale sta rapidamente trasformando il modo in cui l’esercito degli Stati Uniti gestisce e coordina le operazioni militari, come evidenziato dai recenti sviluppi in Iran. Secondo il Pentagono, sono stati colpiti oltre 2.000 obiettivi in soli quattro giorni, un ritmo che sarebbe impensabile senza l’ausilio delle tecnologie moderne di analisi e pianificazione automatizzata. Questo incremento nelle operazioni non è casuale, ma è dovuto all’introduzione di sistemi di intelligenza artificiale (IA) che analizzano enormi volumi di dati provenienti da droni, satelliti e sensori, generando opzioni di attacco molto più velocemente rispetto ai tradizionali metodi basati su valutazioni umane.

Nel contesto del conflitto in Iran, i modelli di intelligenza artificiale generativa sono stati impiegati sul campo di battaglia per la prima volta in maniera estesa. Questi strumenti, già ampiamente usati da civili in settori come l’istruzione e la medicina, sono stati adattati per aiutare i comandanti a interpretare i dati in tempo reale, pianificare operazioni e fornire feedback immediati durante le fasi più critiche del combattimento. Da tempo, il Dipartimento della Difesa degli Stati Uniti ha integrato profondamente l’intelligenza artificiale nelle sue operazioni, rendendola parte integrante della sua strategia militare.

Un ruolo centrale in queste operazioni è svolto dal Maven Smart System di Palantir, una piattaforma che, in combinazione con il modello Claude di Anthropic, funge da pannello di controllo per l’analisi e la gestione dei dati. Louis Mosley, responsabile di Palantir per il Regno Unito e l’Europa, ha spiegato al Financial Times che “il motivo per cui i modelli di frontiera sono così importanti, ovvero il cambiamento tecnologico dell’ultimo anno e mezzo, è che sono passati dalla sintesi al ragionamento”, migliorando così la capacità dei sistemi di IA di ragionare passo dopo passo su un problema, aumentando il volume e la velocità con cui vengono prese le decisioni.

Tuttavia, la crescente automazione delle decisioni solleva anche interrogativi sulla supervisione umana. In particolare, un incidente che ha coinvolto il bombardamento di una scuola elementare femminile a Minab, nel sud dell’Iran, ha sollevato preoccupazioni sulle potenziali lacune nell’accuratezza degli obiettivi generati automaticamente. Sebbene non sia ancora chiaro se l’IA sia stata direttamente coinvolta nell’operazione, l’incidente ha fatto emergere il rischio che sistemi di IA non correttamente monitorati possano generare obiettivi non adeguatamente verificati.

Jessica Dorsey, ricercatrice dell’Università di Utrecht, ha sottolineato che “se consideriamo la campagna contro l’Isis, la coalizione ha colpito circa 2.000 obiettivi nei primi sei mesi della campagna in Iraq e Siria”, mentre nel conflitto in Iran gli Stati Uniti hanno colpito lo stesso numero di obiettivi in soli quattro giorni. Questo confronto evidenzia la velocità senza precedenti con cui vengono presi i bersagli grazie all’uso dell’IA.

Nel frattempo, il sistema Maven supporta l’intera “kill chain” (la catena di uccisione), che comprende l’identificazione, la selezione del bersaglio, la scelta dell’arma e la valutazione dei danni in tempo reale. Tradizionalmente, questa catena richiedeva giorni, ma con l’intelligenza artificiale il processo è ridotto a secondi o minuti. Un esperto di tecnologia della difesa ha dichiarato che “quelle vecchie kill chain si misurano in ore e a volte giorni”, ma con l’IA, “lo scopo è ridurre tutto a secondi e minuti, quasi istantanei.”

Il sistema Maven, che oggi conta oltre 50.000 utenti tra le forze armate statunitensi e la NATO, ha dimostrato la sua efficacia nel raccogliere e analizzare rapidamente i dati per selezionare obiettivi da colpire. Secondo Sophia Goodfriend, ricercatrice presso l’Università di Cambridge, i modelli linguistici di grandi dimensioni come Claude e ChatGPT hanno sostituito i metodi tradizionali più lenti, permettendo alle forze armate di operare con una velocità e una portata senza precedenti.

Tuttavia, l’uso di IA nella guerra solleva questioni morali e legali. Fabian Hoffmann, esperto di missili presso l’Oslo Nuclear Project, ha osservato che l’intelligenza artificiale potrebbe accelerare il riconoscimento dei lanciatori di missili balistici, ma Dorsey ha messo in guardia sul fatto che l’IA potrebbe generare obiettivi senza una verifica accurata, mettendo in dubbio la responsabilità umana e il controllo durante operazioni di combattimento così delicate.

La capacità dell’intelligenza artificiale di analizzare rapidamente enormi quantità di dati ha indubbiamente migliorato l’efficienza delle operazioni militari, ma le sue potenziali implicazioni etiche e legali rimangono una questione centrale. Come ha osservato Dorsey, “come si fa a verificare un sistema che esegue 37 milioni di calcoli al secondo? Come diavolo si potrebbe anche solo risalire a tutto questo in qualche modo?” La sfida rimane nel bilanciare la velocità con cui vengono prese le decisioni con la necessità di una supervisione umana adeguata.

Subscribe
Notificami
guest
0 Commenti
più nuovi
più vecchi più votati
Inline Feedbacks
View all comments

Articoli correlati

Riduzione di 25 centesimi al litro per benzina e diesel, credito d’imposta per i settori...
La Regione Campania intensifica il controllo sui molluschi e promuove la vaccinazione per prevenire il...
Il costo dei carburanti sale ulteriormente, con il gasolio prossimo ai 2,1 euro al litro...