Corriere della Sera - La Lettura
Gagarin ’61, shuttle ’81 e ora la guerra dei robot
Non solo i conflitti combattuti dall’intelligenza artificiale, ma i conflitti decisi dall’intelligenza artificiale. Le armi ad attivazione autonoma, capaci di individuare obiettivi senza interventi umani, sono la frontiera dell’industria bellica più sofisticata. Per alcuni strategica, per altri agghiacciante. Di certo assai rischiosa
«Il Paese che diventerà leader assoluto dell’intelligenza artificiale comanderà il mondo». Tre anni fa Vladimir Putin ha reso esplicito quello che le grandi potenze tecnologiche pensano da tempo nella gara per conquistare il primato in questo campo: economico, strategico e soprattutto militare. Lo stesso presidente russo ha ammesso che questi sviluppi creeranno grandi opportunità ma genereranno anche rischi immensi, difficili da prevedere ed eliminare. Insieme ai pericoli di sabotaggio della cyberwar, la prospettiva dell’automazione della guerra è, probabilmente, la più agghiacciante.
Lo sappiamo da tempo. Un vasto schieramento di scienziati, tecnologi digitali, imprenditori visionari, organizzazioni pacifiste e politici si batte da anni per ottenere la messa al bando dei cosiddetti killer robot. Invano. «L’intelligenza artificiale è una grande risorsa ma, se non regolamentata, può diventare la più grave minaccia per l’umanità». Già quattro anni fa, nel luglio 2017, Elon Musk scuoteva così la conferenza dei governatori degli Stati americani: finché la gente non vedrà i robot che uccidono nelle strade continuerà a pensare che si tratta di fantasie.
In realtà non si tratta solo di robot killer o di droni che possono colpire ovunque, anche un singolo individuo, guidati dai segnali emessi dal suo cellulare. Hollywood ci ha abituato a pensare a tutto questo in termini di androidi con superpoteri — Robocop e Terminator — dagli istinti malvagi o amichevoli. Ma tecnologi e filosofi della scienza disegnano scenari molto diversi. È lo stesso Musk, prendendo spunto dal jet della Malaysia Airlines con 298 persone a bordo abbattuto nel 2014 sui cieli dell’Ucraina, con ogni probabilità per un errore dei separatisti filo-russi, a immaginare uno scenario estremo e agghiacciante: un’intelligenza artificiale priva di vincoli che, dopo avere ricevuto il compito di massimizzare il valore di un portafoglio azionario scommettendo sull’aumento delle quotazioni delle industrie militari, scatena una guerra: «Entra come un hacker nel routing server del jet della Malaysia, lo dirotta su una zona in cui è in atto un conflitto e avverte in modo anonimo i ribelli che un aereo nemico vola sulle loro teste».
Sono scenari come questi, dice Musk, che lo terrorizzano: «La possibilità di conseguenze impreviste di un’azione decisa con intenzioni benevole», di pura speculazione finanziaria. «Immaginiamo cosa può avvenire se a un’intelligenza artificiale viene affidato un compito esplicitamente distruttivo. È per questo che io, pur essendo normalmente contrario alle regolamentazioni», che frenano creatività e innovazione, «nel caso delle armi autonome letali sono convinto che i governi debbano intervenire. E devono farlo subito — aggiunge Musk — perché l’intelligenza artificiale applicata alle armi è più pericolosa della bomba atomica: si rischia di arrivare tardi».
I militari studiano da decenni vantaggi e pericoli dell’automazione della guerra. Ad esempio gli inglesi hanno armato già dal 2005 i Tornado della Royal Air Force con i missili aria-terra Brimstone, in grado, una volta lanciati, di scegliere il bersaglio indipendentemente dalla volontà del pilota, con l’«intelligenza» di distinguere un carro armato da un autobus o un’autovettura. Nel primo decennio di questo secolo lo Stato maggiore decise di utilizzarli poco durante l’intervento in Afghanistan, quasi per nulla in Iraq, mentre il loro impiego fu maggiore in Libia dove, nel 2011, distrussero otto carri armati dell’esercito di Gheddafi dislocati in ambienti urbani, evitando, apparentemente, stragi tra i civili.
Negli ultimi anni il rapido sviluppo dell’intelligenza artificiale (AI) ha ingigantito e reso sempre più complessa la questione. Uomini di scienza, imprenditori, filosofi, politici, organizzazioni non governative si sono mossi per ottenere la messa al bando delle armi automatiche offensive così come è stato già fatto con i trattati che hanno limitato la proliferazione nucleare e che hanno vietato le armi chimiche, quelle batteriologiche e le mine anti-uomo. Le prime campagne contro le armi ad attivazione autonoma sono partite nel 2012. Nella sede Onu di Ginevra da sei anni si discute, in ogni sessione annuale, di una messa al bando dei robot killer. Senza risultati. Serve l’unanimità di 125 Paesi, ma per ora siamo a 30. E, quello che più conta, le nazioni con le maggiori capacità tecnologiche e militari — Stati Uniti, Cina, Russia — sono contrarie a ogni limitazione. Eppure le pressioni della società civile e della comunità scientifica non mancano: la Campaign to Stop Killer Robots è stata lanciata nell’aprile 2013 da un gruppo di organizzazioni guidate da Human Rights Watch e Amnesty international. Nel luglio 2015 è stata pubblicata una lettera-appello che denuncia i rischi dell’automazione della guerra e chiede la messa al bando dei killer robot firmata da scienziati come Stephen Hawking e Noam Chomsky, imprenditori visionari come il cofondatore di Apple Steve Wozniak, Jack Dorsey di Twitter, lo stesso Elon Musk, Demis Hassabis (cofondatore di DeepMind, per anni il centro di ricerche più avanzato nel campo dell’intelligenza artificiale, ora incorporato dentro Google), insieme a più di mille esperti del settore.
Tre anni dopo, nel luglio 2018, duecento imprese, sempre guidate da Elon Musk, e oltre mille scienziati e specialisti del settore hanno sottoscritto un impegno (pledge) a non partecipare a programmi finalizzati alla realizzazione di armi basate sull’AI. Una presa di coscienza graduale non priva di ricadute concrete. Nei giganti dell’economia digitale molti dipendenti, compresi ingegneri e computer scientist, hanno cominciato a contestare la concessione di alta tecnologia, per
esempio quella del riconoscimento facciale e dell’AI, ai militari, alle polizie e anche all’Ice, l’agenzia statunitense per l’immigrazione che va a caccia di immigrati.
Amazon, Oracle e Microsoft hanno resistito o hanno fatto concessioni parziali, mentre Google ha deciso un passo indietro, uscendo (nel 2019) da Project Maven: un programma di perfezionamento del software dei droni del Pentagono destinato a renderli più precisi negli attacchi aerei.
La resistenza delle potenze non ha impedito al segretario generale dell’Onu, António Guterres, di chiedere più volte — l’ultima alla Conferenza per la Sicurezza di Monaco di Baviera dello scorso febbraio — la rinuncia a sviluppare tecnologie che consentano alle armi di colpire senza l’intervento diretto dell’uomo. Sul piano politico l’atto forse più significativo è venuto dal Parlamento Europeo, che in un documento di gennaio ha sostanzialmente chiesto una messa al bando della tecnologia per le armi autonome.
Tanti passi avanti importanti. Ma tutto questo non produrrà alcuna messa al bando, e non solo per la determinazione di Usa, Cina e Russia: di fatto è difficilissimo tracciare un confine tra armi ad alta sofisticazione tecnologica e armi totalmente autonome e anche tra armi offensive e difensive: un sistema di batterie antimissili automatiche e molto precise che mette un Paese totalmente al riparo dagli attacchi dal cielo è sicuramente un sistema difensivo. Ma è anche un sistema che altera radicalmente l’equilibrio basato sulla deterrenza: se il tuo avversario diventa invulnerabile tu potresti essere attaccato in qualsiasi momento.
Inoltre, le resistenze non vengono solo da Usa, Cina e Russia. I Paesi che utilizzano l’intelligenza artificiale nei loro sistemi bellici sono oggi almeno trenta.
In America una parola decisiva è venuta tre settimane fa durante la presentazione del rapporto della National Security Commission sull’intelligenza artificiale. Si tratta di un organismo composto da esperti di altissimo livello, indipendente e solo consultivo ma istituito per legge dal Congresso e finanziato dal Pentagono. Guidato dall’ex presidente e amministratore delegato di Google, Eric Schmidt, e dall’ex viceministro della Difesa Robert Work, dell’organismo fanno parte, tra gli altri, il Ceo di Oracle Safra Catz, il capo degli scienziati di Microsoft, Eric Horvitz, Andy Jassy, che dalla fine del 2021 sarà amministratore delegato di Amazon, e il capo dei servizi di intelligenza artificiale Cloud di Google, Andrew Moore. La commissione ha lavorato intensamente per un anno producendo un documento voluminoso (756 pagine) nel quale si danno molti suggerimenti per correzioni di rotta nel campo della difesa. Sull’intelligenza artificiale non solo viene respinta la richesta di una messa al bando delle armi ad attivazione autonoma, ma si afferma che il governo americano ha «l’imperativo morale» di investire massicciamente in questo campo. Perché? Perché, sostiene la commissione, Cina e Russia lo stanno già facendo e, in particolare, la Cina sta prendendo il sopravvento sugli Stati Uniti nel campo dell’AI: sopravanza di molto l’America non solo in termini di laureati in Ingegneria e Computer science e di investimenti nel settore, ma, ormai, è leader anche per quanto riguarda la ricerca universitaria: ha superato dal 2017 gli Usa per numero di paper accademici pubblicati e, dallo scorso anno, anche per numero di citazioni di questi lavori.
Non solo. Ora, a sorpresa, spunta anche qualche filosofo che trova etico affidarsi alle macchine: se uno scienziato come Max Tegmark, matematico e astrofisico del Mit di Boston nonché cofondatore del Future of Life Institute, autore del saggio Life 3.0 su opportunità e pericoli dell’AI, taglia corto sostenendo che le armi intelligenti sono «disgustose e destabilizzanti come le armi batteriologiche e vanno trattate nello stesso modo», Don Howard, filosofo della scienza di Notre Dame, università cattolica dell’Indiana, espone un punto di vista assai diverso: a chi sostiene che emozioni ed empatia frenano le azioni immorali dell’uomo mentre la macchina è più pericolosa perché non ha di queste remore, Howard obietta che «la filosofia morale, da Platone a Kant, considera le emozioni un ostacolo, non un aiuto all’etica, un fattore di annebbiamento della ragione». Le emozioni, aggiunge, a volte «spingono a cose orribili come la violenza razzista praticata per paura». Meglio un robot senza emozioni, insomma.
Non ci sta Mary Wareham, attivista di Human Rights Watch che, dopo avere combattuto e vinto la battaglia per la messa al bando delle mine anti-uomo (per la quale nel 1997 ha avuto, insieme ad altri, il Nobel per la Pace), da otto anni coordina la campagna contro i killer robot. Respinge queste giustificazioni e si scaglia contro il rapporto di Eric Schmidt: «Concentrare tutto sulla necessità di contrastare Cina e Russia significa incoraggiare una corsa alle armi intelligenti».
Negli ultimi anni l’azione di Wareham è stata molto intensa: tra i suoi strumenti più efficaci, Slaughterbots (robot massacratori), agghiacciante cortometraggio nel quale a uccidere non sono dei Robocop ma minuscoli droni poco più grandi di un coleottero armati con pochi grammi di esplosivo che, lanciati a sciami su una città o un campus universitario, fanno strage, entrando dalle finestre e colpendo le vittime predestinate scelte dall’intelligenza artificiale in base ai dati contenuti nei loro cellulari.