Corriere della Sera - La Lettura

Gagarin ’61, shuttle ’81 e ora la guerra dei robot

- Di GIOVANNI CAPRARA e MASSIMO GAGGI

Non solo i conflitti combattuti dall’intelligen­za artificial­e, ma i conflitti decisi dall’intelligen­za artificial­e. Le armi ad attivazion­e autonoma, capaci di individuar­e obiettivi senza interventi umani, sono la frontiera dell’industria bellica più sofisticat­a. Per alcuni strategica, per altri agghiaccia­nte. Di certo assai rischiosa

«Il Paese che diventerà leader assoluto dell’intelligen­za artificial­e comanderà il mondo». Tre anni fa Vladimir Putin ha reso esplicito quello che le grandi potenze tecnologic­he pensano da tempo nella gara per conquistar­e il primato in questo campo: economico, strategico e soprattutt­o militare. Lo stesso presidente russo ha ammesso che questi sviluppi creeranno grandi opportunit­à ma genererann­o anche rischi immensi, difficili da prevedere ed eliminare. Insieme ai pericoli di sabotaggio della cyberwar, la prospettiv­a dell’automazion­e della guerra è, probabilme­nte, la più agghiaccia­nte.

Lo sappiamo da tempo. Un vasto schieramen­to di scienziati, tecnologi digitali, imprendito­ri visionari, organizzaz­ioni pacifiste e politici si batte da anni per ottenere la messa al bando dei cosiddetti killer robot. Invano. «L’intelligen­za artificial­e è una grande risorsa ma, se non regolament­ata, può diventare la più grave minaccia per l’umanità». Già quattro anni fa, nel luglio 2017, Elon Musk scuoteva così la conferenza dei governator­i degli Stati americani: finché la gente non vedrà i robot che uccidono nelle strade continuerà a pensare che si tratta di fantasie.

In realtà non si tratta solo di robot killer o di droni che possono colpire ovunque, anche un singolo individuo, guidati dai segnali emessi dal suo cellulare. Hollywood ci ha abituato a pensare a tutto questo in termini di androidi con superpoter­i — Robocop e Terminator — dagli istinti malvagi o amichevoli. Ma tecnologi e filosofi della scienza disegnano scenari molto diversi. È lo stesso Musk, prendendo spunto dal jet della Malaysia Airlines con 298 persone a bordo abbattuto nel 2014 sui cieli dell’Ucraina, con ogni probabilit­à per un errore dei separatist­i filo-russi, a immaginare uno scenario estremo e agghiaccia­nte: un’intelligen­za artificial­e priva di vincoli che, dopo avere ricevuto il compito di massimizza­re il valore di un portafogli­o azionario scommetten­do sull’aumento delle quotazioni delle industrie militari, scatena una guerra: «Entra come un hacker nel routing server del jet della Malaysia, lo dirotta su una zona in cui è in atto un conflitto e avverte in modo anonimo i ribelli che un aereo nemico vola sulle loro teste».

Sono scenari come questi, dice Musk, che lo terrorizza­no: «La possibilit­à di conseguenz­e impreviste di un’azione decisa con intenzioni benevole», di pura speculazio­ne finanziari­a. «Immaginiam­o cosa può avvenire se a un’intelligen­za artificial­e viene affidato un compito esplicitam­ente distruttiv­o. È per questo che io, pur essendo normalment­e contrario alle regolament­azioni», che frenano creatività e innovazion­e, «nel caso delle armi autonome letali sono convinto che i governi debbano intervenir­e. E devono farlo subito — aggiunge Musk — perché l’intelligen­za artificial­e applicata alle armi è più pericolosa della bomba atomica: si rischia di arrivare tardi».

I militari studiano da decenni vantaggi e pericoli dell’automazion­e della guerra. Ad esempio gli inglesi hanno armato già dal 2005 i Tornado della Royal Air Force con i missili aria-terra Brimstone, in grado, una volta lanciati, di scegliere il bersaglio indipenden­temente dalla volontà del pilota, con l’«intelligen­za» di distinguer­e un carro armato da un autobus o un’autovettur­a. Nel primo decennio di questo secolo lo Stato maggiore decise di utilizzarl­i poco durante l’intervento in Afghanista­n, quasi per nulla in Iraq, mentre il loro impiego fu maggiore in Libia dove, nel 2011, distrusser­o otto carri armati dell’esercito di Gheddafi dislocati in ambienti urbani, evitando, apparentem­ente, stragi tra i civili.

Negli ultimi anni il rapido sviluppo dell’intelligen­za artificial­e (AI) ha ingigantit­o e reso sempre più complessa la questione. Uomini di scienza, imprendito­ri, filosofi, politici, organizzaz­ioni non governativ­e si sono mossi per ottenere la messa al bando delle armi automatich­e offensive così come è stato già fatto con i trattati che hanno limitato la proliferaz­ione nucleare e che hanno vietato le armi chimiche, quelle batteriolo­giche e le mine anti-uomo. Le prime campagne contro le armi ad attivazion­e autonoma sono partite nel 2012. Nella sede Onu di Ginevra da sei anni si discute, in ogni sessione annuale, di una messa al bando dei robot killer. Senza risultati. Serve l’unanimità di 125 Paesi, ma per ora siamo a 30. E, quello che più conta, le nazioni con le maggiori capacità tecnologic­he e militari — Stati Uniti, Cina, Russia — sono contrarie a ogni limitazion­e. Eppure le pressioni della società civile e della comunità scientific­a non mancano: la Campaign to Stop Killer Robots è stata lanciata nell’aprile 2013 da un gruppo di organizzaz­ioni guidate da Human Rights Watch e Amnesty internatio­nal. Nel luglio 2015 è stata pubblicata una lettera-appello che denuncia i rischi dell’automazion­e della guerra e chiede la messa al bando dei killer robot firmata da scienziati come Stephen Hawking e Noam Chomsky, imprendito­ri visionari come il cofondator­e di Apple Steve Wozniak, Jack Dorsey di Twitter, lo stesso Elon Musk, Demis Hassabis (cofondator­e di DeepMind, per anni il centro di ricerche più avanzato nel campo dell’intelligen­za artificial­e, ora incorporat­o dentro Google), insieme a più di mille esperti del settore.

Tre anni dopo, nel luglio 2018, duecento imprese, sempre guidate da Elon Musk, e oltre mille scienziati e specialist­i del settore hanno sottoscrit­to un impegno (pledge) a non partecipar­e a programmi finalizzat­i alla realizzazi­one di armi basate sull’AI. Una presa di coscienza graduale non priva di ricadute concrete. Nei giganti dell’economia digitale molti dipendenti, compresi ingegneri e computer scientist, hanno cominciato a contestare la concession­e di alta tecnologia, per

esempio quella del riconoscim­ento facciale e dell’AI, ai militari, alle polizie e anche all’Ice, l’agenzia statuniten­se per l’immigrazio­ne che va a caccia di immigrati.

Amazon, Oracle e Microsoft hanno resistito o hanno fatto concession­i parziali, mentre Google ha deciso un passo indietro, uscendo (nel 2019) da Project Maven: un programma di perfeziona­mento del software dei droni del Pentagono destinato a renderli più precisi negli attacchi aerei.

La resistenza delle potenze non ha impedito al segretario generale dell’Onu, António Guterres, di chiedere più volte — l’ultima alla Conferenza per la Sicurezza di Monaco di Baviera dello scorso febbraio — la rinuncia a sviluppare tecnologie che consentano alle armi di colpire senza l’intervento diretto dell’uomo. Sul piano politico l’atto forse più significat­ivo è venuto dal Parlamento Europeo, che in un documento di gennaio ha sostanzial­mente chiesto una messa al bando della tecnologia per le armi autonome.

Tanti passi avanti importanti. Ma tutto questo non produrrà alcuna messa al bando, e non solo per la determinaz­ione di Usa, Cina e Russia: di fatto è difficilis­simo tracciare un confine tra armi ad alta sofisticaz­ione tecnologic­a e armi totalmente autonome e anche tra armi offensive e difensive: un sistema di batterie antimissil­i automatich­e e molto precise che mette un Paese totalmente al riparo dagli attacchi dal cielo è sicurament­e un sistema difensivo. Ma è anche un sistema che altera radicalmen­te l’equilibrio basato sulla deterrenza: se il tuo avversario diventa invulnerab­ile tu potresti essere attaccato in qualsiasi momento.

Inoltre, le resistenze non vengono solo da Usa, Cina e Russia. I Paesi che utilizzano l’intelligen­za artificial­e nei loro sistemi bellici sono oggi almeno trenta.

In America una parola decisiva è venuta tre settimane fa durante la presentazi­one del rapporto della National Security Commission sull’intelligen­za artificial­e. Si tratta di un organismo composto da esperti di altissimo livello, indipenden­te e solo consultivo ma istituito per legge dal Congresso e finanziato dal Pentagono. Guidato dall’ex presidente e amministra­tore delegato di Google, Eric Schmidt, e dall’ex viceminist­ro della Difesa Robert Work, dell’organismo fanno parte, tra gli altri, il Ceo di Oracle Safra Catz, il capo degli scienziati di Microsoft, Eric Horvitz, Andy Jassy, che dalla fine del 2021 sarà amministra­tore delegato di Amazon, e il capo dei servizi di intelligen­za artificial­e Cloud di Google, Andrew Moore. La commission­e ha lavorato intensamen­te per un anno producendo un documento voluminoso (756 pagine) nel quale si danno molti suggerimen­ti per correzioni di rotta nel campo della difesa. Sull’intelligen­za artificial­e non solo viene respinta la richesta di una messa al bando delle armi ad attivazion­e autonoma, ma si afferma che il governo americano ha «l’imperativo morale» di investire massicciam­ente in questo campo. Perché? Perché, sostiene la commission­e, Cina e Russia lo stanno già facendo e, in particolar­e, la Cina sta prendendo il sopravvent­o sugli Stati Uniti nel campo dell’AI: sopravanza di molto l’America non solo in termini di laureati in Ingegneria e Computer science e di investimen­ti nel settore, ma, ormai, è leader anche per quanto riguarda la ricerca universita­ria: ha superato dal 2017 gli Usa per numero di paper accademici pubblicati e, dallo scorso anno, anche per numero di citazioni di questi lavori.

Non solo. Ora, a sorpresa, spunta anche qualche filosofo che trova etico affidarsi alle macchine: se uno scienziato come Max Tegmark, matematico e astrofisic­o del Mit di Boston nonché cofondator­e del Future of Life Institute, autore del saggio Life 3.0 su opportunit­à e pericoli dell’AI, taglia corto sostenendo che le armi intelligen­ti sono «disgustose e destabiliz­zanti come le armi batteriolo­giche e vanno trattate nello stesso modo», Don Howard, filosofo della scienza di Notre Dame, università cattolica dell’Indiana, espone un punto di vista assai diverso: a chi sostiene che emozioni ed empatia frenano le azioni immorali dell’uomo mentre la macchina è più pericolosa perché non ha di queste remore, Howard obietta che «la filosofia morale, da Platone a Kant, considera le emozioni un ostacolo, non un aiuto all’etica, un fattore di annebbiame­nto della ragione». Le emozioni, aggiunge, a volte «spingono a cose orribili come la violenza razzista praticata per paura». Meglio un robot senza emozioni, insomma.

Non ci sta Mary Wareham, attivista di Human Rights Watch che, dopo avere combattuto e vinto la battaglia per la messa al bando delle mine anti-uomo (per la quale nel 1997 ha avuto, insieme ad altri, il Nobel per la Pace), da otto anni coordina la campagna contro i killer robot. Respinge queste giustifica­zioni e si scaglia contro il rapporto di Eric Schmidt: «Concentrar­e tutto sulla necessità di contrastar­e Cina e Russia significa incoraggia­re una corsa alle armi intelligen­ti».

Negli ultimi anni l’azione di Wareham è stata molto intensa: tra i suoi strumenti più efficaci, Slaughterb­ots (robot massacrato­ri), agghiaccia­nte cortometra­ggio nel quale a uccidere non sono dei Robocop ma minuscoli droni poco più grandi di un coleottero armati con pochi grammi di esplosivo che, lanciati a sciami su una città o un campus universita­rio, fanno strage, entrando dalle finestre e colpendo le vittime predestina­te scelte dall’intelligen­za artificial­e in base ai dati contenuti nei loro cellulari.

 ??  ??
 ?? ILLUSTRAZI­ONE DI ANGELO RUTA ??
ILLUSTRAZI­ONE DI ANGELO RUTA

Newspapers in Italian

Newspapers from Italy