Dubbi algoritmici
Il problema, forse, è che il nostro immaginario collettivo è rimasto a ‘2001: Odissea nello spazio’. Cinquant’anni dopo l’arrivo nelle sale del capolavoro di Stanley Kubrick ci siamo rassegnati a non avere basi lunari, ma la nostra idea di intelligenza artificiale è ancora quella di HAL 9000, il computer amabile conversatore che alla fine – per carità a causa di un errore umano, come ben sa chi ha letto il romanzo di Arthur C. Clarke – prova a eliminare tutto l’equipaggio della Discovery. A seconda dei gusti cinematografici potremmo citare Skynet della saga di Terminator o le Macchine di quella di Matrix: il modello, alla fine, è sempre quello, che ritroviamo nelle odierne paure per le auto a guida autonoma che scelgono di investire i pedoni e che è molto diverso – per opportunità e rischi – dalla realtà illustrata da Luca Gambardella nell’incontro organizzato, nei giorni scorsi, dalla Fondazione Möbius alla Biblioteca cantonale di Lugano. Una preziosa occasione per scoprire l’attività dell’Istituto dalle Molle per l’intelligenza artificiale del quale Gambardella è direttore, ma soprattutto per avere un’immagine più realistica del “futuro digitale prossimo venturo”, per riprendere il titolo di questa serie di appuntamenti. Un futuro nel quale, riassumendo in poche parole un discorso molto più articolato, le macchine non combatteranno l’uomo e neppure lo sostituiranno, ma vivranno e lavoreranno con noi, non più solo come strumenti passivi ma anche come compagni e colleghi con i quali interagire in maniera naturale e immediata. Perché l’intelligenza artificiale, per riprendere le parole di Gambardella, significa avere «macchine in grado di risolvere problemi ispirandosi a come le persone risolvono problemi». Cioè imparando: invece di programmare un computer per elaborare dati – e ad esempio distinguere immagini di gatti da immagini di cani –, gli si forniscono direttamente i dati e si lascia che “impari da solo” a elaborarli – a distinguere cani e gatti. Questo – a grandi linee: per chi volesse il video completo dell’intervento è sul sito
– lo scenario. E da qui si può partire per porsi le domande giuste e pertinenti che, purtroppo, all’incontro in biblioteca non c’è stato tempo di approfondire, anche per la mancanza di un interlocutore di Gambardella. Un punto molto interessante è stato l’ammissione che non sappiamo che cosa ci sia dentro queste intelligenze artificiali che apprendono da sole. Il che può essere un problema se questa intelligenza artificiale ci ha appena negato un prestito o stabilito che non siamo adatti per un determinato lavoro, perché sono casi in cui vogliamo e abbiamo il diritto di sapere perché è stata presa quella decisione. Decisione magari frutto di pregiudizi, perché alla fine i computer imparano basandosi sui dati che qualcuno fornisce loro: negli anni Ottanta la scuola di medicina del St George’s Hospital di Londra è stata condannata per discriminazione razziale e sessuale. Perché il software, apprendendo dalle precedenti decisioni della scuola, tendeva a escludere donne e stranieri.