Origine e progresso dell’Intelligenza Artificiale, oggi tra quotidianità, emozioni umane e dubbi giuridici
Sebbene le sue radici affondino nella nascita della scienza moderna, datata intorno al 1600, e negli studi del matematico Charles Babbage (classe 1791), del padre dell’informatica Alan Turing, del neurofisiologo Warren Sturgis McCulloch e del matematico Walter Harry Pitts, quando parliamo di Intelligenza Artificiale l’immaginario collettivo tende a muoversi verso il futuro, più che verso il passato. Il cinema, in particolare, ha abituato noi tutti ad associare il termine a tempi futuri e immaginifici mondi, animati da robot ed entità virtuali in grado di assistere l’essere umano in tutto. O quasi.
Nel 1955, quando i matematici e informatici John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon coniarono il termine Intelligenza Artificiale per indicare informalmente un programma capace di imitare il problem solving umano, l’IA quello voleva essere: un modo per liberare l’umanità dal giogo della risoluzione. All’inizio del 2022 si può dire che lo scopo sia stato raggiunto. Le prove, del resto, sono intorno a noi. Software capaci di assisterci – e spesso decidere al posto nostro – in tutto, pratiche necessarie e ludiche, abitano il nostro mondo in maniera quasi invisibile. Basti pensare ai suggerimenti nella fruizione dei contenuti (Netflix e Spotify docent: man mano che guardiamo film e serie tv o ascoltiamo musica un algoritmo calcola i nostri indici di gradimento e ci suggerisce prodotti simili o che potrebbero rientrare nei nostri gusti), o agli innumerevoli assistenti alla clientela che sono in realtà dei “bot”, senza contare i sistemi anti-frode dei conti bancari che rilevano azioni lontane dalle abitudini del singolo correntista o più semplicemente i calendari dei nostri smartphone in grado di trovare ritagli di tempo nella gestione degli impegni.
Negli anni anche un altro obiettivo è stato portato a termine: far sì che le macchine, coadiuvate dalle forme artificiali di pensiero, potessero sostituire l’essere umano nelle attività più pericolose. Nel farlo, tuttavia, lo hanno sostituito anche in tutte quelle operazioni in cui le macchine sono riuscite a dimostrarsi più veloci e più efficienti. Applicata al mondo del lavoro, questa svolta ha causato un quesito che ormai da anni si ripete in modo quasi continuo: quale sarà il destino di molte figure professionali con l’avanzare sempre più repentino della tecnologia? Le opinioni degli esperti a riguardo sono tra loro lontane e spesso contraddittorie. È certo che la “fine del lavoro” prospettata da Jeremy Rifkin nel 1995 non si è verificata, a favore semmai di un’evoluzione del mondo occupazionale. Molti impieghi umani sono scomparsi, sostituiti da un corrispettivo tecnologico, ma altri ne sono nati. Nel rapporto con l’IA, infatti, l’essere umano sembrerebbe aver sempre avuto con sé una carta vincente: la sua stessa umanità. La capacità di provare emozioni, così come di captarle e interpretarle, di pensare “fuori dagli schemi”, in modo distante dal pattern preimpostato problema-soluzione, ha fatto sì che le macchine e le loro intelligenze stessero sempre un passo indietro rispetto a noi. Eppure questo quadro potrebbe presto mutare.
«Un giorno avranno dei segreti, un giorno avranno dei sogni» – diceva il dottor Alfred Lanning nella più che nota pellicola Io, robot, ispirata agli scritti di Isaac Asimov, uno dei padri del genere fantascientifico, anche autore delle Tre leggi della robotica. Quel giorno non è ancora arrivato ma potrebbe non essere più così lontano. Ne è un esempio Abel, il robot umanoide con le sembianze di un ragazzino di 12 anni, realizzato nel 2021 dal Centro di Ricerca E. Piaggio dell’Università di Pisa in collaborazione con la Biomimics di Londra. Abel sarebbe capace di “interagire, comportarsi e percepire ciò che lo circonda in modo analogo al nostro”, se non meglio. Percependo elementi fisiologici impercettibili (cambiamenti termici corporei, ritmo del battito del cuore, tono di voce), può “leggere” gli stati d’animo di chi ha di fronte e reagire di conseguenza, esprimendo lui stesso emozioni.
Prima di Abel, c’è stata Sophia, umanoide di genere femminile creata dalla hongkonghese Nanson Robotics in grado di muoversi, comportarsi e imparare come un essere umano. Attivata nel 2016, Sophia ha fatto molto parlare di sé lo scorso anno quando durante un’intervista (ebbene sì, è in grado di sostenere un’intervista, come ha dimostrato più volte) ha espresso il desiderio di avere una famiglia.
E ancora, c’è Sofia della italiana Neosperience: non ha la corporeità di Sophia o Abel ma ne mantiene l’empatia. Sofia è un assistente virtuale basato su una piattaforma Cloud firmata dalla società e sulla tecnologia di elaborazione del linguaggio naturale Gpt-3 di OpenAI.
Questi tre esempi, riduttivi nel mare magnum dell’IA, hanno un comune denominatore: tutti e tre sono stati progettati, creati e perfezionati per far fronte ad un’esigenza squisitamente umana. Sophia è “un compagno per gli esseri umani”, Sofia è come già detto un’assistente virtuale (ben oltre il livello delle più conosciute Siri, Cortana e Alexa) mentre Abel potrebbe essere sfruttato per comprendere il rapporto tra umani e macchine e in tutti quei casi in cui si riscontrano difficoltà nell’espressione delle emozioni. Man mano, tuttavia, che l’uomo persegue l’obiettivo di ricreare non solo un’intelligenza ma anche una coscienza artificiale, in grado di provare (a suo modo) emozioni e sentimenti, dolore incluso, la domanda sorge spontanea: quando verrà superato il confine in cui sarà necessario cominciare a parlare di diritti delle macchine?
Del rispetto dei diritti umani nell’uso dell’intelligenza artificiale, infatti, si parla già ampiamente e da diverso tempo. Solo per citare un caso recente, nel 2021 l’Unesco ha adottato un testo, ratificato dai 193 Stati membri dell’Organizzazione delle Nazioni Unite per l’Educazione, la Scienza e la Cultura, in cui è stata messa in evidenza la necessità di garantire “la trasparenza e l’intelligibilità del funzionamento degli algoritmi” nonché “rispetto, protezione e promozione dei diritti dell’Uomo, diversità ed inclusione”. Il timore, neanche troppo infondato, è che ci si concentri troppo sugli aspetti positivi dell’IA perdendo di vista i potenziali rischi sulla stabilità sociale. A tale paura l’Unesco risponde pensando ad “un’IA centrata sull’uomo”. Una visione, dunque, antropocentrica con cui però la giurisprudenza si scontra nel tentativo di delineare spazi e confini di un diritto che coinvolga le macchine.
Gli ambiti in cui tale materia sarebbe chiamata ad agire sono innumerevoli. Si parla, tra gli altri, di diritto civile dei robot, come richiesto nell’ormai lontano 2017 dal Parlamento europeo insieme all’elaborazione di uno status giuridico specifico per le macchine, ma anche di proprietà intellettuale, di responsabilità e di tutela di queste forme di intelligenza non umane talvolta in grado di provare dolore, laddove, come emerso, proprio questo venga considerato la linea di demarcazione per indicare un’entità da tutelare (in tal senso c’è chi paragona il diritto delle macchine al diritto degli animali).
La soluzione più ovvia e immediata a queste problematiche sembrerebbe essere una sola: ricondurre l’intelligenza artificiale, i suoi prodotti, le sue azioni e decisioni, positive o negative che siano, all’essere umano, rendendo tuttavia vano non solo lo scopo per cui è nata – decidere e agire al nostro posto – ma anche il suo continuo progredire. Se l’utilità venisse meno, allora, resterebbe infine solo il diletto e la possibilità di dire: “ho fatto sognare un robot!”.