ai act legge europea intelligenza artificiale

Con l’ambizione normativa che la contraddistingue, l’UE approva la prima legge al mondo sull’Intelligenza Artificiale. L’esperta ci spiega luci e ombre delle nuove regole

Immaginate se lo Stato decidesse di attribuire benefici economici, abitativi, formativi, sociali sulla base della puntualità con cui il cittadino paga le tasse, sulla sua propensione al volontariato o ancora sui debiti accumulati. Il tutto, secondo valutazioni di merito elaborate da un sistema di Intelligenza Artificiale. È quello che, più o meno, accade in qualche distretto della Cina, dove il social scoring è incoraggiato dalle autorità, anche se molto meno pervasivo di quanto Black Mirror non ci abbia fatto immaginare. Se vivete in Europa però non dovete preoccuparvi troppo, perché l’AI Act europeo da poco in vigore vieta esplicitamente questa e altre distorsioni dell’Intelligenza Artificiale.

L’AI Act è la prima legge al mondo sull’Intelligenza Artificiale, spinta da un’ambizione magistrale: fornire una base legislativa che resti valida e adeguata anche mentre l’oggetto è in costante evoluzione. A tale scopo non si regola la tecnologia in sé, ma si cerca di anticipare i rischi della sua applicazione definendo un quadro entro cui lo sviluppo tecnologico non progredisca a discapito di valori e diritti umani. È il cosiddetto “costituzionalismo digitale”, croce e delizia del Vecchio Continente che se da un lato fa scuola, dall’altro sembra correre “in direzione ostinata e contraria” rispetto ai mercati esteri. «L’UE è da sempre fiera della propria capacità di rincorrere le tecnologie con normative apposite» ci spiega Francesca Palmiotto, assistant professor alla IE University di Madrid, che abbiamo intervistato per comprendere meglio il travagliato iter maieutico ma soprattutto la portata concreta dell’Act.

Francesca Palmiotto, assistant professor alla IE University di Madrid. Per gentile concessione

La legge è il frutto della necessaria mediazione politica tra i tre principali attori europei (Commissione, Parlamento e Consiglio UE), che in alcuni casi hanno trascinato il testo lontano dai propositi iniziali, in altri sono riusciti a mantenere i pilastri originariamente previsti nella prima bozza. «Partiamo dal presupposto che l’Unione poggia su una solida base giuridica in termini di protezione dei diritti fondamentali dell’uomo. In tal senso l’AI Act non aggiunge nulla di nuovo, ma fornisce concretezza e chiarezza per le imprese e i cittadini che si apprestano a integrare l’AI nelle loro mansioni quotidiane e non», ci spiega Palmiotto. La Commissione “ha sfruttato la leva del regolamento del mercato interno, di sua competenza, per infondere o meglio trasbordare nel sistema il rispetto dei diritti fondamentali, a partire dalla protezione dei dati”. Un’ambizione necessaria, perché “l’AI è un prodotto, ma non è una lavatrice!”: le conseguenze di una falla o di un guasto vanno ben oltre una riparazione in garanzia, perché l’AI è “capace di permeare anche le realtà sociali e soprattutto decisionali”. Per questo motivo l’approccio della legge è basato sul rischio, e categorizza quattro fasce di pericolosità dell’AI che può comportare insidie minime, limitate, elevate o inaccettabili.

L’app cinese DeepSeek e Chat GPT di OpenAI. Il giorno dell’uscita sul mercato dell’Intelligenza Artificiale cinese, il produttore di chip Nvidia ha perso almeno 600 miliardi di dollari, con un calo delle azioni del 17%, rendendosi protagonista del più grande crollo in borsa della storia. DeepSeek, oggi vietata in Europa, può funzionare con chip meno avanzati rispetto alle colleghe e sarebbe molto più economica in termini di produzione e consumi (Mateusz Slodkowski/SOPA Images via ZUMA Press Wire)

Quali sono le categorie di diritti più a rischio? «Oltre alla corposa giurisprudenza già raccolta sulle violazioni dei diritti fondamentali, ci sono anche i rischi connessi a processi democratici e stato di diritto (pensiamo alle fake news) e all’ambiente» risponde Palmiotto. A tal proposito la letteratura cita spesso il cosiddetto “paradosso di Jevons”, per cui per sviluppare un sistema efficiente l’AI richiede talmente tante risorse materiali che, nel lungo periodo, è ancora impossibile parlare di sostenibilità. Quanto ai “rischi sistemici legati alla perdita di controllo, sono“ancora un po’ fantascientifici rispetto alla realtà attuale”. La fatidica domanda: è stato fatto abbastanza? «Partiamo col dire che il legislatore ha operato scelte davvero coraggiose arrivando a imporre divieti netti, cosa affatto scontata nel diritto. Dopodiché, sono state mosse critiche tanto da chi ha a cuore i diritti fondamentali, che avrebbe voluto maglie più strette, quanto da chi ragiona con le imprese, che accusa la legge di strozzare l’innovazione». La verità galleggia nel mezzo. «Per me, la cosa più preoccupante sono i sistemi di emotional recognition, vietati solo in due accezioni, nell’ambito lavorativo ed educativo. Ma tutti gli altri campi? Il riconoscimento artificiale delle emozioni è totalmente privo di validità scientifica, come ammette lo stesso testo. Come possiamo pensare di impiegarlo nell’immigrazione, nella sicurezza, nella giustizia penale?». Perché questa “svista”? «Si tratta, evidentemente, di una concessione fatta agli Stati membri che lottano per integrare l’AI nel loro law enforcement, favorendo gli interessi securitari e di prevenzione illeciti, nonostante i limiti oggettivi dell’impresa. È un esempio di quello che in letteratura chiamiamo “AI to perform impossible tasks”. Possiamo affidare agli algoritmi il compito di determinare se una persona sia un delinquente o meno sulla base della sua fisiognomica?» Automatizzando teorie smentite un secolo fa, come i gamberi la legge arretra verso una lombrosiana memoria che credevamo estinta. Pare, oltretutto, che lo stesso Lombroso prima di morire predispose un’autopsia sul suo stesso cranio secondo cui l’antropologo, in base ai suoi stessi studi, avrebbe sofferto di cretinismo per tutta la vita.

Potrebbe interessarti anche la lettura di Dentro il buio: il racconto del carcere di Evin

Vale qui la pena di ricordare che i regolamenti europei sono direttamente applicabili, ma non impediscono l’iniziativa dei singoli Stati che possono integrare le restrizioni della normativa. Sono poi state molto criticate le aperture all’identificazione biometrica attraverso il riconoscimento facciale. «Quella in real time è stata proibita in casi talmente limitati che finisce per essere praticamente sdoganata ad alcune condizioni – prosegue Palmiotto. – I casi di utilizzo infatti, che comprendono minacce alla sicurezza nazionale e terrorismo, sono eccezionali ma estremamente discrezionali».

“L’intelligenza artificiale sta già cambiando la nostra vita quotidiana. E questo è solo l’inizio. Usata saggiamente e ampiamente, l’IA promette enormi benefici alla nostra economia e alla nostra società”: così la Presidente della Commissione UE Ursula von der Leyen sull’accordo sull’intelligenza artificiale

Altre critiche riguardano la possibilità di aggiornare gli elenchi delle tipologie di AI rischiose. Anche in questo caso, è il risultato del compromesso tra Parlamento e Commissione: temi come questo richiedono una netta legittimazione popolare, e l’Assemblea non ha voluto cedere troppo margine all’Esecutivo. Non dimentichiamoci infatti che l’Act produce già effetti in aree emblematiche della sovranità nazionale (PA, educazione, giustizia), tanto che all’articolo 2 si dispensano esplicitamente i sistemi in uso a militari e agenzie di intelligence, così da riportare le sfere di difesa e sicurezza sotto la legittima competenza statale. Quanto alle imprese, la critica all’UE è sempre la medesima: «quick to regulate, slow to innovate». Si stima che le PMI potrebbero dover spendere dall’1 al 2,7% delle loro entrate per adempiere agli obblighi burocratici connessi all’utilizzo dell’AI.

Dai un’occhiata anche a La scelta di Gisèle Pelicot

È chiaro come l’Act, così come gli altri pacchetti normativi europei che vincolano le Big Tech, non costituisce un vantaggio commerciale per l’Europa che si appresta a un negoziato complicatissimo con la Silicon Valley, sulla scia della guerra commerciale minacciata da Trump. Nel suo primo giorno di insediamento, il tycoon ha peraltro cancellato un decreto di Biden che si richiamava ai principi della nostra legge, chiarendo subito la sua posizione. Occorre però ricordare che “l’AI Act assicura certezza giuridica alle imprese, chiarendo cosa possano e non possano fare, certo implicando dei costi di compliance” ma per un bene collettivo pregresso all’Act, quale il nostro sistema di diritti e valori. «E se al mercato europeo saranno precluse tutte le realtà che non applicano tale legge, significherà solo che i nostri dati saranno più al sicuro».

Ursula Von der Leyen ha promesso «il più grande partenariato pubblico-privato al mondo per lo sviluppo di un’AI affidabile», capace di “migliorare la nostra assistenza sanitaria, stimolare la ricerca e l’innovazione e aumentare la nostra competitività“. Scritta la legge, è ora di mettere mano al portafoglio.

ai act europeo
(ANSA/Andre M. Chang/ZUMA Press Wire)

Le regole della nostra AI

Semaforo verde per l’AI impiegata, ad esempio, nei videogiochi o nei filtri anti-spam, giudicata talmente sicura da non richiedere interventi. Portano con sé un rischio “alto” le tecnologie dei deepfake o delle chatbot, così come la stessa ChatGPT. A questi algoritmi si richiede soprattutto trasparenza (l’utente non dovrebbe nutrire il minimo dubbio sull’origine di un contenuto). La messa in commercio dell’AI di terza fascia (rischio “elevato”) espone invece a danni sistemici, e richiede rigorosi controlli preventivi. Pensiamo alle conseguenze di un malfunzionamento o frode su mobilità automatizzata, sistemi per il reclutamento di personale, contesti educativi o ancora sanità. Infine, sono banditi i sistemi a rischio “inaccettabile”, dal sopraccitato scoring sociale a quelli capaci di manipolare il comportamento umano eludendone la volontà – è il drammatico caso di due persone, di cui un minore, che hanno commesso suicidio su incitamento di un chatbot.

FOTO: SHUTTERSTOCK

CREDITI FOTO DI COPERTINA: Zhao Dingzhe/Xinhua via ZUMA Press

Prosegui la lettura: dai un’occhiata a Effetto Codice