Il Parlamento e il Consiglio Ue hanno trovato un primo accordo per un obiettivo ambizioso ma impellente

La prima legge al mondo a tentare di regolamentare l’intelligenza artificiale e le sue applicazioni sarà europea. L’Europarlamento e il Consiglio Ue hanno raggiunto l’accordo sui contenuti principali del testo, che ora attende di vedere la luce nella sua forma definitiva prima di essere messo ai voti.

In cosa consiste l’AI Act dell’Unione Europea? Per comprenderlo bisogna innanzitutto tenere conto della sua genesi. Da un lato un difficile accordo politico, nato dalle ceneri di una proposta della Commissione risalente al 2021. Dall’altro ci sono i tempi della ricerca tecnologica e dell’innovazione, ormai rapidissimi, che hanno spinto i negoziati ad aggiornarsi costantemente per prevedere tutte le sfide del caso.

L’Act ha l’ambizioso obiettivo di comprendere, immaginare e regolare con giudizio le diverse situazioni giuridiche connesse all’applicazione dei sistemi di intelligenza artificiali. Fra queste rientra il riconoscimento facciale da parte delle forze dell’ordine, ma anche gli impieghi pratici delle aziende private, dalle assunzioni all’implementazione della tecnologia nell’algoritmo per le auto a guida autonoma. La legge tocca anche i grande tema della disinformazione online.

La prima grande distinzione operata dalla legge suddivide le attuali tecnologie in sistemi di AI ad alto impatto e sistemi di AI “standard”. Nel primo caso (ad oggi solo GPT-4 di OpenAI ne rispecchia i parametri) le regole sulla trasparenza e sulla condivisione della documentazione tecnica sono più severe e si applicano prima della loro messa in commercio. Negli altri casi la legge interviene solo dopo la diffusione nel mercato dei prodotti di AI.

Su un piatto della bilancia pesa dunque l’apertura ai vastissimi impieghi dell’AI, a partire dall’uso nella sicurezza pubblica. Sull’altro pesa, e non poco, la tutela del diritto alla privacy.

In merito al riconoscimento facciale applicato ai servizi di telesorveglianza, l’AI Act lo ha sostanzialmente vietato. Fanno eccezione tre casi: la minaccia evidente di un attacco terroristico, il riconoscimento e la ricerca di vittime e, più in generale, le indagini per reati gravi quali omicidi, sequestri di persona e violenza sessuale.

Il legislatore ha voluto esplicitamente vietare lo sviluppo di tecnologie capaci di manipolare i comportamenti, anche in modo subliminale, o di causare danni psicologici o fisici.

A questo scopo, la legge vieta severamente l’impiego di parametri sociali, dai comportamenti alle idee politiche alla religione, fino all’orientamento sessuale: si tratta di dati sensibili che non saranno tracciabili nei sistemi di riconoscimento facciale.

di: Marianna MANCINI

FOTO: ANSA/JESSICA PASQUALON