MUSICA INTELLIGENZA ARTIFICIALE

Tra l’approvazione dell’ELVIS Act in Tennessee e quella dell’AI Act nell’Unione europea, sono diversi i tentativi di tutelare i titolari dei diritti d’autore, ma il cammino è ancora lungo

Frank Sinatra che canta Smells Like Teen Spirit dei Nirvana o Careless Whisper di George Michael, Gerry Scotti che interpreta Cenere di Lazza o Never Gonna Give You Up di Rick Astley. Non è un sogno, ma una solida realtà, possibile grazie all’intelligenza artificiale. È da diverso tempo che si discute del rapporto tra IA e musica, diritto d’autore e nuove possibilità della tecnologia, su quali siano i confini e le modalità adeguate per garantirne un impiego etico e sicuro.

Nei giorni scorsi in Tennessee è stato approvato l’ELVIS Act con l’intento di tutelare musicisti, cantanti, compositori dai deepfake, ovvero video, foto, audio creati attraverso software di intelligenza artificiale che, partendo da immagini reali ricreano fedelmente il volto o la voce di una persona. Il nome della norma è un acronimo che sta per Ensuring Likeness Voice and Image Security ma ha effettivamente a che fare con il celebre cantante statunitense.Il testo, che entrerà in vigore a luglio nello Stato americano, è, in realtà, l’aggiornamento di una legge statale relativa alla tutela del nome, dell’immagine e della somiglianza degli artisti, ma che ora vieterà anche la clonazione della voce tramite AI. Cosa c’entra Elvis Presley? La nuova norma, firmata dal governatore del Tennessee Bill Lee, rinnova il Personal Right Protection Act (PRPA) del 1984. Dopo la morte di Presley nel 1977, molti chiesero che l’immagine del musicista diventasse di dominio pubblico e questo portò a diverse battaglie legali. Alla fine venne approvata una legge secondo la quale i “diritti soggettivi costituiscono diritti patrimoniali e sono liberamente cedibili anche in licenza, e non si estinguono con la morte dell’individuo”. All’epoca i diritti collegati all’immagine comprendevano anche il nome e la somiglianza fisica, macon questo aggiornamento è stata aggiunta la voce, che non potrà essere utilizzata senza autorizzazione.

«Sebbene la legge preesistente proteggesse nome, immagine e somiglianza –ha dichiarato Lee non affrontava in modo specifico nuovi modelli e servizi personalizzati di clonazione generativa dell’intelligenza artificiale che consentono l’impersonificazione umana e di realizzare opere false non autorizzate in base all’immagine e alla voce di altri».

Il dibattito continua. Il mondo dell’arte e dello spettacolo già da tempo sottolinea i rischi dell’utilizzo dell’intelligenza artificiale senza regolamentazione, basti pensare allo sciopero degli sceneggiatori di Hollywood, conclusosi dopo 148 giorni. Nell’accordo firmato dagli sceneggiatori e sceneggiatrici della Writers Guild of America (WGA) con gli Studios l’uso dell’intelligenza artificiale viene limitato ma non vietato. Il testo stabilisce che l’IA non può essere utilizzata per scrivere o riscrivere materiale letterario e che i contenuti con essa generati non saranno considerati parte dell’accordo (e quindi non potranno essere usati per indebolire i crediti e i diritti degli autori). In base all’intesa, gli sceneggiatori possono decidere di impiegare l’intelligenza artificiale (ad esempio ChatGPT) ma solo se la società per cui stanno lavorando è d’accordo e se ha fornito le policy in materia; al contrario, la società non può imporre l’uso dell’IA. Un punto riguarda la tutela del diritto d’autore: è proibito, infatti, usare il materiale degli autori e delle autrici per addestrare l’AI.

Poco dopo, il 31 ottobre, il presidente degli Stati Uniti Joe Biden ha firmato l’Executive Order On the Safe, Secure and Trustworthy Development ad Use of Artificial Intelligence, la prima iniziativa per regolare l’A negli States. L’ordine esecutivo è solo parzialmente vincolante – non è, infatti, una legge – e ha come obiettivo quello di fornire linee guida sull’uso sicuro delle IA generative (che apprendono da dati esistenti per generarne di nuovi). Alla base vi è l’incontro avvenuto nell’estate 2024 tra l’inquilino della Casa Bianca e 7 Big Tech: Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI. Nel testo si legge che “i più potenti sistemi di intelligenza artificiale” dovranno condividere con il governo statunitense “i test relativi alla sicurezza della tecnologia e “altre informazioni cruciali. Con la locuzione “sistemi potenti” si fa riferimento a quei sistemi che possono rappresentare “un serio rischio per la sicurezza nazionale, per la sicurezza economica nazionale e per il sistema sanitario nazionale”.  

Il Tennessee è il primo Stato americano ad approvare una legge nell’ambito della musica e dell’intelligenza artificiale. La norma ha raccolto il sostegno bipartisan dei legislatori, ma anche l’appoggio di diversi artisti e della Recording Academy – l’organizzazione composta da musicisti, produttori e altre professionalità del mondo musicale che conferisce i Grammy Awards – che ha definito la legge “un faro di speranza” per gli artisti.

Recentemente 250 artisti statunitensi hanno firmato la petizione Stop Devaluing Music (Basta svalutare la musica) nella quale sottolineano di non essere contrari all’IA ma al suo uso “irresponsabile” che, sostengono, potrebbe minacciare “la nostra privacy, la nostra identità, la nostra musica e i nostri mezzi di sussistenza”. Tra i firmatari ci sono Billie Eilish, Elvis Costello, Katy Perry, i Pearl Jam, Robert Smith, Nicki Minaj, R.E.M e tanti altri.

La voce di Frank Sinatra è una delle più usate per creare cover di brani con l’intelligenza artificiale – SHUTTERSTOCK/KRAFT74

E l’Europa? L’AI Act

E in Europa? Lo scorso 13 marzo il Parlamento europeo ha approvato l’AI Act , la prima legge al mondo a regolamentare l’uso dell’intelligenza artificiale. Il testo, che ha ottenuto 523 voti favorevoli, 46 contrari e 49 astensioni, prima di entrare in vigore dovrà essere approvato dal Consiglio dell’Unione europea. Ci vorranno almeno altri due anni, però, prima che la legge diventi esecutiva. Il testo dovrà, infatti, essere adattato alle normative nazionali e poi dovrà essere sottoposto a un ulteriore voto del Parlamento, previsto per metà aprile. La legge si applicherà alle aziende private e agli enti pubblici che forniscono o utilizzano sistemi di intelligenza artificiale in Europa, ma anche alle realtà che non hanno sede in un Paese europeo se l’output (il risultato) del sistema viene utilizzato in Ue. Le norme riguarderanno anche importatori e distributori. Non si applicheranno, invece, ai sistemi di intelligenza artificiale usati per scopi militari, di difesa o sicurezza nazionale, per ricerca scientifica e a quelli con licenze free e open source (a meno che non vi sia un rischio), alle attività di ricerca sviluppo dell’IA. È escluso anche l’uso personale non professionale da parte di persone singole.

La legge è stata proposta dalla Commissione europea nel 2021 ma l’iter è stato piuttosto lungo, vista anche la necessità di tenere conto degli sviluppi importanti del settore. Con queste norme vengono introdotti obblighi di trasparenza e sicurezza. In base al testo gli strumenti dell’intelligenza artificiale dovranno essere classificati secondo livelli di rischio per i diritti fondamentali: rischio minimo, limitato, elevato e inaccettabile. I sistemi a rischio inaccettabile sono vietati.

In questi due anni le aziende avranno tempo di adeguarsi e valutare i rischi dei sistemi di intelligenza artificiale utilizzati. I divieti, infatti, scatteranno gradualmente. Dopo 6 mesi saranno applicabili le disposizioni generali e i divieti per sistemi considerati a “rischio inaccettabile”, mentre dopo 12 mesi le norme verranno estese alle IA per finalità generali. Dopo 24 mesi la norma entrerà in vigore per intero, fatta eccezione per alcuni divieti per i sistemi considerati “a rischio elevato”, che scatteranno dopo 36 mesi.

Sarà proibito acquisire immagine da telecamere di sorveglianza o da Internet per creare banche dati per il riconoscimento facciale. Le forze dell’ordine non potranno utilizzare sistemi di identificazione biometrica senza autorizzazione amministrativa o giudiziaria, tranne in casi di persone scomparse o di prevenzione di attacchi terroristici. Sul sito del Parlamento europeo si legge che “per potervi fare ricorso, l’autorizzazione giudiziaria dovrà essere collegata a un reato”. Inizialmente il Parlamento europeo virava verso il divieto totale dell’utilizzo di tecnologie biometriche di sorveglianza di massa ma, con l’AI Act, in sostanza le forze dell’ordine potranno usufruire tool di riconoscimento facciale “in tempo reale” in luoghi pubblici, a patto che l’uso sia limitato nel tempo e nello spazio e, come detto, esclusivamente in circostanze previste dalla legge.

L’AI Act stabilisce, inoltre, che i deepfake debbano essere segnalati ed etichettati come tali: in sostanza chiunque guardi contenuti audio o video manipolati sarà consapevole che su di essi è stata effettuata un’alterazione.  Il testo, quindi, non vieta i deepfake ma inserisce regole più stringenti per limitarne la diffusione con l’obiettivo di evitare conseguenze potenzialmente dannose.

Ma l’AI Act avrà effetto anche sugli strumenti di IA generativa utilizzati in ambito musicale? Il testo ha definito regole più chiare in merito alla trasparenza delle fonti utilizzate per l’addestramento degli algoritmi e l’obbligo di registri d’accesso per i titolari dei diritti. I fornitori di modelli AI General-Purpose (modelli GPAI) dovranno rendere disponibili informazioni dettagliate dei contenuti utilizzati per addestrate l’intelligenza artificiale, in modo da tutelare il diritto d’autore. L’intento è quello di permettere lo sviluppo delle tecnologie IA ma allo stesso tempo di tutelare i diritti dei creatori.

L’AI Act è stato salutato positivamente da alcuni attori dell’industria musicale. In una dichiarazione congiunta organizzazioni, gruppi, organismi ed enti attivi nel settore culturale (musica, cinema, editori di pubblicazioni, giornali e magazine, editoria audiovisiva) hanno affermato che la legge “fornisce strumenti ai titolari dei diritti per far valere i propri diritti”. Tra i firmatari c’è anche l’IFPI (International Federation of the Phonographic Industry).

Sono tanti gli artisti in ambito musicale (e non solo) che utilizzano l’intelligenza artificiale come strumento creativo, mentre altri sono contrari e altri ancora, come abbiamo visto, non demonizzano l’IA ma l’uso “irresponsabile”.  Tra le tante sfide da affrontare ci sarà la valutazione costante del rapporto tra nuove opportunità e nuovi rischi.

IA e diritto d’autore, la parola all’esperta

Per avere un quadro più chiaro del rapporto tra intelligenza artificiale e diritto d’autore abbiamo intervistato Brunella Martino, avvocato founder di Legal for digital, specializzata in diritto del digitale e informatica giuridica, consulente in diritto industriale, diritto d’autore e della pubblicità.

– Avv. Martino, le opere generate dall’IA possono essere protette dal diritto d’autore? 

«La questione della protezione delle opere generate dall’intelligenza artificiale (IA) tramite il diritto d’autore è complessa e varia significativamente a seconda della giurisdizione. Il nucleo della questione ruota attorno a due aspetti fondamentali: la natura dell’opera e la nozione di creatività o originalità. Il diritto d’autore è tradizionalmente concepito per proteggere le opere creative prodotte da esseri umani, presupponendo un atto di creatività o un tocco personale. Molte legislazioni richiedono che un’opera sia originale e frutto dell’intelletto umano per essere protetta dal diritto d’autore. Questo solleva interrogativi sull’applicabilità del diritto d’autore alle opere generate dall’IA, che sono create con il minimo intervento umano diretto. Secondo la direzione corrente dell’UE, le opere create dall’IA non possono essere protette dal diritto d’autore perché mancano di un autore umano. Tuttavia, gli output generati dall’IA che sono stati “creati” sotto la direzione e il controllo di umani potrebbero qualificarsi per la protezione. La posizione degli Stati Uniti è simile; l’Ufficio Copyright ha espresso che solo le opere create da esseri umani possono essere protette, escludendo quindi quelle create autonomamente dall’IA. Alcuni esperti suggeriscono l’adattamento delle leggi sul diritto d’autore per includere le opere generate dall’IA, potenzialmente considerando l’IA come un “autore” o creando una nuova categoria di protezione. Altre forme di protezione, come i brevetti (per gli algoritmi di IA) o i marchi (per i nomi di prodotti/software generati dall’IA), potrebbero offrire una via alternativa per proteggere gli interessi legali legati alle creazioni dell’IA.   L’accento potrebbe essere posto sul ruolo degli sviluppatori di IA o degli utenti che “guidano” il processo creativo, fornendo la base per rivendicare la protezione del diritto d’autore sulle opere finali. La protezione delle opere generate dall’IA attraverso il diritto d’autore rimane un’area in evoluzione, con un importante dibattito in corso tra studiosi, legislatori e praticanti del diritto. È probabile che vedremo sviluppi legislativi e giurisprudenziali nei prossimi anni che potrebbero chiarire la posizione delle opere generate dall’IA nel diritto d’autore».

– Quando l’uso dell’IA viola il diritto d’autore? 

«L’utilizzo dell’intelligenza artificiale (IA) pone nuove sfide al diritto d’autore, specie quando si tratta di creare, distribuire o modificare opere protette senza l’autorizzazione dei titolari dei diritti. L’intelligenza artificiale (IA) può violare il diritto d’autore in varie circostanze, soprattutto quando implica la creazione, distribuzione o modifica di opere protette senza il permesso del titolare dei diritti. Pensiamo ad esempio alla IA che genera opere derivate da opere protette dal diritto d’autore (come remix di musica, riscritture di articoli, o adattamenti di opere visive) senza il consenso dei titolari dei diritti originali. La legge sul diritto d’autore protegge non solo l’opera originale ma anche le opere derivate che sono basate su di essa. Potremmo avere violazioni anche con riguardo all’addestramento di modelli di IA con utilizzo di dataset contenenti opere tutelate dal diritto d’autore (ad esempio, libri, musica, immagini) senza acquisire le dovute licenze viola i diritti d’autore. Ciò riguarda anche i casi in cui l’output dell’IA non sia direttamente riconducibile alle opere originali; il solo uso di tali opere a scopo di addestramento rappresenta una problematica legale significativa. Infine pensiamo alla IA che riproduce o distribuisce opere protette dal diritto d’autore (come musica, film e libri) senza l’autorizzazione del titolare dei diritti costituisce una violazione diretta del diritto d’autore. Ciò include la creazione di copie digitali o fisiche e la loro distribuzione. Per navigare in questo scenario complesso, è fondamentale per i creatori di IA e per chi ne utilizza i prodotti comprendere la portata dei diritti d’autore e assicurarsi di operare entro i confini legali. Questo potrebbe comportare l’acquisto di licenze, l’uso di opere non protette da diritto d’autore o di quelle che rientrano nel dominio pubblico, o ancora, l’ottenimento del consenso esplicito dei titolari dei diritti per l’utilizzo delle loro opere. Nell’era digitale, la definizione di opere derivate e l’applicazione delle leggi sul diritto d’autore all’IA restano temi di dibattito. La legislazione attuale potrebbe non essere adeguata a indirizzare tutte le sfumature create dall’avanzamento tecnologico, rendendo imperativa una discussione continua e potenzialmente l’aggiornamento delle normative esistenti per riflettere le nuove realtà del panorama creativo e tecnologico».

– Gli strumenti di intelligenza artificiale possono rappresentare nuove opportunità ma comportare anche dei rischi. Fino a oggi gli artisti – i musicisti, nello specifico – come potevano tutelarsi dai deepfake?

«Prima dell’avvento e della diffusione su larga scala degli strumenti avanzati di intelligenza artificiale per la creazione di deepfake, i musicisti si affidavano a diverse strategie legali per tutelarsi da usi non autorizzati o manipolativi della loro immagine e opera. I musicisti potevano registrare le loro opere garantendo la protezione legale contro la riproduzione non autorizzata, la distribuzione e creazione di opere derivate. In caso di uso non autorizzato della loro musica o performance potevano intraprendere azioni legali per violazione del diritto d’autore. I deepfake, che utilizzano l’IA per creare video o tracce audio che sembrano autentici, possono essere usati per imitare artisti senza il loro consenso, mettendo in discussione diritti d’autore, diritti di immagine e autenticità. Il Garante per la protezione dei dati personali ha messo a punto una scheda informativa per sensibilizzare gli utenti sui rischi connessi agli usi malevoli di questa nuova tecnologia, sempre più frequenti, anche a causa della diffusione di app e software che rendono possibile realizzare deepfake, anche molto ben elaborati e sofisticati, utilizzando un comune smartphone. Il concetto dei deepfake rappresenta una delle evoluzioni tecnologiche più discusse nell’ambito dell’intelligenza artificiale, specialmente per le sue implicazioni in vari settori, inclusi quelli legali e della privacy. L’origine del termine “deepfake” deriva dall’unione di “deep learning”, una branca dell’IA che si basa su reti neurali profonde, e “fake”, che indica la falsità dei contenuti generati. Questa tecnologia consente di creare o modificare contenuti audio e video con un grado di realismo sorprendente, spesso rendendo difficile distinguere il vero dal falso. Inizialmente, le tecnologie deepfake erano accessibili solo a chi possedeva risorse economiche significative e competenze tecniche avanzate. Tuttavia, con il passare del tempo, lo sviluppo di applicazioni e software user-friendly ha reso possibile la creazione di deepfake anche a chi dispone di un semplice smartphone, ampliando enormemente il potenziale di utilizzo (e abuso) di questa tecnologia. Il rapido avanzamento e la diffusione dei deepfake hanno sollevato preoccupazioni significative riguardo alla sicurezza digitale, alla privacy e alla diffusione di informazioni false o ingannevoli. In risposta a queste sfide, le principali aziende nel campo della tecnologia digitale stanno sviluppando e implementando metodi per contrastare i deepfake. Questi includono l’uso di algoritmi di IA capaci di rilevare i contenuti falsificati, sistemi per le segnalazioni da parte degli utenti e la formazione di squadre specializzate nel monitoraggio e nella lotta contro la diffusione di deepfake. Le autorità di protezione dei dati personali giocano un ruolo cruciale nella prevenzione e nella sanzione delle violazioni relative alla privacy e alla protezione dei dati personali legate all’uso dei deepfake. Tuttavia, la prima e più efficace linea di difesa resta la responsabilità individuale e l’attenzione degli utenti, i quali sono incoraggiati a sviluppare un senso critico e a verificare le fonti delle informazioni consumate online. Al giorno d’oggi, esistono strumenti e tecniche per identificare i contenuti deepfake, come l’analisi delle incongruenze nell’immagine, la fluidità dei movimenti facciali e l’analisi dei pattern di movimento occhi e bocca, che possono apparire innaturali nei video falsificati. Questi metodi richiedono però un’attenzione particolare e talvolta l’utilizzo di software specializzati, evidenziando la necessità di un approccio multidisciplinare per affrontare efficacemente le sfide poste dai deepfake. Se si ritiene che il deepfake sia stato utilizzato in modo da compiere un reato o una violazione della privacy, ci si può rivolgere, a seconda dei casi, alle autorità di polizia o al Garante per la protezione dei dati personali, intraprendere azioni legali per diffamazione, violazione della privacy o per false rappresentazioni a seconda della giurisdizione e del contesto specifico. L’impiego di tecnologie avanzate per certificare l’autenticità delle opere artistiche rappresenta un passo significativo nella lotta contro la proliferazione dei deepfake e la tutela dei diritti d’autore nell’era digitale. La blockchain e il Watermarking digitale emergono come strumenti potenti per gli artisti che desiderano proteggere e verificare le proprie creazioni. La blockchain, in particolare, offre un meccanismo decentralizzato e sicuro per registrare la proprietà e le transazioni relative a un’opera d’arte. Ogni opera può essere associata a un token unico su una blockchain, creando un record immutabile che ne attesta la provenienza, la proprietà e l’autenticità. Questo metodo è particolarmente utile nel mondo dell’arte digitale e degli NFT (Non-Fungible Tokens), dove l’unicità e l’originalità di un’opera sono fondamentali. Il Watermarking digitale, d’altra parte, consente agli artisti di inserire nelle loro opere informazioni invisibili o difficilmente rilevabili che ne confermano l’autenticità. Queste informazioni possono includere la firma digitale dell’artista, la data di creazione e altri metadati. Il Watermarking è efficace sia per le opere d’arte fisiche digitalizzate sia per quelle nate digitali, offrendo una protezione aggiuntiva contro la copia e la distribuzione non autorizzata. La collaborazione con piattaforme online e social media è fondamentale per combattere la diffusione di deepfake non autorizzati. Piattaforme come Facebook, Instagram, YouTube e altre possono implementare politiche e algoritmi per rilevare automaticamente e rimuovere contenuti deepfake che violano i diritti d’autore o che sono potenzialmente dannosi. Questo richiede un impegno congiunto tra le piattaforme tecnologiche, gli artisti e le organizzazioni per lo sviluppo di standard e tecniche di rilevamento sempre più sofisticate. L’adozione di queste tecnologie e la cooperazione tra diversi attori del settore artistico e tecnologico sono essenziali per creare un ambiente digitale sicuro e rispettoso dei diritti degli artisti, garantendo che le opere originali siano adeguatamente protette e valorizzate».

– Vista l’approvazione dell’AI Act da parte del Parlamento europeo, quali potranno essere dal punto di vista giuridico gli scenari futuri?

«L’approvazione dell’AI Act (Artificial Intelligence Act) da parte del Parlamento Europeo rappresenta un passo significativo verso la regolamentazione comprensiva dell’uso dell’intelligenza artificiale (IA) nell’Unione Europea. L’AI Act inaugura un nuovo capitolo nella regolamentazione dell’intelligenza artificiale, delineando scenari futuri che avranno impatti profondi sul tessuto legale, economico e sociale dell’Unione Europea. Questo atto legislativo mira a stabilire un quadro giuridico che garantisca la sicurezza e i diritti fondamentali delle persone, promuovendo al contempo l’innovazione e l’adozione dell’IA. L’AI Act introduce una classificazione dei sistemi di IA basata sui livelli di rischio, da accettabile a inaccettabile. Le recenti disposizioni legislative introducono divieti su specifiche utilizzazioni dell’intelligenza artificiale che pongono a rischio i diritti individuali. Si proibiscono, per esempio, l’uso di tecnologie di riconoscimento biometrico che discriminano basandosi su attributi sensibili e la raccolta non selettiva di immagini dei volti da internet o da videoregistrazioni di sistemi CCTV per costituire archivi di riconoscimento facciale. Si estendono i divieti anche ai software per l’analisi delle emozioni in contesti lavorativi e scolastici, ai meccanismi di valutazione sociale, alle tecniche di sorveglianza predittiva (quando si appoggiano unicamente su profilazione o giudizio basato su tratti individuali) e agli strumenti che alterano le decisioni delle persone o sfruttano le loro debolezze. Queste regolamentazioni mirano a preservare la dignità e l’autonomia individuale, limitando l’impiego di sistemi IA che possono ledere i diritti fondamentali o la privacy delle persone. Il Regolamento introduce specifiche disposizioni per la salvaguardia dei diritti di proprietà intellettuale, imponendo agli operatori del settore di conformarsi alle leggi europee relative al diritto d’autore. In questo contesto, si evidenzia l’importanza del rispetto dell’articolo 4, comma 3, della Direttiva (UE) 2019/790, nota come “Direttiva Copyright”, che consente ai detentori dei diritti di limitare l’uso delle loro opere e altri materiali tutelati, includendo restrizioni sull’estrazione di testo e dati. Questo meccanismo è denominato “diritto di opt-out”. Il documento fa ulteriori accenni alla protezione del diritto d’autore nei suoi paragrafi introduttivi, in particolare il Considerando 105, che descrive le modalità con cui sviluppare e formare i modelli di intelligenza artificiale generativa attraverso il processo di estrazione di testo e dati. Questo metodo consente l’accesso a vasti volumi di testi, immagini, video e altri dati. È fondamentale riconoscere che tali contenuti sono frequentemente soggetti a diritto d’autore e che, di conseguenza, il loro impiego necessita dell’approvazione esplicita da parte dei detentori dei diritti. Alla luce dell’AI act gli sviluppatori e i fornitori potrebbero dover affrontare nuovi obblighi, come la realizzazione di valutazione del rischio, l’implementazione di misure di mitigazione e la garanzia della trasparenza e dell’accuratezza dei dati. Questo potrebbe richiedere significative risorse legali e tecniche per assicurare la conformità. Gli utenti e le parti interessate avranno maggiori mezzi per chiedere conto dell’utilizzo dei sistemi di IA e potrebbero vedersi garantire diritti espliciti in merito all’informazione e alla contestazione delle decisioni prese con l’ausilio dell’IA. L’introduzione di standard uniformi per l’IA nell’UE potrebbe facilitare la creazione di un mercato unico per le soluzioni di IA, aumentando la competitività delle aziende europee. Tuttavia, le regolamentazioni potrebbero anche comportare sfide per le startup e le PMI, che potrebbero trovare oneroso soddisfare tutti i requisiti normativi. L’AI Act dell’UE potrebbe fungere da modello per altri paesi e regioni, promuovendo l’armonizzazione delle normative sull’IA a livello globale. Questo potrebbe portare a una cooperazione internazionale rafforzata e a standard condivisi per lo sviluppo e l’uso etico dell’IA».

di: Francesca LASI

FOTO: SHUTTERSTOCK/MYBOYS.ME