L’AI Act è fatto. Ora facciamo l’AI

da | Apr 2, 2024

L’UE ha approvato l’AI Act, che entrerà in vigore per gradi. Alla sua base, il principio di conformità alla legge e la classificazione dei sistemi secondo il rischio. Ma se fosse troppo presto per regolare il futuro dell’intelligenza artificiale con un grande regime normativo?

Il 13 marzo scorso il Parlamento dell’Unione Europea ha approvato in via definitiva il Regolamento sull’intelligenza artificiale («AI Act»). La norma diventerà legge fra maggio e giugno ed entrerà in vigore per gradi. In particolare:

  • Dopo sei mesi i Paesi membri dovranno applicare il bando dei cosiddetti «sistemi di IA vietati»
  • Dopo un anno cominceranno a valere le norme per i «sistemi di IA di uso generale»
  • Dopo due anni si applicherà il resto del Regolamento
  • Dopo 36 mesi entreranno in vigore gli obblighi per i «sistemi di IA ad alto rischio»

Più avanti spieghiamo in che cosa consiste la differenza fra sistemi di uso generale, ad alto rischio e vietati. In tutti i casi l’AI Act prevede sanzioni pesanti a fronte di violazione: fino a 35 milioni di euro o al 7% del fatturato annuo mondiale dell’impresa sanzionata.

La conclusione di un iter lungo e contrastato è stata salutata non senza retorica. Quello dell’Unione Europea – si fa osservare – è il primo spazio giuridico a dotarsi di un grande regime normativo in materia di intelligenza artificiale. Il che rappresenta motivo di soddisfazione. Al tempo stesso, è lecito formulare un dubbio: siamo sicuri che l’AI Act fotografi in modo corretto lo scenario dell’intelligenza artificiale presente, e a maggior ragione di quella futura? Non abbiamo forse accelerato troppo i tempi, cercando di regolare un fenomeno i cui contorni non sono ancora chiari? In questo articolo illustriamo prima i contenuti del nuovo Regolamento UE, poi alcune obiezioni di principio all’impostazione giuridica dell’Unione.

Se non ora, quando?

Secondo le istituzioni europee era necessario intervenire subito, proprio per scongiurare il rischio di trovarsi troppo tardi di fronte all’ingestibilità dei pericoli legati allo sviluppo dell’intelligenza artificiale. L’AI Act trae la sua forza proprio dal fatto che interviene precocemente, prima cioè che taluni fenomeni possano sfuggire a ogni controllo. Del resto molti studiosi si sono impegnati, alla fine del 2023, per sollecitare il Parlamento Europeo a fare presto e a concludere senza induci l’iter legislativo, senza farsi condizionare dagli argomenti delle lobby industriali del settore. Pensiamo all’appello rivolto dal think tank Atomium European Institute for Science, Media and Democracy ai leader politici di Francia, Germania e Italia il 26 novembre scorso (il testo completo è qui).

In un certo senso, condividere l’urgenza non è difficile. Le implicazioni sociali dell’intelligenza artificiale sono troppo evidenti perché si possa fingere di non vederle. Pensiamo, per esempio, ai rischi per i minori e per altri soggetti deboli. Non è certo casuale, del resto, l’attenzione particolare riservata dal Regolamento proprio alla tutela dei minori. L’art. 5 dell’AI Act dispone il divieto di usare sistemi che utilizzino tecniche subliminali per distorcere il comportamento della persona o che sfruttino «vulnerabilità di uno specifico gruppo di persone, dovute all’età o alla disabilità fisica o mentale». Si tratta di una linea precisa, presente anche in altri strumenti legislativi della UE, come il GDPR, la Direttiva UE/2018/1808 sui servizi media audiovisivi e il Digital Service Act, i quali vietano di impiegare «tecniche di targeting o amplificazione che trattano, rivelano o inferiscono i dati personali dei minori».

Un’intelligenza artificiale affidabile e spiegabile

Trasparenza, tracciabilità, affidabilità e spiegabilità sono tra i principi che ispirano il modo di intendere lo sviluppo dell’intelligenza artificiale dell’UE. Anche in questo caso l’AI Act può definirsi all’avanguardia, rispetto al quadro normativo esistente nel resto del mondo. Si tratta peraltro di principi che le istituzioni europee vanno ribadendo dal 2019 e che fanno già parte delle linee di indirizzo dei più importanti iniziative di ricerca sostenute dall’Unione nell’ambito di programmi come Horizon Europe.

È il caso dei progetti in cui il nostro Gruppo è coinvolto attraverso Spindox Labs. Come REXASI-PRO, che concerne da un lato la progettazione di nuove soluzioni affidabili per orchestrare la flotte di veicoli guidati dall’intelligenza artificiale, dall’altro la messa a punto di una metodologia per certificare la robustezza dei veicoli autonomi basati sull’intelligenza artificiale per le persone a mobilità ridotta. O come PRAESIIDIUM, che riguarda invece la previsione in tempo reale del rischio diabetico.

Secondo l’Unione Europea, l’intelligenza artificiale affidabile deve soddisfare tre requisiti:

  • Deve essere conforme alla legge, ossia rispettare tutte le norme e i regolamenti applicabili.
  • Deve essere etica, ossia garantire l’aderenza ai principi e ai valori etici che sono alla base dell’UE.
  • Deve essere robusta, dal punto di vista tecnico ma anche sociale, poiché, anche con buone intenzioni, i sistemi di IA possono causare danni non intenzionali.

Ciascuna componente è di per sé necessaria ma non sufficiente per ottenere un’IA affidabile.

L’AI Act entrerà in vigore per gradi

Ma vediamo, più in generale, che cosa prevede il nuovo Regolamento europeo sull’intelligenza artificiale. La scansione temporale nell’entrata in vigore del Regolamento riflette la distinzione, operata dal Parlamento UE, fra tre categorie di sistemi di IA: quelli vietati, quelli ad alto rischio e quelli di uso generale. L’approccio fondato sul rischio è alla base di tutto l’impianto normativo: i sistemi di IA sono classificati sulla base dei potenziali rischi che potrebbero derivare, nel loro impiego, ai diritti fondamentali dei cittadini e ai valori dell’Unione Europea (dignità, uguaglianza, libertà, non discriminazione). Nello specifico, i livelli di rischio previsti sono quattro:

  • Rischio minimo (filtri anti spam)
  • Rischio limitato (sistemi di manipolazione dei contenuti)
  • Alto rischio (sistemi usati nei veicoli a guida autonoma, sistemi per la selezione del personale)
  • Rischio inaccettabile (sistemi di classificazione sociale, riconoscimento facciale)

Conformità alla legge vs collaborazione volontaria: Europa e resto del mondo

L’AI Act si caratterizza per il principio legislativo della conformità: le tecnologie dell’intelligenza artificiale e il loro utilizzo devono essere conformi a quanto stabilito dalla legge. Può sembrare un principio scontato, ma in realtà rimanda a un approccio difforme da quello adottato negli Stati Uniti con l’Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence. La norma americana, emanata dal presidente Joe Biden il 30 ottobre 2023, segue infatti la strada della collaborazione volontaria delle imprese con le autorità governative.

L’impostazione normativa della UE appare agli occhi di alcuni troppo limitante, specie se si tratta di non ostacolare la ricerca e lo sviluppo da parte delle imprese, ma anzi di promuovere il consolidarsi di un settore industriale strategico per l’economia europea nel prossimo futuro. Non a caso i passaggi finali del lungo iter che ha portato all’approvazione dell’AI Act sono stati contrassegnati dal tentativo degli operatori del settore di ottenere un ammorbidimento della norma. Abbiamo visto la pressione della tedesca Aleph Alpha e della francese Mistral AI – che sviluppano modelli di fondazione – sui rispettivi governi. Ma non è mancata la voce dei soliti big americani, naturalmente, i quali da tempo contestano l’impostazione normativa della UE. Alla fine, come spesso accade in questi casi, il risultato è di compromesso.

Come dicevamo, l’UE proclama di essere il primo spazio giuridico a dotarsi di una legislazione organica in materia. A parte il caso degli Stati Uniti, già citato, ricordiamo che Il Regno Unito finora ha prodotto due documenti: il policy paper pubblicato dal Governo a marzo dello scorso anno con il titolo A pro-innovation approach to AI regulation e il recente Large language models and generative AI, pubblicato dal Communications and Digital Committee  della House of Lords.

In Svizzera il Consiglio Federale ha incaricato il DATEC (Dipartimento federale dell’ambiente, dei trasporti, dell’energia e delle comunicazioni) di proporre soluzioni normative entro la fine del 2024. È presumibile che le proposte ricalcheranno l’impostazione della UE.

Infine abbiamo la Cina, che il 15 agosto scorso ha varato le Interim Administrative Measures for Generative Artificial Intelligence Services (una sintesi in inglese, a cura di PWC China, qui). La Cina detiene il doppio dei brevetti in materia di AI (quasi 30.000) rispetto agli Stati Uniti.

Quali sono i sistemi di IA vietati…

Vediamo, più in dettaglio, quali sistemi sono inclusi fra quelli vietati dal Regolamento UE.

In primo luogo l’AI Act definisce illeciti i sistemi che sfruttano la vulnerabilità di persone o gruppi in base all’età, alla disabilità o allo status socio-economico. Sono altresì vietate le pratiche manipolatorie e ingannevoli, ovvero l’impiego di sistemi di IA che usino tecniche subliminali per distorcere materialmente la capacità decisionale di una persona. Un discorso a parte vale per i sistemi di categorizzazione biometrica, ovvero le tecnologie di IA che permettono di classificare gli individui sulla base di dati biometrici per dedurre informazioni sensibili come razza, opinioni politiche o orientamento sessuale. Tali sistemi sono vietati in linea di massima, a meno che non siano impiegati in specifiche circostanze ed entro limiti definiti, nell’ambito del contrasto alla criminalità, al terrorismo e alla minaccia all’ordine pubblico. Ciò vale anche per il loro utilizzo in tempo reale in spazi accessibili al pubblico.

È questo un punto sul quale il Governo italiano ha battagliato molto, insistendo sulla necessità per le forze dell’ordine di disporre di tali sistemi per garantire la sicurezza dei cittadini. Alla fine la norma consente l’identificazione biometrica in tempo reale, ma solo sulla base di circostanze definite (per esempio, la ricerca di una persona scomparsa o la prevenzione di un attacco terroristico) e comunque previa approvazione giudiziaria o di un’autorità indipendente. Nel caso di identificazione biometrica a posteriori, il suo riscorso è considerato ad alto rischio. Per questo l’autorizzazione giudiziaria richiesta dovrà essere collegata ana specifica ipotesi di reato.

Ancora, sono vietati i sistemi di IA per il l’attribuzione di un punteggio sociale, ossia la valutazione di individui o gruppi sulla base del loro comportamento sociale o di determinate caratteristiche personali. Così come sono proibite la creazione di database di riconoscimento facciale attraverso lo scraping non mirato di immagini da Internet o da filmati di telecamere a circuito chiuso, l’inferenza e l’analisi delle emozioni nei luoghi di lavoro e nelle istituzioni educative, se non per motivi medici o di sicurezza, e le pratiche di valutazione del rischio di commettere un reato basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona.

… e quali i sistemi ad alto rischio

Ancora più lungo è l’elenco dei sistemi di IA definiti ad alto rischio. Esso include infrastrutture essenziali e componenti legate alla sicurezza, ma anche all’educazione. Ne fanno parte i sistemi per determinare l’accessibilità o l’ammissibilità scolastica, la distribuzione di individui in istituzioni o programmi educativi e di formazione professionale a vari livelli, l’analisi dei risultati di apprendimento, la valutazione del livello di istruzione adeguato a ciascuna persona e del modo in cui questo possa influenzare l’accesso a ulteriori opportunità educative, oltre al monitoraggio e alla rilevazione di comportamenti non consentiti durante gli esami.

Sistemi di IA ad alto rischio sono anche quelli utilizzati per la gestione del personale nelle organizzazioni, in particolare i processi di assunzione e selezione, determinazione delle condizioni di lavoro, promozioni, terminazioni di contratti, assegnazione di compiti basata su comportamenti, tratti o caratteristiche personali, e la valutazione del personale.

L’AI Act considera poi sistemi ad alto rischio quelli utilizzati nell’ambito di servizi fondamentali quali assistenza sanitaria, prestazioni di sicurezza sociale, servizi sociali e affidabilità creditizia, l’amministrazione della giustizia, inclusi gli enti per la risoluzione alternativa delle dispute e la gestione della migrazione e del controllo delle frontiere, fino all’analisi delle domande di asilo, visti e permessi di soggiorno e i relativi procedimenti di reclamo.

Ma l’IA è disciplinabile come una materia ordinaria?

Come abbiamo detto, alcuni osservatori considerano l’AI Act troppo rigido, ritenendo che scoraggerà la ricerca e gli investimenti nel settore in Europa. Altri, al contrario, avrebbero gradito un quadro normativo ancora più restrittivo, soprattutto a tutela dei diritti civili e della privacy dei cittadini europei.

Come stanno dunque le cose? Abbiamo a che fare con un regolamento troppo severo o troppo permissivo? Forse è possibile applicare una terza chiave di lettura al problema della regolazione dell’IA. Occorre domandarsi se una cornice come quella approvata dal Parlamento UE rappresenti lo strumento più efficace per regolare una materia così fluida e difficile da afferrare.

L’ipotesi del tecnoprudenzialismo

Alcuni autorevoli osservatori esprimono dubbi al riguardo alla correttezza concettuale dell’approccio seguito dall’Europa. Ian Bremmer (politologo) e Mustafa Suleyman (CEO di Inflection AI), per esempio hanno osservato alcuni mesi fa:

«I governi sono già in ritardo. La maggior parte delle proposte per governare l’IA la trattano come un problema convenzionale che si presta alle soluzioni stataliste del ventesimo secolo: compromessi su regole elaborate da leader politici seduti attorno a un tavolo. Ma questo non funzionerà per l’IA»

(The AI Power Paradox, «Foreign Affairs», 16 agosto 2023).

Bremmer e Suleyman pensano a un approccio diverso, invocando un mandato per regolare l’IA un po’ come oggi fanno il Consiglio per la Stabilità finanziaria e il Fondo Monetario Internazionale a livello globale. Lo chiamano «tecnoprudenzialismo». L’idea di fondo è che rischio, pericolo e sicurezza siano la quintessenza della società tardomoderna e che i tradizionali strumenti legislativi, ancorché estesi a spazi giuridici vasti come quello dell’Unione Europea, non siano sufficienti a governare il fenomeno.

Il tema è stato ripreso recentemente, sempre sulle pagine di «Foreign Affairs», da Dean Woodley Ball. Il quale afferma:

«Di sicuro, le nostre istituzioni, organizzazioni e leggi dovranno evolversi, a volte in modo non banale, per affrontare le nuove questioni che l’IA solleva. Ma è impossibile conoscere la direzione e la portata di questa evoluzione finché non esisteranno strumenti specifici di IA e non avranno iniziato a diffondersi nella società. Tentare di creare ora un grande regime normativo per l’IA equivarrebbe a creare qualcosa di simile al Regolamento generale sulla protezione dei dati dell’Europa nei mesi successivi al lancio del primo browser web nel 1990»

(How to Regulate Artificial Intelligence, «Foreign Affairs», 59, 2024).

Ci sono in effetti aspetti legati all’uso dell’intelligenza artificiale che faticano ancora a trovare una risposta puntuale a livello legislativo. Pensiamo al tema della proprietà intellettuale. Certo, l’AI Act richiama espressamente la questione, ma è significativo il fatto che manchi una soluzione tecnica e che tuttora a livello europea si discuta sul tipo di watermark che potrebbe identificare in modo adeguato un artefatto prodotto con l’ausilio dell’intelligenza artificiale. Quanto all’Executive Order americano, esso è molto vago. Nel frattempo l’US Copyright Office ha ribadito il proprio orientamento entrando nel merito del caso Zarya of the Dawn (un libro scritto da Kris Kashtanova e illustrato interamente con il software di intelligenza artificiale Midjourney) La soluzione è quella di un copyright ibrido, con una tutela cioè limitata al testo del fumetto e al concept dell’opera, ma non alle singole immagini generate con Midjourney. D’altra parte in Cina potrebbe affermarsi un’impostazione opposta. Sembra attestarlo la recente sentenza del Tribunale di Pechino a favore di un cittadino ricorrente, che chiedeva la tutela di alcune immagini generate con Stable Diffusion.

Prima il supporto della politica, poi il canone della legge

La conclusione di Woodley Ball è interessante:

«Sicuramente la legge ha un ruolo da svolgere. Ma gran parte di questo lavoro spetterà naturalmente a ciascuno di noi, che farà la sua piccola parte per arricchire l’ordine collettivo. Forse vorremo canonizzare in legge – o arrestare – alcune delle nuove norme che creeremo organicamente, ma queste norme devono esistere prima di poter essere rafforzate o mitigate dalla legge. Quindi, anche se c’è un ruolo per la politica, i nostri politici dovrebbero accontentarsi di un ruolo di supporto per ora. La loro umiltà pagherà i dividendi per tutti noi».

 

 

Paolo Costa
Paolo Costa
Socio fondatore e Direttore Marketing di Spindox. Insegno Comunicazione Digitale e Multimediale all’Università di Pavia. Da 15 anni mi occupo di cultura digitale e tecnologia. Ho fondato l’associazione culturale Twitteratura, che promuove l’uso di Twitter come strumento di lettura attraverso la riscrittura.

Potrebbe piacerti anche

Cybersecurity, arriva la NIS 2: cosa cambia per le infrastrutture critiche e come Spindox aiuta i suoi clienti

Cybersecurity, arriva la NIS 2: cosa cambia per le infrastrutture critiche e come Spindox aiuta i suoi clienti

Dal 17 ottobre 2024 la NIS 2 è pienamente vigente. La direttiva introduce nuove regole per la sicurezza informatica delle infrastrutture critiche e dei servizi essenziali in Europa. Le aziende nei settori energetico, sanitario, delle telecomunicazioni e altri sono chiamate ad adeguarsi a standard più elevati. Chi è impattato, i rischi di non conformità e il ruolo di Spindox nell’aiutare i clienti a migliorare la propria sicurezza.