AI Act e Riconoscimento Biometrico da remoto: dubbi e criticità (parte 2/2)

da | Mag 28, 2024

Il capitolo dell’AI Act riguardante il riconoscimento biometrico e, più in generale, la tecnologia di sorveglianza era quello in assoluto più temuto dalle associazioni per i diritti digitali.

La tecnologia di sorveglianza ha superato di gran lunga le tradizionali leggi sulla privacy, già adesso e anche senza l’introduzione dell’Intelligenza Artificiale; i legislatori, benché continuino a provarci, non riescono a recuperare il ritardo rispetto a tecnologie ed applicativi in costante rivoluzione.

Ma cosa prevede l’AI Act riguardo a questi aspetti specifici? E quali sono le criticità del provvedimento? Proviamo a fare un po’ di chiarezza in questa seconda parte della serie di articoli.

Limiti e divieti al riconoscimento biometrico

Per capire i timori europei nei confronti della tecnologia di sorveglianza è utile dare un’occhiata a quanto succede negli USA, dove i limiti a tali pratiche sono più blandi rispetto al vecchio continente.

Leggendo i giornali americani non è difficile trovare testimonianze dirette di forzature (per non dire abusi!) della privacy dei cittadini: hardware che smettono improvvisamente di rispondere ai comandi dell’utente, monitoraggio costante della polizia, sistemi di tracciamento di autoveicoli e di scanning del volto.

Il capitolo sul riconoscimento biometrico era dunque quello più sentito dal Parlamento europeo e da varie parti del mondo civile.

La richiesta iniziale era quella di un divieto assoluto dell’utilizzo di AI in queste attività, ma il provvedimento definitivo ha stabilito nel concreto solamente delle limitazioni all’uso dei sistemi di identificazione biometrica da parte delle forze dell’ordine, senza divieti assoluti.

Come per le Generative Purpose AI, già viste nel precedente articolo, anche in questo caso si è deciso per un compromesso sostanziale, prevedendo un divieto complessivo ma a fronte di importanti eccezioni.

Limiti ed eccezioni per la sicurezza nazionale

Innanzitutto, i legislatori europei hanno concordato per il divieto delle seguenti attività con possibile utilizzo dell’AI:

  • Scraping di immagini facciali reperite su Internet o catturate da registrazioni di telecamere a circuito chiuso al fine creare database di riconoscimento facciale;
  • Sistemi di categorizzazione biometrica che si basino su caratteristiche “sensibili” delle persone (ad esempio, convinzioni politiche, religiose, filosofiche, orientamento sessuale e razza);
  • Sistemi di riconoscimento delle emozioni delle persone sui luoghi di lavoro e nelle istituzioni educative;
  • Sistemi di IA che manipolino il comportamento umano per eluderne il libero arbitrio;
  • Sistemi di valutazione sociale basati su comportamenti o caratteristiche personali di individui (c.d. social scoring);

In secondo luogo, è stato deciso di limitare fortemente l’utilizzo dei sistemi di AI per il riconoscimento biometrico “ex-post”, ovvero a posteriori dopo l’accadimento di un fatto: si richiede in questi casi l’autorizzazione giudiziaria e la correlazione a un reato grave, punito con almeno quattro anni di detenzione.

Il caso che ha suscitato il dibattito maggiore è stato quello del riconoscimento biometrico in “tempo reale”. L’AI Act prevede infatti tre casi specifici in cui è ammesso il suo utilizzo:

  • una minaccia di terrorismo prevedibile o in corso;
  • la ricerca di vittime di reati (per esempio, una persona sequestrata);
  • l’identificazione di sospettati per determinati “seri crimini”, con un utilizzo limitato nel tempo e nell’ambito geografico.

Riguardo il terzo punto, per i “seri crimini” è stata stilata un’apposita lista di 16 casi ben definiti, che comprendono: terrorismo, traffico di esseri umani, abusi sessuali su minori e pedopornografia, traffico di droghe, omicidio, traffico di organi, traffico di materiale radioattivo, sequestro di persona, dirottamento di aerei e navi, stupri, crimini ambientali, rapine.

In tutti questi casi le forze dell’ordine possono ricorrere a procedure di riconoscimento facciale con l’autorizzazione dell’autorità giudiziaria o di quella amministrativa di un (non meglio precisato) ente indipendente.

Se per i primi due punti previsti la casistica è ben definita e ristretta, per quanto riguarda il terzo aspetto è evidente la mancanza di chiarezza per quanto riguarda la non meglio precisata autorizzazione amministrativa necessaria per l’utilizzo del riconoscimento biometrico da parte delle forze di polizia.

A questo va aggiunto inoltre che, se le forze dell’ordine reputano di dover agire con la massima urgenza, è previsto che possano attivare il riconoscimento biometrico anche senza autorizzazione, avendo 24 ore di tempo per ottenere la luce verde.

Criticità del provvedimento

Una delle criticità più evidenti, tra quelle più dibattute fra gli osservatori internazionali, è riferita alla possibilità data ad alcuni settori e/o attività (nello specifico, forze di polizia, sicurezza nazionale, apparato militare, antiterrorismo) di soprassedere, anche se per breve lasso di tempo, al rispetto dell’AI Act.

La concessione di 24 ore di libertà di movimento, soprattutto in tempi attuali e con le tecnologie a disposizione, appare fin troppo generosa; un lasso di tempo nel quale possono essere completate un numero di ricerche e verifiche molto ampio, senza un accertamento ex-ante del rispetto di alcun limite per la garanzia della privacy e dei diritti dei cittadini.

Il voto del parlamento ha in qualche modo “legittimato” la sorveglianza biometrica in tutta l’Unione europea, sostengono i più critici, rischiando di trasformare le nostre democrazie in “uno stato di sorveglianza ad alta tecnologia”.

Un secondo aspetto critico è dato dalla possibilità per le forze di polizia di poter ottenere il via libera da un’autorità amministrativa, e non da quella giudiziaria.

Le proposte iniziali non offrivano questa possibilità, anche se bisogna rilevare come la norma non sia ancora del tutto chiara su quali siano questi enti amministrativi, ed eventualmente in quali casi possano essere alternativi a quelli giudiziari.

Un ultimo aspetto rilevato dai critici del provvedimento è la casistica prevista per l’ammissione all’utilizzo del riconoscimento biometrico tramite AI, per molti poco rigida e dalle maglie troppo larghe.

Trattandosi di ipotesi di reato (dunque di fatti ancora da provare), si sostiene, risulterebbe piuttosto semplice per le forze di polizia giustificare l’utilizzo della sorveglianza tecnologica, contrariamente allo spirito della normativa stessa.

Di problema in problema: la polizia predittiva e la situazione in USA

Altro tema delicato riguarda la polizia predittiva.

Si parla di polizia predittiva riferendosi alla possibilità di utilizzare gli algoritmi di AI al fine di calcolare le probabilità con cui può essere commesso un determinato reato, da chi e in quale luogo.

L’accordo ne prevede espressamente il divieto, tranne il caso di utilizzo di sistemi di analisi dei reati tramite informazioni anonimizzate

In sintesi: non sarà possibile applicare sistemi di AI a specifici individui, calcolando le probabilità che commetta un reato e infine, sulla base di questi dati, indagandolo perché lo dice l’algoritmo; al contrario, si potrà utilizzare l’AI per analizzare dati anonimizzati e calcolare le tendenze dei reati (a livello aggregato).

Ma nel resto del mondo qual è l’approccio a tale pratica?

Negli USA il dibattito è più vivo che mai. La Polizia di New York, ad esempio, ha acquistato dal 2021 un abbonamento a ShadowDragon, progettato per scansionare i siti Web alla ricerca di indizi sugli individui presi di mira, e successivamente sintetizzarli in profili approfonditi.

L’azienda stessa afferma che il suo software è in grado di anticipare il crimine e la violenza, anche se esperti da più parti sostengono che tali previsioni rimangono ancora imprecise e potenzialmente dannose.

La tendenza è tuttavia presente in tutti gli stati americani, che recentemente hanno incrementato il ricorso a questo tipo di tecnologie a seguito della conferma della Sezione 702 del Foreign Intelligence Surveillance Act, o FISA, che era in scadenza il 19 aprile.

La legge è nota per una disposizione che consente ai federali di accedere alle comunicazioni che gli americani hanno con individui residenti all’estero (per i cittadini non americani è già consentito l’utilizzo di dati riservati e personali, in possesso anche di imprese commerciali private con sede in USA).

ShadowDragon non costituisce naturalmente l’intera portata dell’arsenale di sorveglianza mediato da terzi della polizia americana. Come ha rivelato lo scorso anno il New York Focus, da anni la Polizia ricorre a programmi che raccolgono grandi quantità di dati dai social media, li setacciano e restituiscono informazioni dettagliate, comprese quelle sulla posizione degli utenti in tempo reale.

Di fronte a tutto questo, sette stati americani stanno lavorando su una propria legislazione, anche su invito del presidente Joe Biden, per definire leggi e accordi globali sull’AI.

Ed anche in Cina il presidente Xi Jinping ha proposto un’iniziativa legislativa con misure provvisorie per un uso equo e sicuro dell’AI, che si applichino a testi, immagini, audio, video e altri contenuti generati per il mercato cinese.

L’AI Act rimane dunque, per il momento, un primo passo, ancora piuttosto incerto, verso il futuro dell’Intelligenza Artificiale.

Sandro Pinna
Sandro Pinna
Dopo la laurea in Governo d’Impresa mi sono dedicato a molte attività, tutte di diversa tipologia, ma alla fine mi sono dedicato a quello che più mi appassionava: il digital marketing.

Potrebbe piacerti anche

Cybersecurity, arriva la NIS 2: cosa cambia per le infrastrutture critiche e come Spindox aiuta i suoi clienti

Cybersecurity, arriva la NIS 2: cosa cambia per le infrastrutture critiche e come Spindox aiuta i suoi clienti

Dal 17 ottobre 2024 la NIS 2 è pienamente vigente. La direttiva introduce nuove regole per la sicurezza informatica delle infrastrutture critiche e dei servizi essenziali in Europa. Le aziende nei settori energetico, sanitario, delle telecomunicazioni e altri sono chiamate ad adeguarsi a standard più elevati. Chi è impattato, i rischi di non conformità e il ruolo di Spindox nell’aiutare i clienti a migliorare la propria sicurezza.

I principali trend di Intelligenza Artificiale per il 2025

I principali trend di Intelligenza Artificiale per il 2025

Il campo dello sviluppo software sta subendo una trasformazione radicale grazie all’intervento dell’Artificial Intelligence. L’AI non sta solo automatizzando le attività, sta diventando un assistente indispensabile, migliorando l’efficienza e la qualità del codice. Ma quali sono le aree chiave in cui l’Intelligenza Artificiale sta rivoluzionando la programmazione?