Tutta la sorveglianza che sarà permessa con l’IA in Europa: guida alla lettura del regolamento Ai ACT

Tutta la sorveglianza che sarà permessa con l’IA in Europa: guida alla lettura del regolamento Ai ACT

Usare l’intelligenza artificiale per sorvegliare e perseguire i reati, con riconoscimento facciale o altri metodi. Stiamo per entrare in un’era in cui questi utilizzi avranno possibilità determinate e confini certi. Così si legge nel testo definitivo dell’AI Act, il regolamento europeo approvato in via definitiva.
Il tema della sicurezza pubblica e della sorveglianza è in effetti uno dei più importanti e più critici, nelle regole europee sull’IA. L’Europa infatti ha trovato un compromesso tra due opposti: da una parte permettere alle forze dell’ordine e agli Stati di sfruttare l’IA per motivi di sicurezza; dall’altra evitare derive autoritarie e di sorveglianza di massa, abilitate dalle grandi nuove capacità tecnologiche.

Tre tipi di sorveglianza con l’IA

A leggere il testo, è chiaro che l’Europa fa una netta distinzione tra tre tipi di utilizzi dell’IA a scopo di sorveglianza. Uno è vietato in modo assoluto perché ricorda la schedatura di massa ed è degno di uno Stato dittatoriale. Questo utilizzo rientra quindi nelle pratiche definite “proibite” nel regolamento. Proibito significa sia fare, sia vendere, sia usare sistemi di questo tipo.Un secondo è generalmente permesso, con alcuni limiti e garanzie per i diritti fondamentali, simili a quelli che si applicano ad esempio alle intercettazioni. È il caso dell’identificazione biometrica (facce ad esempio) a distanza non in tempo reale. Caso tipico – che già avviene in Italia – uso dell’IA per riconoscere criminali ripresi in registrazioni delle videocamere di sicurezza. Questo utilizzo è considerato ad alto rischio; chi lo compie deve sottostare a paletti, audit e a scrutini a tutela dei diritti fondamentali.Un terzo è più critico: identificazione biometrica in tempo reale nei luoghi pubblici. Significa la possibilità, tipo Minority Report, di identificare le persone in automatico mentre si muovono (e non in differita), quindi potenzialmente di seguirle e sorvegliarle. La pratica rientra in quelle “proibite”, ma l’Europa l’ha resa possibile comunque in alcuni casi eccezionali. Il Parlamento Ue avrebbe voluto proibirla del tutto, ma poi è passata una posizione di compromesso. L’Europa comunque consente a ciascun Stato membro di porre paletti più rigidi o vietare questi sistemi.

Tempi di attuazione

Tra le righe del testo definitivo dell’AI Act emerge ora con chiarezza anche qual è la tempistica di attuazione. Si apprende così un punto poco osservato finora: per il secondo tipo di biometria (alto rischio), le regole entreranno in vigore 36 mesi dopo l’uscita del regolamento in Gazzetta Ufficiale, quindi tra il 2026 e il 2027. È la tempistica più lunga di attuazione. Le regole per le pratiche proibite scattano già dopo sei mesi; la maggior parte delle norme dell’AI Act, invece, dopo dodici mesi (qui anche quelle sui sistemi di IA generativa tipo ChatGpt).

Pratiche di sorveglianza proibite

Nel dettaglio, sono proibiti i sistemi IA che “categorizzano singole persone fisiche sulla base dei loro dati biometrici per dedurne o dedurne la razza, le opinioni politiche, l’appartenenza sindacale, le convinzioni religiose o filosofiche, la vita sessuale o l’orientamento sessuale”. C’è un’eccezione: “questo divieto non riguarda l’etichettatura o il filtraggio di insiemi di dati biometrici acquisiti legalmente, come le immagini, sulla base di dati biometrici o la categorizzazione di dati biometrici nell’ambito dell’applicazione della legge”. Vietati anche sistemi di social scoring tipo Cina: “per la valutazione o la classificazione di persone fisiche o di gruppi di esse per un certo periodo di tempo sulla base del loro comportamento sociale o di dati personali noti, dedotti o previsti”.Per l’identificazione biometrica a distanza “in tempo reale” in spazi accessibili al pubblico si permette l’uso solo per due scopi: la ricerca mirata di vittime specifiche di rapimento, tratta di esseri umani e sfruttamento sessuale di esseri umani, la ricerca di persone scomparse; la prevenzione di una minaccia specifica, sostanziale e imminente alla vita o all’incolumità fisica di persone fisiche o di una minaccia reale e attuale o reale e prevedibile di un attacco terroristico; la localizzazione o l’identificazione di una persona sospettata di aver commesso un reato, ai fini della conduzione di un’indagine penale, dell’esercizio dell’azione penale o dell’esecuzione di una sanzione penale per gravi reati. L’elenco dei reati è lungo: omicidio, rapina a mano armata, stupro, droga, traffico di armi. Anche laddove l’identificazione in tempo reale è permessa, va autorizzata da un’autorità giudiziaria o da un’autorità amministrativa indipendente. In casi di urgenza si può procedere senza autorizzazione, che va però richiesta senza indebito ritardo, al più tardi entro 24 ore. Se tale autorizzazione viene rifiutata, l’uso del sistema deve essere interrotto con effetto immediato e tutti i dati, i risultati e gli output di tale uso devono essere immediatamente scartati e cancellati.L’autorità giudiziaria competente o un’autorità amministrativa indipendente, la cui decisione è vincolante, concede l’autorizzazione solo se è convinta, sulla base di prove oggettive o di indicazioni chiare che le sono state presentate, che l’uso del sistema di identificazione biometrica a distanza “in tempo reale” in questione è necessario e proporzionato.

Gli obblighi e i divieti

Ci sono altri obblighi di trasparenza e verifica in capo a chi usa questi sistemi, tra cui quello di notificarne l’utilizzo al Garante Privacy e registrarli su una banca dati pubblica.Vietati anche i sistemi di polizia predittiva, di nuovo tipo Minority report. Quelli utili a valutare le possibilità che una persona possa commettere un reato, “basandosi esclusivamente sulla profilazione di una persona fisica o sulla valutazione dei tratti e delle caratteristiche della sua personalità”. Beninteso, “tale divieto non si applica ai sistemi di IA utilizzati per supportare la valutazione umana del coinvolgimento di una persona in un’attività criminale, che è già basata su fatti oggettivi e verificabili direttamente collegati a un’attività criminale”. Vietati sistemi tipo Clearview, “che creano o ampliano banche dati di riconoscimento facciale attraverso lo scraping non mirato di immagini facciali da Internet o da filmati di telecamere a circuito chiuso”.Vietati infine i sistemi “per dedurre le emozioni di una persona fisica nei settori del posto di lavoro e delle istituzioni scolastiche, tranne nei casi in cui l’uso del sistema di IA è destinato a essere messo in atto o immesso sul mercato per motivi medici o di sicurezza”.

Fonte: Il Sole 24 Ore