AI ACT: LA VOCE DELLA SOCIETÀ CIVILE INDIVIDUA PROBLEMI E SOLUZIONI PER LE TECNOLOGIE DI INTELLIGENZA ARTIFICIALE - MEDIAKEY
Salta al contenuto
EsterneEventi e sponsorshipTecnologie e app

AI ACT: LA VOCE DELLA SOCIETÀ CIVILE INDIVIDUA PROBLEMI E SOLUZIONI PER LE TECNOLOGIE DI INTELLIGENZA ARTIFICIALE

MEDIAKEY

In occasione del convegno Diritti umani e intelligenza artificiale: la voce della società civile su governance e regolamentazione, promosso da The Good Lobby, Privacy Network ed Hermes Center, è stato evidenziato come la società civile può dare un importante contributo nello sviluppo di una governance dell’intelligenza artificiale responsabile e sostenibile,  sottolineando l’importanza di avere i diritti umani come bussola nella normazione.

L’entrata in vigore dell’AI Act da parte dell’Unione Europea è uno dei primi tentativi al mondo di regolamentare l’intelligenza artificiale, frutto di un complesso lavoro di mediazione, trattativa e bilanciamento tra diversi attori. Afferma così Martina Turola, The Good Lobby: “Siamo consapevoli che queste tecnologie possono contribuire a far avanzare i diritti umani, ma anche metterli in pericolo. Uno dei principali rischi che gli strumenti di IA comportano è quello di produrre e facilitare risultati discriminatori, che violano i diritti civili, politici, economici, sociali e culturali di gruppi vulnerabili e marginalizzati.Sebbene Il regolamento europeo miri a garantire che i sistemi di intelligenza artificiale siano affidabili e rispettino i diritti fondamentali, permangono preoccupazioni sul fatto che possa raggiungere pienamente i suoi obiettivi.

Nella sua veste finale, ad esempio, l’AI Act lascia margini troppo ampi per l’utilizzo di sistemi di riconoscimento biometrico, in particolare quello facciale, negli spazi pubblici, come evidenziato nel policy paper “I rischi dell’intelligenza artificiale: analisi e raccomandazioni per l’applicazione del regolamento europeo sull’intelligenza artificiale” elaborato da Hermes Center e The Good Lobby.

Ed è proprio sul riconoscimento facciale che si è concentrato Davide Del Monte, Hermes Center: “Da subito ci siamo posti il tema del rapporto tra riconoscimento facciale e tutela dei diritti. Fino a 15 anni fa questi sistemi erano pensabili solo in contesti distanti dai valori riconosciuti dall’UE, basati sul controllo dei propri cittadini per reprimere ogni forma di dissenso, come Hong Kong e Russia. Ma farsi sfuggire il controllo di tali tecnologie è facile anche in Europa. Una volta che una tecnologia di sorveglianza trova uno spazio per essere commercializzata, la storia testimonia che questa tecnologia si diffonderà.”

Sulla genericità dei divieti la società civile europea ha espresso forti dubbi, giudicando questi parametri eccessivamente vaghi e suscettibili ad interpretazioni diverse e sottolineando come il numero di eccezioni e concessioni per i loro utilizzi sia troppo esteso.

Così Laura Ferrari, The Good Lobby: “Il governo e il parlamento si sono già mossi nel senso di adeguare il tessuto normativo per andare incontro a quanto richiesto a livello europeo. In tutte le proposte di legge incardinate vediamo i temi su cui abbiamo lavorato anche noi, ad esempio l’autorità e la sandbox. Mancano invece all’appello due temi che riteniamo cruciali per la salvaguardia dei diritti: i redress mechanisms e le garanzie che ruotano intorno alla identificazione biometrica come strumento di indagine. A partire da quest’ultima, si consideri che l’utilizzo dell’identificazione biometrica è subordinata all’autorizzazione che dovrà essere fornita da un’autorità non definita dal regolamento, e che l’autorizzazione dovrà essere notificata ad un secondo ente che deve monitorarne l’utilizzo. Chiediamo che l’autorità preposta all’autorizzazione sia l’autorità giudiziaria, l’unica con un’esperienza consolidata nel bilanciamento di diritti fondamentali ed esigenze di indagine; chiediamo, inoltre, che l’autorità incaricata della relazione annuale sia indipendente e il monitoraggio pubblico e conoscibile/trasparente. Per quanto riguarda i redress mechanisms, chiediamo che i diritti di esporre denuncia per le violazioni del regolamento e il diritto di chiedere spiegazioni chiare e significative sulle decisioni individuali siano assistiti da procedure che li rendano effettivi, fissando termini congrui e un sistema di segnalazioni e sanzioni nei confronti di coloro che si sottraggono dall’obbligo di fornire indicazioni.”

Anche Diletta Huyskes, Privacy Network si concentra sul tema della Governance: “Una parte consistente del regolamento europeo è centrato sul tema delle autorità dell’AI. Ancora oggi in Italia non esiste una governance dell’AI. Ora c’è un DDL che la identifica, ma elenca delle pratiche astratte e non dà un’idea di ciò che vogliamo fare in Italia. Come garantiamo la necessaria trasparenza ai cittadini e alle cittadine rispetto ai sistemi di IA già in uso da diverse PA, ministeri, enti pubblici e sui quali non c’è la minima consapevolezza? Come garantiamo che queste tecnologie non amplifichino le discriminazioni esistenti? Come verranno incluse cittadinanza e società civile nella partecipazione a queste decisioni? Nessun atto al momento risponde a queste domande, ma èsu questi temi che si gioca il nostro futuro umano e digitale. Sono state identificate due agenzie governative nazionali, Agid e Acn, che non garantiscono indipendenza: questo non è un problema solo rispetto al ruolo che saranno chiamate a svolgere, ma anche relativamente a tutti quei meccanismi di AI che verranno prevedibilmente proposti dal governo e su cui servirà un controllo esterno e imparziale”

La società civile ha colto l’opportunità di questo confronto per suggerire una serie di raccomandazioni a Governo e Parlamento per una trasposizione a livello nazionale del regolamento europeo che mantenga, nel rispetto dell’impianto dell’AI Act, la tutela dei diritti al centro, a partire dall’assegnazione delle funzioni e delle responsabilità dell’autorità per l’intelligenza artificiale ad un organismo indipendente, capace quindi di esercitare i propri poteri in maniera imparziale e obiettiva così come indicato dall’art 59 dell’AI ACT. Sulle caratteristiche dell’Autorità nazionale per l’Intelligenza artificiale le tre associazioni promotrici del convegno avevano già diffuso a marzo del 2024 un policy paper in cui avevano argomentato la propria proposta per la creazione di un’autorità indipendente, supportata anche da altre organizzazioni della società civile come Amnesty International Italia, Period Think e Strali, con cui hanno costituito la Rete Diritti Umani Digitali, per promuovere una regolamentazione delle nuove tecnologie e dell’intelligenza artificiale basata sul rispetto dei diritti fondamentali.

Interviene nel dibattito anche l’On. Giulio Centemero (FDI): “Un primo passo importante è educare gli stessi cittadini nel mondo del digitale: per ora abbiamo inserito il cyberbullismo nell’educazione civica, ma c’è ancora tanto da fare. Stiamo andando verso una democratizzazione del web e saremo noi stessi a decidere quali saranno le notizie libere per la circolazione. Ogni cittadino deve essere sempre consapevole di ciò che gli sta succedendo.”

Chiudono l’incontro le parole del senatore Lorenzo Basso (PD), promotore del convegno: “Condivido la preoccupazione sul tema dall’autorità. Ancor di più quello relativo al riconoscimento facciale, meccanismo paradigmatico ad altri temi simili a questo. Quello che più mi spaventa non è l’errore né il pregiudizio dell’algoritmo – perché saremo in grado di costruire dei processi di controllo che porteranno alla diminuzione del medesimo errore – bensì l’uso improprio della tecnologia. E proprio su questo aspetto esprimo anche un po’ di delusione sull’AI Act, che non ha dato molto spazio ai principi, che doveva essere una norma più dal profilo costituzionale.”