Per combattere la discriminazione e garantire la privacy, i deputati chiedono forti salvaguardie quando gli strumenti di intelligenza artificiale sono utilizzati dalle forze dell’ordine
6.10.2021 In una risoluzione adottata da 377 a favore, 248 contro e 62 astenuti, i deputati sottolineano il rischio di pregiudizi algoritmici nelle applicazioni che usano l’Intelligenza Artificiale (IA) e affermano che la supervisione umana e un chiaro quadro giuridico sono necessari per prevenire tali discriminazioni, soprattutto se utilizzate dalle forze dell’ordine e di controllo delle frontiere. Le persone monitorate dai sistemi alimentati dall’IA devono avere accesso a ricorsi, aggiungono i deputati.
Nel testo approvato si afferma che molte tecnologie di identificazione in uso già commettono un numero sproporzionato di errori di identificazione e di classificazione, danneggiando soprattutto le persone che appartengono a determinati gruppi razziali o etnici, le persone LGBTI, i bambini, gli anziani e le donne, situazione particolarmente preoccupante nel contesto delle operazioni delle forze dell’ordine e della magistratura. Per garantire il rispetto dei diritti fondamentali, gli algoritmi dovrebbero essere trasparenti, tracciabili e sufficientemente documentati, chiedono i deputati, e le autorità pubbliche dovrebbero divulgare le loro applicazioni come software open-source.
Per rispettare la privacy e la dignità umana, i deputati chiedono un divieto permanente dell’utilizzo del riconoscimento automatico delle persone negli spazi pubblici, notando che i cittadini dovrebbero essere monitorati solo se sospettati di un crimine. Il Parlamento chiede di vietare anche l’uso di banche dati private di riconoscimento facciale (come il sistema Clearview AI, banca dati di oltre tre miliardi di immagini raccolte illegalmente dai social network, già in uso) e la polizia predittiva basata sui dati comportamentali.
I deputati chiedono anche di vietare i sistemi di punteggio sociale, che cercano di valutare l’affidabilità dei cittadini in base al loro comportamento o personalità.
Infine, il Parlamento è preoccupato dall’uso di dati biometrici per identificare a distanza le persone. Per esempio, i cancelli di controllo alle frontiere che utilizzano il riconoscimento automatico e il progetto iBorderCtrl (un “sistema intelligente di rilevamento delle bugie” per l’ingresso dei viaggiatori nell’UE) non dovrebbero essere più utilizzati, dicono i deputati, che sollecitano la Commissione ad aprire procedure di infrazione contro gli Stati membri, se necessario.
Il relatore Petar Vitanov (S&D, BG) ha detto: “Stiamo inviando un chiaro segnale che i diritti fondamentali sono incondizionati. Per la prima volta in assoluto, chiediamo una moratoria sul dispiegamento dei sistemi di riconoscimento facciale per scopi di applicazione della legge, poiché la tecnologia ha dimostrato di essere inefficace e spesso porta a risultati discriminatori. Ci opponiamo chiaramente alla polizia predittiva basata sull’uso dell’IA, così come a qualsiasi elaborazione di dati biometrici che porti alla sorveglianza di massa. Questa è una grande vittoria per tutti i cittadini europei”.