giovedì, Dicembre 3, 2020
CERVELLI ARTIFICIALI

Riconoscimento facciale, il diritto di non essere osservati

Negli ultimi anni gli occhi elettronici hanno migliorato in modo impressionante la loro accuratezza: oggi una macchina è in grado di riconoscere un volto meglio di un essere umano. Tutto il mondo si sta interrogando sui confini di questa tecnologia e una delle ipotesi sul tavolo è la privacy by design: progettare dispositivi mantengano in memoria i nostri dati per un periodo limitato di tempo.

“L’intelligenza artificiale è come l’elettricità: pervade qualsiasi spazio della società. Così come non possiamo immaginare un mondo senza elettricità, è utopistico pensare di eliminare l’AI dal nostro quotidiano”. Parola di Amedeo Santosuosso, professore di Legge, Scienza e Nuove tecnologie al dipartimento di Giurisprudenza dell’università di Pavia e, fino all’anno scorso, presidente della Prima sezione della Corte d’appello di Milano.

Diritti e nuove tecnologie sono ambiti che si compenetrano: “Il diritto viene cambiato in causa non appena c’è qualcosa che non funziona nell’AI – sorride il giurista –. Presto, però, ci si rende conto che il livello nazionale non basta ed ecco quindi iniziative come il regolamento europeo sulla privacy, che è diventato un punto di riferimento a livello internazionale”.

Il vero problema nasce quando entrano in gioco le grande aziende tecnologiche, accusate di avere una posizione dominante nel mercato e costituire veri e propri monopoli. “Qui è molto complesso agire, se si resta ancorati ai confini territoriali – ragiona Santosuosso – Anche prendendo come esempio un Paese come gli Stati Uniti, si tratta di realtà difficilmente regolabili: basta infatti un cambio di sede per vanificare qualunque sforzo”.

Per il giurista serve quindi un cambiamento di paradigma: “Un tentativo interessante è quello portato avanti dall’università del Berkman Center in collaborazione con uno dei padri fondatori del web: Tim Berners-Lee”. L’idea è quella della privacy by design, un obbligo a carico dei costruttori affinché progettino macchine “eque”, che per esempio non conservino troppo a lungo i dati raccolti. “Un esempio classico riguarda le videocamere che riprendono luoghi pubblici – spiega Santosuosso – In questo caso potrebbero essere costruite in modo che i dati si cancellino dopo 24 ore. Questo permetterebbe per esempio di monitorare un incrocio con un alto numero di incidenti, ma allo stesso tempo garantirebbe la privacy di chi transita sulla strada. Il rischio viene quindi anticipato e neutralizzato tecnologicamente”.

Riconoscimento facciale

Proprio gli occhi elettronici sempre più presenti nel nostro quotidiano sono uno degli aspetti di frontiera dell’intelligenza artificiale e dei diritti digitali. Le macchine più evolute, infatti, contengono software in grado di effettuare il riconoscimento facciale misurando i nostri parametri biometrici. In Italia non esiste nessuna legge che ne regolamenti il funzionamento, eppure alcune città, come Como, hanno acquistato e istallato queste macchine, non senza pasticci.

“Il riconoscimento facciale è esploso negli ultimi due anni” ricorda Santosuosso. “Tra il 2017 e il 2018 la velocità di addestramento di un algoritmo per il riconoscimento delle immagini è aumentata di ben 16 volte e il tasso di errore di etichettatura automatica delle immagini si è ridotto, passando dal 28% del 2010 a meno del 3% di questi ultimi anni”. Se si pensa che gli esseri umani sbagliano a riconoscere un volto nel 5% dei casi, capiamo quanto il problema sia rilevante.

L’identikit di un sospetto, cioè il processo di identificazione di una persona che potrebbe aver compiuto un crimine, un tempo avveniva confrontando una foto con i database della polizia. Oggi questa comparazione viene effettuata con qualunque immagine si trovi online. “Questo pone almeno due problemi, entrambi piuttosto seri – riassume Santosuosso –. Il primo riguarda l’affidabilità del riconoscimento, che è molto elevata ma contiene dei bias di cui bisogna essere consapevoli. Per esempio, gli algoritmi funzionano meno bene con le persone più giovani o con quelle di colore”. Il secondo riguarda invece i database: “Oggi il raffronto può avvenire con tutto ciò che è disponibile, dalle immagini che le persone caricano sui siti di incontri a quelle registrate dalle telecamere durante manifestazioni pubbliche pacifiche. Che queste immagini possano essere usate come raffronto in un processo penale pone delle limitazioni al diritto di difesa e a quello di manifestazione di pensiero”.

Minority Report

In queste settimane è venuto alla luce un sistema quantomeno controverso di tracciamento dei sospetti nella capitale argentina. Dal 2009 nel Paese esiste Conarc (Consulta Nacional de Rebeldías y Capturas), un database che riporta le informazioni di alcune persone sospettate di reati, tra cui compaiono anche diversi minori. Il sistema ha diversi problemi: fino all’8 ottobre è stato pubblico e accessibile grazie a una semplice ricerca su Google (il risultato è ancora indicizzato, anche se la pagina è stata cancellata). Inoltre, prevede l’interazione con le telecamere presenti a Buenos Aires che effettuano riconoscimento facciale. Partendo dalla foto del documento d’identità, la polizia sta quindi arrestando le persone che vengono “riconosciute” dalle telecamere della metropolitana. Oltre a essere un sistema ai limiti della legalità, comporta anche una serie di errori.

Human Rights Watch, un’organizzazione non governativa che si occupa di diritti umani, ha recentemente denunciato l’inserimento sistematico in questa lista di minorenni spesso colpevoli di piccoli furti. Nonostante le macchine identifichino con più difficoltà le persone giovani (perché cambiano più velocemente e perché le macchine sono allenate soprattutto usando foto di adulti) al momento non sembrano esistere protocolli per correggere gli algoritmi o i metodi d’intervento delle forze dell’ordine.

Un’immagine è per sempre

In assenza di leggi specifiche, quindi, ogni nostra immagine caricata online o catturata a nostra insaputa nei luoghi pubblici entra a tempo indeterminato in un database che non è chiaro da chi possa essere consultato e per quali scopi.

E non si tratta solo di preoccupazioni teoriche: un rapporto della Commissione europea uscito a settembre individua il riconoscimento facciale come qualcosa sulla cui legittimità giuridica è necessario riflettere.

Santosuosso sottolinea come una ricerca di mercato abbia stabilito che il mancato successo di tecnologie come i Google glasses sarebbe dovuto anche alla volontà delle persone di non farsi riprendere a propria insaputa. “Reazioni di questo tipo sono anticorpi che andrebbero valorizzati, fermo restando la libertà di ricerca in ambito tecnologico. Le persone non vogliono essere controllate” afferma l’esperto. “Oggi cittadini e amministrazioni pubbliche sono abbastanza attenti a questi aspetti”.

L’Italia, per Santosuosso, è un po’ in controtendenza: “Lo noto per esempio durante la mia attività di docente: nonostante i ragazzi siano immersi nella tecnologia, spesso si rendono conto della sua memoria solo nel momento in cui sono alla ricerca di un lavoro – racconta – Scoprono così che le aziende possono sfogliare il loro passato online. Esistono servizi che a fronte del pagamento di un abbonamento restituiscono all’utente tutte le informazioni che esistono online su una certa persona. La consapevolezza digitale va costruita a poco a poco, affinché poi si possa decidere scientemente che strategia adottare”.


Leggi anche: Robot alla conquista dei social network

Articolo pubblicato con licenza Creative Commons Attribuzione-Non opere derivate 2.5 Italia.   

Immagine: Pixabay

1 Comment

Rispondi

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Michela Perrone
Appassionata di montagna e di tecnologia, scrivo soprattutto di medicina e salute. Curiosa dalla nascita, giornalista dal 2010, amo raccontare la realtà che mi circonda con articoli, video e foto. Freelance dentro e fuori, ho una laurea in Comunicazione e un master in Comunicazione della Scienza.
%d blogger hanno fatto clic su Mi Piace per questo: