La rapida diffusione del Covid-19 ha portato i governi di molti paesi ad adottare misure di protezione individuale per i cittadini, tra cui l’obbligo di indossare le mascherine.
Questi provvedimenti hanno avuto ripercussioni anche nel campo dell’utilizzo dei dati biometrici: i sempre più diffusi dispositivi che autorizzano l’accesso degli utenti facendo uso del riconoscimento facciale, esempio tipico di dato personale biometrico anche nella definizione resa dal GDPR (art. 4 par. 1 n. 14), faticano a individuare il volto di chi tenta di accedere e sono costretti pertanto a richiedere processi di autenticazione alternativi.
Lo stesso problema, su scala ben più grande, si sta riscontrando nell’utilizzo di sistemi di sorveglianza anch’essi basati sul riconoscimento facciale.
L’utilizzo di questi sistemi ,ad oggi, non è ancora adeguatamente regolamentato in Europa, fatto salvo che tramite le linee guida dell’EDPB sulla videosorveglianza e una diffida del Parlamento Europeo a sospendere le attività di identificazione mediante riconoscimento facciale, vocale o del dna. Tuttavia, nonostante lo stallo normativo, il loro impiego ha preso largamente piede negli aeroporti e nell’ambito di progetti di “città connesse” (o “smart city”).
I sistemi di questo tipo funzionano grazie all’interazione tra i tradizionali circuiti di videosorveglianza e programmi di Intelligenza Artificiale, che elaborano le registrazioni raccolte e consentono di individuare, ad esempio, i volti dei passanti o le targhe delle automobili.
L’improvvisa introduzione delle mascherine nella quotidianità di gran parte della popolazione ha stravolto questi processi e, in particolare, gli algoritmi grazie a cui possono dare output attendibili, i quali non sono ancora in grado di adattarsi al cambiamento: il loro grado di precisione nell’identificazione del volto è di conseguenza drasticamente calato. Un recente studio del NIST ha rilevato come, a seconda del sesso, delle caratteristiche fisionomiche e del tipo di mascherina indossata dai soggetti inquadrati, la percentuale di accuratezza di un sistema di riconoscimento facciale potrebbe addirittura dimezzarsi.
Per queste ragioni alcune società stanno lavorando a nuovi sistemi che tengano in considerazione, in fase di elaborazione per associare i volti delle persone riprese a quelli già presenti nei loro database, parametri differenti rispetto agli algoritmi “pre-Covid”.
Soprattutto in paesi come gli Stati Uniti, dove lo sfruttamento di sistemi di riconoscimento facciale è alla base delle attività investigative, è iniziata una vera e propria corsa contro il tempo per avere un sistema funzionante e con soglie di errore che siano accettabili. Negli USA, infatti, l’FBI consente agli stati di accedere al proprio database in cambio della condivisione dei loro registri di riprese e immagini proprio per ottenere un maggior bacino da cui poter attingere per identificare, qualora fosse necessario, potenziali sospetti per mezzo delle immagini raccolte.
Non mancano le città che si stanno opponendo a questo sistema: San Francisco, Oakland e Cambridge hanno vietato i circuiti di telecamere di videosorveglianza negli spazi pubblici. Inoltre, alcuni senatori, esponenti del partito democratico, hanno recentemente proposto l’adozione del BIPA (National Biometric Information Privacy Act), una legge che permetterebbe ai soggetti i cui dati biometrici siano acquisiti o trattati senza un esplicito consenso di fare immediatamente causa all’azienda che li acquisisce.
Photo by Alex Iby on Unsplash