Negli Stati Uniti da qualche settimana è in vendita Halo, il nuovo progetto per il “benessere psicofisico” di Amazon.

Halo è un braccialetto “smart” privo delle caratteristiche diffuse nella maggior parte dei competitor – come ad esempio moduli wi-fi e gps – ma non per questo meno invasivo, che funziona grazie ad un’applicazione che consente all’utente di sfruttare appieno le potenzialità del bracciale (e non solo).

Secondo le informazioni fornite da Amazon, le principali funzioni introdotte con la band sono due: la prima, resa possibile grazie a due microfoni integrati, consiste nella registrazione vocale e nel riconoscimento delle emozioni basato sul tono della voce e sull’utilizzo di termini che veicolano stati d’animo, come “felice” o “triste”. L’emotion detection è l’insieme delle elaborazione dei dati da parte di un sistema di Intelligenza Artificiale per determinare lo stato d’animo di un utente: nel caso di Halo, si basa sulle registrazioni vocali acquisite dal bracciale.

La seconda abilità di Halo è quella di effettuare una scansione corporea, in grado di determinare con estrema precisione l’indice di massa grassa, grazie all’utilizzo della fotocamera tramite l’app dedicata.

Queste attività sono rese possibili dall’acquisizione di un’enorme mole di dati, soprattutto dati particolari (ex. art. 9 GDPR) in quanto relativi alla salute dell’interessato, e dalla loro elaborazione tramite sistemi di Intelligenza Artificiale.

Sorge spontanea una prima domanda: come saranno protetti i dati particolari acquisiti, e cosa ne verrà fatto dopo che avranno espletato le loro funzioni?

Amazon garantisce l’anonimizzazione dei dati e la facoltà per l’utente di cancellarli, e specifica che saranno sempre crittografati in ogni spostamento dal bracciale all’applicazione e dall’applicazione al cloud.

Più nello specifico, in un whitepaper1 dedicato, Amazon distingue le registrazioni vocali, elaborate esclusivamente in locale dopo essere state trasferite dalla band all’app via bluetooth, dai dati relativi alla scansione corporea, inviati crittografati al cloud e rielaborati, per poi essere eliminati entro 12 ore, senza che nessuno li abbia visti, e senza essere sfruttati per ottimizzare i sistemi di machine learning.

Di fronte a queste affermazioni, però, lo scetticismo è giustificato: quando nel 2016 veniva lanciato sul mercato Alexa, l’assistente vocale integrato nei dispositivi IoT, Amazon forniva lo stesso tipo di garanzie. Le registrazioni sarebbero state cancellate dopo pochi giorni e, in seguito ad un processo di anonimizzazione, utilizzate solo per migliorare la precisione del riconoscimento vocale dei dispositivi.

Da quel momento però non sono mancati i segnali per sospettare di un utilizzo diverso delle registrazioni acquisite tramite Alexa. Basti pensare alla Human Review, l’attività di migliaia di dipendenti Amazon impegnati nella trascrizione delle registrazioni trasmesse loro dall’assistente vocale. Nel giugno 2019 poi, in risposta ad alcune domande del senatore americano Christopher A. Coons2, è emerso come per alcune categorie di dati – e tra queste, quella che prevedeva l’interazione di Alexa con applicazioni di terze parti- l’utente non fosse autorizzato a richiedere la cancellazione. Quegli stessi dati, come specificato da Brian Huseman, vicepresidente di Amazon, erano necessari per il miglioramento dei sistemi di machine learning.

Con Halo, il colosso statunitense sembra, quindi, voler dare all’utente un pieno controllo sui propri dati, ma ancora una volta non vi è alcuna garanzia che non esistano o subentrino deroghe o eccezioni.

Un altro aspetto che suscita preoccupazioni riguarda i possibili utilizzi futuri dei dati acquisiti e, soprattutto, delle loro rielaborazioni.

L’emotion detection tramite registrazioni vocali potrebbe rivelarsi un pregiudizio in ambienti investigativi o processuali: apprendere che un indagato abbia manifestato rabbia nel periodo di tempo successivo ad un omicidio, ad esempio, potrebbe essere un elemento fortemente discriminante nella valutazione di una giuria.

Nonostante manchi un consenso scientifico per poter giudicare l’accuratezza di queste elaborazioni3 , è innegabile che informazioni del genere, se divulgate o richieste da agenzie federali, assumano tutt’altro valore rispetto a quanto prevedibile dall’interessato.

Inoltre, per migliorare la precisione dei sistemi di AI incaricati di analizzare ed elaborare le registrazioni, è noto che l’acquisizione di un maggior numero di registrazioni svolga un ruolo centrale.

Il riconoscimento delle emozioni, infatti, non segue processi generici e ripetibili: a seconda delle abitudini e della propria cultura, infatti, le persone possono sia reagire con emozioni contrapposte ad uno stesso evento, sia manifestare lo stesso stato d’animo con un tono di voce o un’espressione tutt’altro che simile. Per poter effettuare un’analisi attendibile, uno strumento come Halo avrebbe bisogno di conservare ed elaborare quante più registrazioni possibili.

Infine, la scansione 3D della massa corporea, tramite rielaborazioni per mezzo di sistemi di AI, consente di prevedere la predisposizione a malattie e di calcolare approssimativamente l’aspettativa di vita di persone che condividono abitudini, provenienza, peso e altezza.

Lo scenario a cui potremmo andare incontro è quello di una multinazionale che potrà presto decidere di vendere polizze assicurative, anche sulla vita delle persone, e in questo modo il prezzo dei premi ne risentirebbe, così come se gli stessi dati finissero in mano alle banche, risultando decisivi, ad esempio, nella valutazione di erogare o meno un prestito decennale ad una persona che ha caratteristiche in comune con chi è già stato etichettato con un’aspettativa di vita di cinque anni.

Che la profilazione sia un rischio è un pensiero condiviso, ma che possa essere eccessivamente pericolosa se basata su questo tipo di dati, è quasi certo.

Al momento non sappiamo se e quando Halo farà il suo debutto sul mercato europeo, ma in quel momento sorgerà un ulteriore problema: con la dichiarazione di invalidità del privacy shield, e con la convinzione che le Clausole Contrattuali Standard (SCC) da sole non possano rimpiazzarlo, come sarà giustificato un trasferimento dei dati acquisiti ad Amazon? La protezione offerta a queste categorie di dati sarà adeguata alla loro particolarità?

Non ci resta che attendere gli sviluppi del progetto per poter valutare più realisticamente potenziali rischi e impatti sulla quotidianità di tutti noi.

1 Amazon Halo privacy whitepaper, Agosto 2020

2 Huseman B., Amazon Senator Coons’ response letter, Washington D.C., luglio 2019

3 Si segnala a riguardo AI Now Institute, AI Now 2019 Report, New York, dicembre 2019

Photos by Morning Brew on Unsplash