Spesso si pensa alle nuove tecnologie, tra le quali anche l’Intelligenza Artificiale, come strumenti neutrali che si basano su calcoli matematici, senza partire dal presupposto che sono progettati da essere umani e si “nutrono” di dati elaborati dai programmatori stessi.
Le persone sono influenzate da vari fattori culturali, sociali e storici che possono volontariamente e involontariamente condizionare il loro pensiero.
Il termine esatto che spiega questo fenomeno è quello di bias, che utilizzato in vari settori, tra i quali la sociologia, la psicologia e anche l’informatica si può identificare come un’anomalia nell’output di un sistema di Intelligenza Artificiale.
Il riferimento è al principio che i data scientist chiamano garbage in garbage out in base al quale l’IA non può che riflettere la qualità dei dati su cui è costruita. Di conseguenza, alla lettura che vedrebbe l’Intelligenza Artificiale come imparziale, si deve invece sostituirne una che evidenzia e valorizza il legame tra la macchina e l’essere umano che la programma: più la connessione tra i due è stretta più i paradigmi e gli stereotipi degli esseri umani si riflettono sulla macchina.
I pregiudizi si possono manifestare in diverse modalità corrispondenti a varie tipologie di bias, individuate da vari studi. Ciò che accumuna tutti i tipi di bias è la loro capacità di inquinare i dati.
E per questo, il risultato del calcolo matematico dell’IA è spesso compromesso: se i dati in input sono influenzati e stereotipati dal pensiero umano, allora l’output generato sarà incorretto e poco rappresentativo. In generale, il problema legato ai bias è quello della selezione del dato.
Ed è proprio nella fase iniziale di scelta del data set in input che si incontrano principalmente bias: potrebbe accadere che una variabile venga omessa oppure che si commettano errori di campionamento, o ancora, se ad esempio i dati sono raccolti tramite un sondaggio, che esso sia poco rappresentativo.
Il fenomeno dei bias ha assunto sempre più importanza nel dibattito riguardo l’IA, soprattutto nella ricerca di uno strumento che possa contrastare queste distorsioni. La risposta è stata data dall’High -Level Expert Group dell’Unione Europea che ha creato il proprio modello di Impact Assessment, nel quale vi è proprio una sezione dedicata al riconoscimento e al contrasto dei bias.
È importante comunque evidenziare che i sistemi di IA possono essere pregiudizievoli non perché il sistema sia di per sé “cattivo”, ma perché ereditano comportamenti sbagliati che poi ripetono attraverso la contaminazione del bias.
Anche le istituzioni europee, durante i lavori ai provvedimenti che riguardano l’IA, si sono accorte che il tema della protezione dei dati possa fare da riferimento per quanto riguarda i principi da applicare ai nuovi regolamenti.
Seguendo infatti quanto insegnato dai considerando del GDPR e dai principi che ne hanno fatto la legislazione di riferimento sul tema privacy a livello globali, si sta lentamente propagando l’idea che valutazione dell’impatto dell’IA e protezione dei dati siano due binari destinati inevitabilmente ad incontrarsi.
E anche di questi aspetti parleranno gli speaker del Bicocca Privacy Day, evento in programma il 26 gennaio 2023