L’Alto Commissario delle Nazioni Unite per i diritti umani Michelle Bachelet richiama l’attenzione sui rischi che possono derivare dall’utilizzo improprio dell’Intelligenza Artificiale. “L’AI può essere una forza positiva, aiutando le società a superare alcune delle grandi sfide dei nostri tempi. Ma può anche avere effetti negativi, persino catastrofici, se utilizzata senza tenere in sufficiente considerazione i diritti umani delle persone”.
Bachelet esprime preoccupazione per il “livello senza precedenti di sorveglianza in tutto il mondo da parte di attori statali e privati”, attività da lei definite “incompatibili” con i diritti umani. Un fenomeno che è stato in questo ultimo periodo amplificato dal caso Pegasus che ha rivelato l’uso diffuso dell’omonimo spyware, commercializzato dal gruppo NSO, per la sorveglianza di migliaia di persone – in particolare giornalisti, avvocati e avvocati – impegnate in attività per il rispetto dei diritti umani. Come affermato nella sua inchiesta il giornale inglese The Guardian, Pegasus ha permesso di mettere in atto un sistema permanente di controllo da parte di governi autoritari. Tra i paesi che hanno fatto uso di questo servizio: Azerbaijan, Baharain, Kazakhstan, Messico, Marocco, Rwanda, Arabia Saudita, Ungheria, India ed Emirati Arabi Uniti.
Nel rapporto pubblicato dall’OHCHR (Office of the High Commissioner for Human Rights) si evidenzia come l’intelligenza artificiale comprometta il diritto delle persone alla privacy, inclusi i diritti alla salute, all’istruzione, alla libertà di movimento, alla libertà di riunione e associazione pacifica e alla libertà di espressione. Il documento include anche un’analisi dei processi decisionali automatizzati e delle tecnologie di apprendimento automatico ormai ampiamente utilizzati da stati e imprese private. La situazione è “davvero grave” ha affermato Tim Engelhardt, responsabile dei diritti umani, sezione Stato di diritto e democrazia, in occasione del lancio del rapporto a Ginevra. La situazione “non è migliorata negli anni, ma è peggiorata”.
Pur accogliendo “l’accordo dell’Unione Europea per rafforzare le regole sul controllo” e “la crescita degli impegni volontari internazionali e dei meccanismi di responsabilità”, Engelhardt ha avvertito che “si deve agire con la massima tempestività. Le decisioni devono essere prese ora o molte persone nel mondo pagheranno un prezzo alto. Non si tratta di un rischio futuro, ma della realtà di oggi. Senza cambiamenti di vasta portata, i danni si moltiplicheranno rapidamente”.
Secondo il rapporto, ci sono stati numerosi casi di persone trattate ingiustamente a causa di un uso improprio dell’Intelligenza Artificiale, come la negazione dei benefici della sicurezza sociale a causa dell’utilizzo di algoritmi discriminatori. Non rari, inoltre, i casi di arresti provocati da software di riconoscimento facciale difettoso. Il documento descrive in dettaglio come i sistemi di Intelligenza Artificiale si basino su grandi set di dati, con informazioni sugli individui raccolte, condivise, unite e analizzate in modi spesso poco trasparenti.
Nel report si ricorda come i dati utilizzati per informare e guidare i sistemi di intelligenza artificiale possono essere difettosi e discriminatori. Non solo, si afferma come questi dati vadano poi a rappresentare un permanent record: “l’archiviazione a lungo termine dei dati comporta rischi particolari, poiché i dati potrebbero in futuro essere sfruttati in modo arbitrario” .
Secondo l’OHCHR, data la rapida e continua crescita dell’IA, colmare l’immenso divario di responsabilità nel modo in cui i dati vengono raccolti, archiviati, condivisi e utilizzati è una delle questioni più urgenti sui diritti umani che si deve affrontare. Dati distorti che vengono utilizzati da sistemi AI possono portare a decisioni discriminatorie, soprattutto per le persone più emarginate. Questo è il motivo per cui si ritiene necessaria una valutazione e un monitoraggio sistematico degli effetti dei sistemi di Intelligenza Artificiale per identificare e mitigare i rischi per i diritti umani.
Il documento evidenzia anche la necessità di una maggiore trasparenza da parte delle aziende e degli Stati nel modo in cui stanno sviluppando e utilizzando l’IA. “La complessità dell’ambiente dei dati, degli algoritmi e dei modelli alla base dello sviluppo e del funzionamento dei sistemi di intelligenza artificiale, nonché la segretezza intenzionale del governo e degli attori privati che la utilizzano, sono fattori che impediscono di comprendere gli effetti dei sistemi di intelligenza artificiale sui diritti umani e sulla società”.