Per ReD OPEN esistono alcuni principi fondamentali nello sviluppo e nell’adozione di un sistema di Intelligenza Artificiale. Con questa espressione intendiamo un sistema in grado di elaborare grandi quantità di dati in maniera “intelligente”, con strumenti e metodi di Machine Learning, per analizzarli, identificare in essi schemi latenti e fornire un supporto decisionale a chi raccoglie o usa questi dati per produrre valore aggiunto per sé o i propri clienti.
Per questo motivo, la comprensione, e quindi la spiegabilità dell’IA (Explainable AI – XAI), è sicuramente uno dei principi fondamentali a cui facciamo riferimento sopra.
L’Intelligenza Artificiale deve operare secondo logiche che siano sempre comprensibili all’essere umano, o quanto meno, deve poter giustificare e spiegare i propri suggerimenti in maniera facilmente comprensibile così che il suo utente non si affidi ad essa eccessivamente o ciecamente e mantenga così la propria autonomia decisionale e la propria capacità di fornire spiegazioni alla persona (data subject) a cui certe decisioni si applicano.
L’autonomia decisionale di un’organizzazione non può prescindere dalla piena comprensione delle logiche dell’Intelligenza Artificiale di nuova generazione, e cioè delle principali assunzioni, meccanismi e limiti che riguardano il processo di sviluppo e l’operatività di tali sistemi; e questa comprensione deve essere fondata su valori di trasparenza e responsabilità soprattutto relativamente alle ragioni che hanno condotto a certe scelte e determinati risultati.
Se si parla di responsabilità personale associata alle azioni dell’AI/ML, allora dobbiamo tenere presente che le persone non possono essere sostituite dalle macchine, ma che possono sfruttarne il potenziale e trarne vantaggio per migliorare le proprie capacità analitiche e predittive.
Un altro principio cardine nello sviluppo di un sistema di Intelligenza Artificiale di nuova generazione dovrebbe essere l’assenza di bias o, quantomeno, la mitigazione sistematica delle possibili conseguenze di eventuali distorsioni o lacune di rappresentatività presenti nei dati usati per l’addestramento (cioè lo sviluppo) di questi sistemi.
Un’intelligenza artificiale “equa” (fair) deve includere controlli interni ed esterni per ridurre i pregiudizi discriminatori e deve essere progettata in modo da seguire un processo capace di prendere decisioni non affette da tali pregiudizi.
L’Intelligenza Artificiale guarda al futuro, ma si basa su dati che sono un riflesso della nostra storia, e quindi il passato permane nei nostri algoritmi, mettendo in mostra e portando avanti le disuguaglianze che ci sono verificate in un determinato contesto.
È triste ammettere come il bias non sia altro che il riflesso, potenziato dalla capacità di calcolo di un sistema di AI e legittimato dal suo output, di un pregiudizio che più o meno consapevolmente è stato veicolato al suo interno da chi ha inserito le informazioni nella macchina.
L’UE e gli stati membri stanno iniziando ad esplorare la direzione di un’IA priva di bias e completamente spiegabile attraverso una serie di linee guida e raccomandazioni, segnali di una vera e propria regolamentazione, assimilabile a quella prodotta per il trattamento dei dati personali (GDPR).
Noi aggiungiamo che questi sistemi dovranno essere usabili dall’uomo, e non dovranno sostituirlo, in conformità con quanto previsto dall’Agenda dell’ASVIS sulla sostenibilità, in questo caso umana, e con i principi di responsabilità sociale cui ci ispiriamo costantemente.
Per ricevere la versione estesa dell’articolo e rimanere aggiornati compila il modulo qui sotto.
Photo by Brett Jordan on Unsplash