Andrea Rossetti, professore di Informatica giuridica all’Università degli Studi di Milano Bicocca e co-founder di ReD OPEN, è stato intervistato sui temi dell’evento “Responsabilità e innovazione nell’Intelligenza Artificiale” in programma il 6 ottobre nella Milano Digital Week.

Ecco un estratto dell’intervista, disponibile qui nella sua versione integrale.

Con il professore Andrea Rossetti parliamo invece di “Responsabilità e innovazione nell’intelligenza artificiale: un imperativo per il futuro digitale”, la Conferenza a cura di ReD OPEN, spin-off giuridico dell’Università che si pone l’obiettivo di valutare l’impatto dell’AI sulle persone e sulle organizzazioni, in collaborazione con la cattedra di Informatica giuridica dell’Università degli Studi di Milano-Bicocca.

Professore lei ha evidenziato l’impossibilità di ignorare il quadro normativo che rende il funzionamento di queste macchine socialmente accettabile. Ci può fare un esempio?

Il contesto è in rapida evoluzione: a breve, nel 2024, l’Unione Europea emanerà l’AI ACT, direttamente applicabile senza necessità di essere recepito dagli Stati membri. A quel punto gli esperti e i tecnici impegnati nella produzione di sistemi di intelligenza artificiale dovranno necessariamente fare i conti con una serie di previsioni per assicurare la conformità dei prodotti. A titolo esemplificativo, sarà probabilmente introdotto il divieto di utilizzare le tecnologie in grado di riconoscere le emozioni. Il riconoscimento facciale, invece, sarà presumibilmente limitato a gravi motivi di ordine pubblico. Con lo spin-off universitario ReD OPEN, abbiamo pensato il framework “ResponsAbility by Design” per valutare il grado di maturità delle organizzazioni nell’adozione di sistemi di AI, anche in vista delle previsioni dell’AI ACT e ridurre così il grado di incertezza normativa.

In che modo si pone la prossima regolamentazione sull’AI rispetto al Regolamento generale sulla protezione dei dati?

I sistemi di machine learning e deep learning possono macinare grandissime quantità di dati personali ma anche non personali, quindi al di fuori del GDPR. Si tratta di due insiemi non coincidenti, nel senso che un sistema di AI potrà anche rispettare la normativa sulla privacy e, allo stesso tempo, violare i limiti imposti all’intelligenza artificiale dall’AI ACT in base alla definizione dei rischi e, conseguentemente, dei sistemi ad alto rischio. Temi di estremo interesse anche in relazione agli investimenti industriali.

La normativa riuscirà a tenere il passo della tecnologia?

No, prevedo una rincorsa. La normativa è in ritardo ma, in certo senso, si tratta di un fenomeno naturale. Le tecnologie balzano agli occhi del legislatore e vengono regolamentate soltanto quando incidono sui rapporti sociali. L’innovazione tecnologica detterà quindi il corso della produzione normativa. Parallelamente, a livello giurisprudenziale vedremo come i giudici, nazionali ed europei in ultimo grado, applicheranno di volta in volta il dettato legislativo per colmare il gap tra tecnologia e normazione.

Cosa vi aspettate dal confronto del 6 ottobre?

Un dialogo costruttivo tra tutte le parti sociali coinvolte nel pubblico. Tratteremo questioni cruciali come la trasparenza, l’equità, la privacy e la sicurezza. Alcune delle società che abbiamo invitato a partecipare, inoltre, stanno sviluppando sistemi di AI. Per noi è molto importante comprendere anche il punto di vista di chi lavora sul campo per aiutarci a delineare scenari normativi e giuridici effettivamente congrui sul futuro che ci aspetta.

Si discuterà anche del ruolo delle politiche e delle regolamentazioni nel plasmare il futuro dell’AI e nel garantire che i suoi benefici siano equamente distribuiti. Un esempio in termini di equità?

Siamo abituati a collegare il concetto di sostenibilità al rispetto per l’ambiente. Se ragioniamo in termini di sostenibilità sociale, allora parliamo di equità. Ricordo, per citare un esempio, che in base al decreto legislativo n° 104/2022 il datore di lavoro ha il dovere di segnalare ai lavoratori i sistemi che utilizza nel trattamento dei loro dati e il lavoratore ha il diritto di richiedere la revisione di una decisione che lo riguarda se è stata determinata tramite un sistema di intelligenza artificiale. Lo sviluppo dell’AI è un fenomeno pervasivo e trasversale. Il punto è capire quale utilizzo farne, comprendendo responsabilmente i limiti e interpretando consapevolmente i risultati. Dai principi costituzionali al diritto del lavoro, dalla normativa tributaria al contesto assicurativo, non c’è branca del diritto che a breve non sarà costretta a fare i conti con i nuovi problemi legati a questo genere di innovazione.