Chat-GPT e le nuove forme di ingegneria inversa della mente (artificiale)

Un contributo di Marco Fasoli, ricercatore e filosofo della tecnologia.



L’obiettivo delle scienze cognitive
è stato spesso caratterizzato in termini di reverse engineering, o ingegneria inversa. Piuttosto di cercare di progettare un sistema – come farebbe un ingegnere – questa pratica prevede di intraprende il percorso concettuale opposto: a partire da un sistema già dato in partenza – nel caso delle scienze cognitive, il cervello umano – si cerca di smontarlo e di comprenderlo, per poi eventualmente ricostruirne la struttura (per esempio attraverso la IA).

Ora, nel caso dei nuovi sistemi di IA generativa come Chat GPT, basati sul deep learning, l’impressione è che questa tipologia di operazione di ingegneria inversa sia abbastanza ricorrente, a diversi livelli. Tra gli stessi programmatori, praticano ingegneria inversa nella misura in cui cercano di violare quell’oscura black box dalla quale tutti risultati traggono origine, e dentro la quale si nascondono potenziali bias e distorsioni che essi tentano di disinnescare.

“Ma come” – potrebbe obiettare un non specialista – “non l’hanno progettata loro l’intelligenza artificiale”? Eh si, dovremmo rispondere, ma questo è il bello (e il brutto?) del deep learning, la tecnologia alla base di molte nuove applicazioni di IA. Un sistema a rete neurale caratterizzato da una struttura a rete relativamente semplice (o meglio, apparentemente complicata ma non così complessa), dentro la quale, attraverso l’apprendimento statistico, si originano delle logiche che non sono immediatamente individuabili (cioè trasparenti) nemmeno ai programmatori stessi e che si cerca in diversi modi di individuare.

A livello dei singoli utenti, invece, una sorta di ingegneria inversa prende corpo in una forma più intuitiva e meno strutturata, ma non per questo meno interessante. L’obiettivo, in questo caso, è mettere a fuoco questo nuovo tipo di sistemi attraverso una serie di prove e tentativi per capire, molto pragmaticamente, come utilizzarli e sfruttarli per fini personali. Che cosa è veramente bravo a fare Chat-GPT e come può essere sfruttato al meglio? Se gli chiedo di inventare una nuova ricetta a partire da alcuni ingredienti dati, avrò un risultato interessante? E invece gli do in pasto i dati del mio sport-watch per chiedergli di costruirmi una nuova tabella di allenamento? Quando invece affidarsi a questi sistemi è inutile o rischia di essere addirittura pericoloso? In questo senso sembra essere fondamentale la nostra capacità di individuare delle tessere di questo puzzle assai opaco che assieme compongono i sistemi di IA generativa.

Analogamente, una sorta di ingegneria inversa viene messa in atto quando, a partire dai risultati che Chat-GPT ci offre, cerchiamo di intuire quali sono i dati che gli sono stati dati in pasto nel processo di addestramento. Qual è la base di dati da cui questo sistema va a pescare per elaborare le sue risposte?

Tanto più saremo in grado di fare questo tipo di operazioni mentali, che la tecnologia forse per la prima volta ci pone davanti, quanto più riusciremo ad approfittare della IA generativa nel futuro, in modo creativo, riducendo i rischi legati al fraintendimento di quello che, davvero, essa è.

Ascolta qui il podcast per approfondire i temi trattatati dalla filosofia della tecnologia