A.I.: AHI, AHI, SARANNO GUAI?
L’intelligenza artificiale propone nuovi scenari per un futuro già in parte presente
di Carlo Dellabella
Come siamo finiti in questo pericoloso pasticcio?
Messa da parte da tempo e praticamente fallita la cibernetica, la scienza teorica e applicata che si prefiggeva la realizzazione di dispositivi e macchine capaci di “simulare” le funzioni del cervello umano, abbiamo preso una “scorciatoia”.
Come spiega Nello Cristianini, professore di Intelligenza Artificiale all’Università di Bath nel Regno Unito, nel suo importante saggio che titola appunto La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano (Il Mulino, 2023).
Le nostre “creature” sono diverse da noi e quasi sempre più performanti: vagliano curricula, concedono mutui, scelgono le notizie che leggiamo e oggi, sempre più, tanto altro: le macchine intelligenti sono entrate nelle nostre vite, ma non sono come noi. Fanno quasi tutte le cose che volevamo, e anche molte di più, ma non possiamo capirle o ragionare con loro, perché il loro comportamento è in realtà guidato da relazioni statistiche ricavate da quantità sovrumane di dati.
I dispositivi di IA non “capiscono” quello che dicono o scrivono: ripetono quello che hanno imparato durante l’addestramento, da pappagalli stocastici.
Circa un’ipotetica “parentela” con i nostri cervelli, le neuroscienze sono giunte ad una conclusione simile. Ci divide (per ora?) un fossato invalicabile: non solo noi abbiamo un corpo, ma soprattutto il nostro cervello “sa” di avere un corpo, da cui non può essere disconnesso senza subire disfunzioni: ne è costantemente consapevole grazie a precise somatomappe cerebrali.
L’aveva già intuito Spinoza, ci ricorda il famoso neuroscienziato Antonio Damasio nel suo documentato studio Alla ricerca di Spinoza (Adelphi, 2003). «Non avremo mai una spiegazione della nostra mente – spiega – se la consideriamo solo in relazione al cervello. La mente esiste per il corpo, è impegnata a raccontare la storia degli eventi che interessano il corpo».
E i segnali che da ogni cellula del corpo giungono al cervello sono complessi e sfumati: non si tratta di 0-1 oppure on-off come in un pc. Per cui no body no mind, niente corpo niente mente (in senso umano).
La domanda allora è: se i dispositivi artificiali dotati di intelligenza lo sono in maniera così “altra” rispetto alla nostra, come incorporarli nella nostra società senza rischi ed effetti collaterali? Eric Sadin, uno dei maggiori critici della rivoluzione digitale, da tempo lancia l’allarme.
Stiamo assistendo ad un cambiamento di status delle tecnologie digitali: sistemi che arrivano a generare testi, immagini e suoni (l’IA cosiddetta generativa). Un esempio, fra tanti: “libri” scritti dall’IA e venduti su Amazon. Fino ad arrivare ai deepfake: foto, video, audio prodotti dall’IA, che partendo da contenuti reali ricreano fedelmente le caratteristiche di un volto, i movimenti di un corpo, il suono di una voce (vittima recente Biden). In generale, in molti campi sistemi di IA sono in grado di svolgere più rapidamente e in modo più efficace compiti che fino ad ora venivano assegnati a persone. Da qui la sollevazione di protesta degli sceneggiatori di Hollywood che hanno visto in pericolo il loro lavoro. Ma la lista delle professioni a rischio potrebbe allungarsi: giornalisti, grafici, traduttori.
Sadin ci aveva già messo in guardia con uno studio ambizioso, uscito nel 2019 per la Luiss University Press: Critica della ragione artificiale. In sostanza l’autore attribuiva alle nuove tecnologie digitali una sorta di “potenza aletheica”, il potere cioè di enunciare la verità, in quanto in grado di valutare il reale in modo più affidabile di noi. Paventava anche l’avvento di un tempo esponenziale, scandito dalle tecnologie digitali, che rende secondario il tempo umano necessario alla comprensione e alla riflessione. Conclusione: l’IA erode progressivamente la nostra capacità di giudizio e di azione.
Per far fronte a tali pericoli l’UE ha recentemente varato un AI ACT , primo quadro giuridico al mondo sull’intelligenza artificiale, che si prefigge il compito di garantire in Europa la sicurezza e i diritti delle persone e delle imprese. L’ideatrice Lucilla Sioli su La Stampa del 9/4usa parole rassicuranti: «Non c’è da temere, queste tecnologie per ora si limitano a calcolare possibilità». Sadin non si fida, è convinto che ci voglia ben altro, e addirittura invita alla sollevazione per proteggere quello che ci resta di “umano”.
Il filosofo francese esagera? Può essere, ma negli ultimi anni è successo qualcosa di nuovo e sorprendente. Lo spiega molto bene lo stesso Cristianini in Machina sapiens, (Il Mulino, 2024). Tutto è cominciato con i problemi che poneva la traduzione automatica, per soddisfare la quale sono stati creati potenti algoritmi capaci di generare modelli di linguaggio sempre più sofisticati, che potevano attingere ad una enormità di dati inseriti nella fase cosiddetta di “preaddestramento”. All’inizio si pensava che si sarebbe dovuto creare anche un modello del mondo, cioè una rappresentazione dell’esterno, perché la macchina potesse rispondere sensatamente. Fu una sorpresa scoprire che un nuovo algoritmo, detto Trasformer, poteva essere addestrato con metodo generativo, cioè era in grado di generare autonomamente parole sensate per completare un contesto.
L’algoritmo si serviva di reti neurali artificiali, cioè modelli matematici che simulano la rete di neuroni del nostro cervello. Era il Language Model GPT (Generatively Pretrained Trasformer), non c’era più bisogno di un modello del mondo. Da qui la corsa ad aumentare sempre più le dimensioni dei dispositivi e dei dati, sulla base della scoperta che GPT ad un certo livello era capace di imparare compiti nuovi e complessi da dati generici. Fino a ChatGPT (nov. 2022), una macchina intelligente (bot) in grado di sostenere conversazioni su qualsiasi argomento, senza che, nella maggioranza dei casi, l’interlocutore umano sappia decidere se ha parlato con un bot o con un’altra persona.
Veniva così superato il test di Turing, il genio fondatore dell’informatica, che nel 1950 proprio su questo discrimine aveva basato l’ipotesi di una futura possibile macchina capace di pensare.
Oggi si parla di AGI, intelligenza artificiale generale che non necessita più di essere addestrata in specifici settori per essere in grado di rispondere a qualsiasi quesito. E le aziende produttrici sono impegnate in una gara a chi crea il modello più grande e potente. Si tratta di congegni di deep learning, il livello più avanzato del machine learning, addestrati con centinaia di miliardi di token (parole): i dati della domanda entrano sotto forma di codici numerici in uno spazio matematico a più dimensioni (anche più di 100), vengono rielaborati in una serie di passaggi (GPT-3 ne contava 95) in cui l’output di uno costituisce l’input del successivo, infine escono di nuovo sotto forma di parole nella risposta.
Disorienta il fatto che attualmente noi conosciamo solo l’inizio e la fine del processo, mentre resta ignoto cosa succede nelle reti neurali del bot. Lo scienziato informatico Geoff Hinton avverte: «Queste cose sono diverse da noi; è come se fossero atterrati degli alieni, ma la gente non lo capisce perché parlano un buon inglese». Non appare strano quindi che legislatori e gli stessi scienziati comincino a intravvedere rischi nel delegare decisioni importanti a macchine di cui non comprendiamo bene il funzionamento. Tanto più che siamo di fronte ad un fatto sconcertante, ovvero l’effetto delle dimensioni del sistema sul suo comportamento: ad una soglia critica del modello e dei dati, emergono improvvisamente abilità nuove e impreviste, di cui la macchina si dota autonomamente. Oppure capita che bot di livello elevato vadano soggetti talvolta a momenti di allucinazione, mescolando in modo improprio fatti diversi o creando informazioni plausibili ma false.
Noi umani siamo fatti così: i guai ce li andiamo a cercare. Adesso abbiamo aperto il vaso di Pandora dell’intelligenza artificiale da cui, assieme ad incredibili vantaggi in molteplici campi, è uscito un sentimento antico e inquietante: la paura dell’ignoto.