rotate-mobile
L'intervista

Artificiale, ma non così intelligente: “Per ora è solo codici e matematica”

È la nuova frontiera dell’innovazione digitale. Soprattutto dopo il debutto di ChatGPT il tema è diventato di pubblico interesse, tra fiducia nel progresso e timori per un sviluppo incontrollato: è importante, allora comprenderne i meccanismi di funzionamento

LECCE – Di intelligenza artificiale si parla molto, soprattutto dopo il debutto su scala mondiale di ChatGPT che, nella sua versione di base, è a disposizione di chiunque abbia un dispositivo connesso a Internet, gratuitamente: tu fai una domanda, la chatbot – che è stata istruita per simulare una vera e propria conversazione – risponde in pochi secondi con un livello di precisione e completezza sorprendente.

L’irrompere sulla scena delle innovazioni tecnologiche è stato sempre accompagnato da una serie di interrogativi legati a rischi e opportunità, ma la rivoluzione digitale che detta l’agenda contemporanea pone in maniera anche più stringente di prima il tema della trasparenza nelle informazioni.

Comprendere è sempre la premessa migliore per formarsi un’opinione: per questo abbiamo chiesto una mano a Fabio Santini, direttore della divisione Global Partner Solution per Microsoft Italia, uno degli ospiti di “Illuminate 2023”, evento internazionale che si è concluso ieri a Lecce presso il Campus Ecotekne.

Come si può spiegare a chi non ha dimestichezza con l’informatica e la tecnologia digitale cosa sia l’intelligenza artificiale, nel modo più semplice possibile?

“L’intelligenza artificiale è il tentativo attraverso il computer e la programmazione di replicare, in parte, il funzionamento del nostro cervello quando si trova davanti a informazioni da gestire. Premesso che non conosciamo ancora l’intero potenziale del nostro cervello, sappiamo però come si comporta davanti a specifici compiti. Un esempio sono i calcoli matematici che noi possiamo, quindi, trasferire nell’informatica. Diventa intelligenza artificiale quando noi non sappiamo quale sarà il risultato finale, abbiamo un’enorme quantità di informazioni, abbiamo teorizzato quale sia il meccanismo di funzionamento del nostro cervello. Quando abbiamo messo queste due cose insieme, tentiamo di produrre un risultato che si avvicini il più possibile a quello che avrebbe raggiunto l’essere umano”.

“Negli ultimi dieci anni è accaduto che su alcuni compiti, come riconoscere le immagini, il testo, il computer sia diventato migliore di noi, ma non perché ragioni meglio di noi, semplicemente perché la capacità di gestire l’immensa quantità di informazioni a disposizione è infinitamente più grande. Se noi riuscissimo a replicare su una quantità enorme di informazioni il funzionamento del nostro cervello, che ne può gestire una piccola parte, allora avremmo risultati importanti. Ora, l’intelligenza artificiale è un cervello umano? No, è software: è codice, è analisi, è formazione, è tutto quello che serve per replicare il funzionamento del nostro cervello. Noi sappiamo esattamente come un bambino impara a parlare? No, non abbiamo compreso ancora quali sinapsi si generino, quindi non possiamo replicare quel modello, dobbiamo trovarne altri. Perché il software diventa intelligente? Quando ho a che fare con miliardi e miliardi di informazioni e ho la capacità di elaborarli velocemente, posso arrivare a risolvere dei problemi”.

Mi puoi fare un esempio di come funziona?

“Se io ti metto davanti cento immagini di gatti e ti chiedo che cosa vedi, tu sai cosa sia un gatto perché lo hai imparato una volta e riesci a replicarlo quando serve. Con i primi motori di intelligenza artificiale abbiamo provato a fare la stessa cosa. Questo modello di formazione ha fallito miseramente perché era troppo complicato: se hai un gatto dietro una macchina, è sempre un gatto, ma parte del suo corpo è coperta. E come si fa a riconoscerlo dal colore dei pixel? Allora, cosa abbiamo fatto? Avendo un computer in grado di elaborare una quantità incredibile di dati, gli diamo miliardi di foto di gatti e già gli diciamo che sono gatti. Quando abbiamo un’altra foto, il computer non fa il riconoscimento dell’immagine attraverso i pixel, semplicemente ha imparato cos’è un gatto. Poiché è in grado di elaborare un sacco di dati, è più bravo a capire che c’è un gatto dietro la macchina. In questo momento siamo in una situazione in cui, a fronte di un compito definito, l’intelligenza artificiale lavora tendenzialmente meglio del cervello”.

Intelligenza è, quindi, oggi sinonimo di rapidità di elaborazione?

“È l’estrema velocità di analisi dei dati e di formare, istruire il computer con quei dati. Si parla, infatti, di learning e di deep learning perché, se io fornisco al computer un milione di foto senza dire che si tratta di gatti, non lo saprà mai. Prima c’è un essere umano che dice cosa sia un gatto e cosa no, in pratica fa formazione come noi facciamo coi nostri figli. Poi facciamo delle domande al computer – per esempio, è un gatto? – e se ci risponde bene, gli diciamo ‘bravo’ e lui impara. Alla fine, grazie a questa formazione, ha costruito una rete che gli consente di riconoscere un gatto. Sarebbe in grado di riconoscere il gatto se io non avessi classificato, prima, come gatti quei milioni di immagini? No”.

Per questo, al termine del tuo intervento, hai detto che ChatGPT è una macchina stupida?

“È assolutamente stupida, perché non è in grado di comprendere la domanda che io le faccio e non è in grado di comprendere il significato delle risposte che mi dà. Fa, semplicemente, tra virgolette, un’elaborazione molto complessa delle informazioni: immagina una ragnatela gigantesca fatta di due miliardi di miliardi di parole tra loro collegate. Ognuna è collegata a un’infinità di altre e il filo che le lega è la probabilità che queste due parole insieme stiano bene. Immagina ora che tu questa rete l’abbia costruita su tutto ciò che hai trovato su Internet. Se tu hai trovato una frase in cui due parole stanno molto bene insieme, allora quelle parole sono legate al 100 percento di probabilità. Poi hai trovato altre frasi in cui una di quelle parole è legata ad altre: siccome tu hai un sacco di informazioni, riesci a distribuire la probabilità. A quel punto hai una ragnatela dove ogni singolo percorso ha una probabilità”.

“Per il computer è solo matematica. Quando io gli faccio una domanda, lui, con il sistema di tokenizzazione (il token è un insieme di informazioni digitali, ndr) riesce a riconoscere il soggetto che conta ai fini della domanda e parte da lì, trova nella ragnatela il verbo più vicino, che sarà quello della domanda, mette insieme le due parole e quindi passa a navigare. È come se tu dovessi andare da Milano a Roma e avessi delle strade con bivi, ma sui cartelli non fosse scritta la destinazione, ma la probabilità di arrivarci e tu così decidessi quale direzione prendere. E così, di bivio in bivio, faresti una strada unica che è la probabilità che tu hai seguito. Se tu partissi il giorno dopo e decidessi di prendere al primo bivio l’altra direzione, il risultato sarebbe diverso. Quando il computer ha tanti dati, nel momento in cui ha tradotto verbo, pronome e soggetto, li mette in questa enorme ragnatela – alla fine l’investimento è nella formazione di questo enorme sistema – e inizia a navigare. Se tu vai su ChatGPT c’è un tasto che è ‘regenerate response', perché le strade sono tante”.

Ma in questo modo non si rischia che prevalga sempre l’informazione disponibile in quantità maggiori?

“È così per definizione. Le indicazioni maggioritarie sono quelle che l’essere umano percepisce come vere. Perché io e te percepiamo come corretta una frase scritta in un certo modo? Perché ci hanno insegnato che la grammatica è così. Se il computer vede che ci sono 150 milioni di frasi scritte in quella stessa maniera, quella è la dimostrazione che sia giusta. È sempre così? No, infatti delle volte risponde male o in maniera errata perché la domanda che fai è talmente di nicchia che la quantità di informazioni di cui dispone si restringe e allora finirà per fare percorsi della probabilità del 50 percento”.

E quando ci sarà il passaggio, secondo te, dalla sfera della quantità delle informazioni a quella della qualità?

“Molto in là nel tempo. Considera che ChatGPT4 ha fatto un retraining (aggiornamento, ndr) fino al 21 aprile del 2023. Significa che tutto quello che usa per risponderti è fermo a quella data. Fare il retraining di due trilioni di informazioni è costosissimo: non si può fare live, devi fermare tutto per farlo. Siamo davvero nella fase iniziale di quella che viene chiamata intelligenza artificiale generale che è 'io non devo fare tutto questo lavoro per fartelo capire, lo devi capire da te'. Ma siamo molto lontani da quel momento. Io non lo vivrò, probabilmente”.

Qui la seconda parte dell'intervista

In Evidenza

Potrebbe interessarti

Artificiale, ma non così intelligente: “Per ora è solo codici e matematica”

LeccePrima è in caricamento