rotate-mobile
Martedì, 30 Aprile 2024
Intervista, seconda parte

“Il segreto di ChatGPT? Ha reso democratico il concetto di intelligenza artificiale”

Dopo l’illustrazione del meccanismo di funzionamento, Fabio Santini, di Microsoft Italia, affronta una serie di temi a partire da quelli della regolamentazione e della responsabilità, spiegando qual è stato il punto di svolta degli ultimi mesi

LECCE – Un sistema dalle grandi potenzialità, fondato su un meccanismo di funzionamento prettamente matematico: è la velocità di elaborazione di una quantità enorme dei dati, legata alla logica delle probabilità, il tratto distintivo dell’intelligenza artificiale in questa fase.

Lo ha spiegato Fabio Santini, direttore della divisione Global Partner Solution per Microsoft Italia nella prima parte di questa intervista (qui), realizzata durante “Illuminate”, l’evento sull’innovazione digitale e sulla information technology  che si è svolto a Lecce dal 5 al 7 giugno (qui il bilancio).

Alle sue applicazioni, però, sono legati una serie di interrogativi che attraversano, per esempio, la sfera dell’etica e quella del lavoro. Sono i temi di cui si parla nella seconda parte.

Si discute molto, in queste settimane, dei rischi dell’applicazione dell’intelligenza artificiale, soprattutto per quanto riguarda un certo tipo di lavori, come quelli intellettuali. È un pericolo concreto o va ridimensionato?

“Ti faccio un esempio: immagina tu stia scrivendo un articolo. Come fai? Usi la tua esperienza, la tua conoscenza e cerchi informazioni. Fai esattamente quello che fa anche ChatGPT, ma tu hai il controllo di quello che fai, ChatGPt invece no. Che cosa voglio dire? Tu stesso puoi utilizzare le ricerche che fai e la tua competenza per produrre una fake news oppure per dire la verità, questa è una tua decisione. Quello che fa l’intelligenza artificiale non è una sua scelta, ma dipende da chi lo ha programmato. Può essere dannosa? Certo, se lo ha deciso chi fa la programmazione. La grande differenza è che mentre gli esseri umani sono sempre liberi di scegliere se comportarsi bene o male, lì c’è un sistema che ha una grandissima potenzialità, ma aspetta qualcuno che gli dica come comportarsi. Se io chiedo a ChatGPT di creare una fake news, la chat esegue ciò che io chiedo perché per la macchina è semplicemente un compito”.

Quindi è legittimo porsi il tema della regolamentazione?

“Assolutamente sì, è come se ti dicessi che ho inventato uno strumento per costruire più in fretta una importante galleria per i treni. Questo strumento è la dinamite, che fa esplodere la roccia invece di scavarla. Non è raccomandato di usare la dinamite solo per questo scopo e allora arriva un altro che pensa di utilizzarla diversamente, facendo il C-3 (esplosivo al plastico, ndr). Ora, è la stessa cosa: hai un’innovazione tecnologica che ha un tale potenziale per cui vale la pena dare delle regole: tu devi descrivere come deve essere usata, con quale etica, quali sono i pregiudizi che non devono essere inseriti – ogni programmatore ha i suoi pregiudizi -. Noi in Microsoft abbiamo un gruppo su etica e intelligenza artificiale, che non è composto da tecnici ma da filosofi e psicologi, che si assicura che quello che fa l’intelligenza artificiale rispetti l’etica. Ci vuole una regolamentazione a livello di governo: io oggi posso produrre una canzone con la tua voce, spacciarla per tua, è successo di recente con quella attribuita a Drake che ha fatto 17 milioni di visualizzazioni, ma lui non ha né scritto né cantato quella canzone anche se tutti pensavano fosse lui. Il problema è la tecnologia? No, il problema è il modo in cui decidiamo di utilizzarla. Se io creo un robot e lo istruisco per uccidere l’uomo, la questione sta nell’intelligenza artificiale o in chi l’ha programmata?”.

L’impatto sull’organizzazione del lavoro, del tempo, delle risorse umane è forte: come si affronta questo nodo?

“C’è bisogno di responsabilità. Come sempre avviene quando c’è un’innovazione così disruptiva, la si può negare, la si può attendere, la sia può gestire. Le aziende secondo me devono capire che non è una cosa di passaggio, negarla significa porre un limite all’innovazione, accettarla è un primo passo. Se Microsoft mette dentro Word anche Copilot (un software che assiste nella creazione di documenti, presentazioni, report, e-mail, ndr), tu hai una funzionalità in più che ti aiuta a gestire un documento. Ma così stai cambiando i processi aziendali? No, stai solo rendendo più produttivo il lavoro, che è già qualcosa. Quelli che applicheranno il concetto stesso dell'intelligenza artificiale al loro business, avranno la competitività più alta. Su questo non c’è dubbio”.

Il tuo punto di vista è quello di un osservatore privilegiato. Quando hai iniziato a occuparti di questi temi, pensavi che si sarebbe arrivati a discuterne così presto e diffusamente?

“Quando uno studia l’intelligenza artificiale e vede cosa è già stata in grado di fare, si ha la sensazione che possa arrivare a risolvere problemi importanti. La verità, ed è il motivo per cui ChatGPt è diventata così famoso in poco tempo, è che l’intelligenza artificiale ha sempre rappresentato un tema noioso e difficoltoso da comprendere e anche, dal punto di vista del tempo necessario alla commercializzazione, una questione piuttosto lunga: se voglio trovare un risultato al mio problema, il processo in cui io lo affronto, trovando i dati, analizzandoli, testandoli e tutto il resto è molto lungo. Molte aziende poiché non sanno a quale risultato approderà questo processo, fanno fatica ad accettarlo. I progetti di intelligenza artificiale stanno già da un po' facendo grandi cose, ma in ambiti sempre considerati di nicchia. Siccome ChatGPT parla la nostra lingua, ha sdoganato il concetto, ma la realtà è che fa un calcolo matematico, solo che ai nostri occhi appare come una magia. Anche dietro le previsioni del tempo c’è il calcolo matematico, ma è poco emotivo, non coinvolge, a nessuno sembrerebbe una magia. Se, invece, io parlo e dall’altra parte c’è qualcuno che mi risponde, questo colpisce l’emotività umana e qui sta il salto degli ultimi tre mesi: ora tutte le aziende si interessano all’intelligenza artificiale, ma non è che prima non ci fosse, semplicemente il concetto è stato democratizzato e le persone hanno iniziato a pensare che si potessero fare cose entusiasmanti. Open Ai non sapeva di poterci arrivare così velocemente. Nella presentazione che ho fatto, ho mostrato un breve video con una persona che parlava in inglese. Poi ho chiesto alla platea quanto tempo ci avessi messo per farlo: quattro mesi fa sarebbero stati quattro giorni, ora sono pochi minuti. La grande rivoluzione è questa: ora l’intelligenza artificiale sta mostrando a tutti il potenziale che ha. Poi, fatto cento il totale dei progetti fatti con l’intelligenza artificiale, saranno tutti fatti con ChatGPT? Assolutamente no, magari uno, gli altri saranno fatti con i concetti che sono noti già da anni”.

Come è stata utilizzata l’intelligenza artificiale in pandemia?

“Nella maniera più semplice possibile. Cosa fai quando hai una grande quantità di dati? Cerchi di prevedere cosa può succedere: numero di contagi, zone di diffusione, gli scenari possibili in caso di lockdown. Siccome la macchina è in grado di fare tutte le simulazioni, ti dà evidentemente una migliore capacità di scelta perché dispone di dati relativi a ogni parte del mondo, li applica sulla scala di una singola città e consente di prevedere quante persone si infettano il quinto giorno se per quattro è stato in vigore il lockdown. Questo è stato uno dei modi in cui è stata utilizzata l’intelligenza artificiale”.

In Evidenza

Potrebbe interessarti

“Il segreto di ChatGPT? Ha reso democratico il concetto di intelligenza artificiale”

LeccePrima è in caricamento