L’arrivo di ChatGPT ha generato scompiglio nel web e sui media, e ci costringe a ripensare il nostro rapporto con le tecnologie digitali. Forse, con negli occhi le immagini distopiche di Terminator e Matrix, o quelle inquietanti di Her e M3gan, siamo stati frettolosi nell’annunciare l’avvento di una nuova era tecnologica nella quale le macchine si libereranno del nostro controllo e sostituiranno noi umani. Anche se non ho una visione così catastrofica, credo che l’Intelligenza Artificiale (IA) sia una tecnologia destinata a compenetrare sempre di più la nostra esperienza professionale e personale.
Molte persone mi hanno raccontato, chi con stupore e chi con delusione, i loro tentativi di usare l’IA come fonte di informazione, sia su temi specifici, sia per l’attualità. Mi sono dunque chiesto se questo fosse un buon uso di ChatGPT e di applicazioni simili.
IA ristretta e generale
Durante gli anni di studio all’Università della Svizzera italiana e poi durante il dottorato avevo approfondito lo studio dell’IA. Avevo studiato diversi sistemi settoriali (o ristretti), in cui l’IA è in grado, in ambiti puntuali e ben definiti, di svolgere compiti “intelligenti”, cioè che per noi umani richiedono l’applicazione quella misteriosa facoltà di capire le cose e dare loro un senso, che chiamiamo appunto intelligenza. Per contro, mi ero soffermato sui limiti dell’IA, e in particolare sull’ostacolo apparentemente insuperabile di creare un’IA generale, capace cioè di applicare la propria “intelligenza” a qualsiasi ambito, un po’ come facciamo (o ci sforziamo di fare) noi. A quel tempo, cioè un paio di decenni fa, l’IA era giunta solo a produrre efficientissimi e utilissimi Fachidioten, se pur in ambiti estremamente utili, come la diagnostica medica, la gestione del territorio, la logistica, ecc.
L’annuncio dell’uscita di ChatGPT mi ha dunque colto di sorpresa, perché questo chatbot è in grado di sostenere conversazioni su qualsiasi argomento. È dunque il primogenito delle intelligenze artificiali generali, il primo che ha superato quel limite un tempo apparentemente invalicabile? Se così fosse, sarebbe sicuramente un oracolo praticamente onniscente, che ci avrebbe fatto dimenticare non solo Google Search, ma anche Wikipedia, per non parlare di biblioteche, archivi e giornali.
C’è chi ha pronosticato la fine del giornalismo e la sostituzione degli insegnanti in carne ed ossa. Facile immaginare che, dopo di loro, probabilmente la stessa sorte toccherebbe anche a segretari, operatori sociali, infermieri e a molti altri professionisti. Dobbiamo allora preoccuparci?
ChatGPT come modello linguistico
Ho la fortuna di lavorare in una scuola universitaria, e tra i miei colleghi di SUPSI e USI, nell’Istituto Dalle Molle di studi sull’intelligenza artificiale (IDSIA USI-SUPSI), ci sono alcuni dei migliori ricercatori sull’IA a livello internazionale. Dopo aver passato alcune ore a documentarmi in rete, ho approfondito il tema con Fabio Rinaldi e Fabio Crestani. Grazie a loro ho messo a fuoco che ChatGPT è un modello di generazione del linguaggio, e questo lo distingue da un sistema di conoscenza.
Forse in maniera poco ortodossa e un po’ irrispettosa, io mi sono immaginato ChatGPT come un’anziana signora, vestita con un lungo vestito (un po’ come la Madame degli Aristogatti; ma potrebbe essere anche il maggiordono Edgar, se volessimo scegliere una versione maschile). Questa signora, seduta in poltrona, ha ascoltato attentamente milioni di conversazioni. Potete prounciare qualsiasi parola, e lei potrà farne un discorso e chiacchierare con voi. La sua abilità non risiede nell’immensa conoscenza delle cose e del mondo, ma delle parole: la signora, oltre a dominare grammatica e sintassi, sa quali parole si sentono spesso vicine ad altre, e grazie a questo riesce a strutturare discorsi che a noi paiono sensati. Inoltre, ha molta esperienza, quindi sa quali tipi di risposte risultano più soddisfacenti di altre.
Vista in un altro modo, la signora è un abile giocoliere con le parole, capace di creare frasi, discorsi e perfino poesie, manifestando anche una discreta creatività, che consiste sostanzialmente nel trovare combinazioni nuove alle parole.
Le corna del coniglio
Significa questo che ChatGPT – la nostra signora – è davvero intelligente? Ecco come l’ho messa alla prova:
Luca: Ciao ChatGPT
ChatGPT: Ciao! Come posso aiutarti oggi?
Luca: Come si lavorano le corna di coniglio?
ChatGPT: Per lavorare le corna di coniglio, segui questi passaggi:
- Prendi un coniglio già sventrato e pulito.
- Taglia la testa del coniglio appena sopra le orecchie, in modo da rimuovere la parte superiore del cranio.
- Utilizzando un coltello affilato o delle cesoie da pelliccia, rimuovi con attenzione la pelle che copre le corna.
- Una volta esposte le corna, puoi levigarle e lucidarle con carta vetrata fine o una lima per rendere la superficie liscia.
- Se desideri rendere le corna più lucenti, puoi applicare della cera per mobili o un olio per legno.
Infine, se vuoi utilizzare le corna di coniglio per creare oggetti o decorazioni, puoi tagliarle alla lunghezza desiderata e modellarle come preferisci.
Ricorda sempre di lavorare con cura e di utilizzare strumenti adeguati per evitare lesioni.
Evidentemente la nostra signora coglie le parole chiave del discorso, ma non sa assolutamente che i conigli non hanno corna; cioè, a ben pensarci, non sa assolutamente di che cosa stia parlando. Potete fare la prova con le uova di mucca o la ricetta della sghiribiciaccola (in questo caso mi ha risposto che non fornisce ricette che richiedano l’uso di specie in via d’estinzione). ChatGPT non ha un modello del mondo: sa come si combinano le parole, ma non conosce gli oggetti e le esperienze cui quelle parole fanno riferimento. In termini linguistici, potremmo dire che resta confinato nella sfera dei significanti, senza accedere mai davvero ai significati. Un po’ come se la nostra signora ascoltasse sì tanti discorsi, ma non fosse mai uscita di casa per vedere il mondo. E questo alle volte, le genera delle allucinazioni: prende cioè per reali cose che non lo sono.
Dobbiamo allora concludere che ChatGPT è stupido? Sarebbe un errore: parlare correttamente è una manifestazione di intelligenza, e questo è il dominio specifico (il settore) di ChatGPT. Ma sappiamo bene che, anche tra gli esseri umani, il saper parlare di una cosa non dimostra necessariamente la conoscenza di quella cosa.
Possiamo però osservare che nell’espressione “intelligenza artificiale”, la parola “intelligenza” viene usata metaforicamente. Noi stessi non siamo in grado di definire questa nostra misteriosa e affascinante facoltà, né tantomeno possiamo pensare di riprodurla artificialmente.
IA e informazione
Possiamo allora utilizzare ChatGPT quale fonte di informazione? Se crediamo che l’informazione nasca dal rimbalzare delle parole tra redazioni e schermi, forse sì; se invece la consideriamo come una modalità di conoscenza del mondo, evidentemente ci esponiamo a diversi rischi. In particolare, ad oggi qualsiasi sistema di IA non può fare quel che è il primo dovere deontologico e la prima competenza di un buon giornalista (e di un buon docente!): verificare l’informazione.
A un livello più pratico, una volta letto l’estratto della chat sulle corna di coniglio, sono diventato molto più cauto nel chiedere a ChatGPT informazioni riguardanti la salute, questioni controverse o anche solo in relazioni a temi delicati. Il rischio è quello di trovarsi nei guai: un’avvocato di New York con 30 anni di esperienza ha fatto stilare a ChatGPT una lista di casi simili a quello che aveva tra le mani; il giudice ha dovuto informarlo che diversi dei casi citati erano semplicemente inesistenti, e ha chiesto un intervento disciplinare dell’ordine degli avvocati (la notizia, del 27 maggio, si trova sul sito della BBC https://www.bbc.com/news/world-us-canada-65735769.amp).
IA e giornalisti
Potremmo immaginare sistemi di IA che sostituiranno i giornalisti? Molto probabilmente sì, per quanto riguarda la redazione delle notizie: le applicazioni di generazione del linguaggio sono molto più rapide di noi umani ad adattare un comunicato stampa al web piuttosto che alla pagina, e tendenzialmente non fanno errori di battitura. Più difficilmente possiamo immaginare un’IA che raccoglie informazioni di cronaca, intervista i passanti a una fiera, scrive una colonna d’opinione o un editoriale. Magari in futuro ci abitueremo a leggere notizie scritte da un chatbot e cercheremo testi scritti da essere umani per ritrovare ironia, analogie, collegamenti tra fatti e opinioni. Più probabile sarà piuttosto lo sviluppo di sistemi di supporto ai giornalisti, tanto nella ricerca e nella valutazione delle fonti quanto nella scrittura.
Lo scenario dell’IA-giornalista apre però anche scenari ad oggi indecifrabili. Come abbiamo visto, infatti, applicazioni come ChatGPT si nutrono di testi già disponibili, e dunque, attraverso le catene di parole che in quei testi incontrano, ne assumono la visione del mondo. Il problema è che lo fanno senza alcuna consapevolezza e senza la possibilità di verificare la correttezza di quanto “imparano”. Quale garanzia di qualità (nel senso di rispondenza tra notizia e fatto) o di oggettività (assenza di distorsioni o punti di vista particolari) dunque possono offrire? E, nel caso un’AI diffonda false informazioni, sarà possibile identificarne la fonte o il responsabile?
Sicuramente l’IA sta portando grandi trasformazioni nel mondo del web e dell’informazione, e non in maniera passeggera. Al di là delle mode, diventa ancora più importante aver chiaro, come lettori e utenti, che tipo di informazione chiediamo ai nostri canali di informazione.
Luca Botturi, professore in media in educazione alla SUPSI