All’intelligenza artificiale mancano fantasia e scopo, ma può assomigliarci
Come l'Intelligenza Artificiale Generativa (GEN-AI) si è evoluta dal lancio di ChatGPT nel 2022 fino al suo consolidamento nel 2024. Uno sguardo alle sue applicazioni future e alle problematiche, come le "allucinazioni" AI, in vista del 2025
Trenta novembre 2022: per gli evoluzionisti della tecnologia questo è il giorno di nascita di una nuova specie, quella delle macchine intelligenti basate sull’Intelligenza Artificiale Generativa (GEN-AI).
In questa data è stato infatti reso disponibile per la prima volta ChatGPT e ha sorpreso il mondo: adottato già nei primi mesi del 2023 da centinaia di milioni di utenti, ha fatto scoprire come questa tecnologia avesse raggiunto un livello di prestazioni inaspettate e insospettabili.
Il 2024 è stato poi l’anno del consolidamento: istituzioni, aziende e persone ne hanno esplorato l’utilizzo e si sono familiarizzati con questa famiglia di strumenti, perché nel frattempo il mercato si è esteso con la disponibilità di altri concorrenti.
Il 2025 si prospetta come l’anno dell’affermazione, in cui i risultati pionieristici si trasformeranno in applicazioni di routine. Ma questo scenario non è affatto scontato: dipende dall’applicazione delle tecnologie a casi d’uso reali, di provata utilità nelle aziende, che devono uscire dalla fase di prototipo per cominciare a giustificare con benefici tangibili i costi della curva di apprendimento.
Lo stesso vale anche per le persone: dopo l’entusiasmo della sperimentazione, per continuarne l’uso bisogna che produca risultati davvero utili, facendo risparmiare tempo.
Qui s’innesta però un problema intrinseco della tecnologia GEN-AI, quello delle cosiddette “allucinazioni”, risposte credibili, ma totalmente infondate. Lo strumento è utile per chi è in grado di dominarlo, ma è pericoloso per chi accetta acriticamente le sue risposte.
I giovani, sempre i più pronti ad accettare le nuove tecnologie, faranno bene a continuare a studiare per riconoscere eventuali bufale del tipo “Don Abbondio doveva sposare Lucia”, ma non nel senso “Doveva sposarsi con Lucia”.
Come tutte le grandi promesse tecnologiche, anche questa sta attraversando il ciclo di hype, modello grafico che misura la maturità, l’adozione e l’applicazione (e dunque l’esagerazione) di specifiche tecnologie: per GEN-AI il picco delle aspettative ormai è probabilmente superato, ma il guadagno di produttività non sarà interamente raggiunto già nel 2025. C’è ancora tanto da lavorare.
Da dove viene l’AI
Ondate di entusiasmo per l’AI ce ne sono state a più riprese nel passato. Alan Turing, scienziato inglese padre dell’intelligenza artificiale, una delle menti più brillanti del secolo scorso morto purtroppo suicida, nel suo fondamentale articolo del 1950 sulla rivista Mind rispose alla domanda “Can machine think?” proponendo il gioco dell’imitazione, vero sogno e profezia anticipatrice per le tecnologie rudimentali dell’epoca.
Se una macchina può simulare un comportamento umano, al punto che gli umani sono in difficoltà nel riconoscerlo, questa macchina deve essere definita “intelligente”, anche se è fatta di circuiti e non di neuroni. Una definizione pratica, che spazzava via inutili dibattiti filosofici. Oggi, come chiunque può constatare da sé, questa profezia si è avverata.
Le ricerche, le pubblicazioni e gli investimenti sull’AI sono proseguiti senza posa, ma con alterni entusiasmi, nei decenni successivi facendo fare passi avanti notevoli alle tecnologie di Machine Learning e di reti neurali. Negli anni ‘80 i risultati sembravano a portata di mano, ma non fu così.
Un’altra ventata di interesse arrivò e si placò negli anni ’90 e poi ancora all’inizio di questo secolo. Il vero punto di svolta è arrivato però solo in questo decennio per tre ragioni concomitanti.
Primo: la disponibilità in rete finalmente di quantità di dati enorme, i cosiddetti Big Data, accumulati a partire dal boom di internet dei primi anni 2000.
Secondo: la tecnologia dei processori NVIDIA, sviluppati per l’elaborazione grafica dei videogiochi e ottimizzati per l'elaborazione parallela, che hanno accelerato l'addestramento dei modelli permettendo una complessità prima inimmaginabile. Non è un caso che NVIDIA abbia sostituito lo storico produttore di microprocessori Intel nell’indice Dow Jones della Borsa americana.
Terzo: l’approccio completamente diverso proposto nel 2017 da Ashish Vaswani nel suo famoso articolo "Attention is all you need" in cui è stata introdotta la tecnologia dei Transformer. Tutta la ricerca e lo sviluppo di sistemi AI ha imboccato immediatamente questa strada molto più promettente, che in pochi anni ha portato ai risultati oggi visibili.
L’arrivo di GPT
L’acronimo GPT significa Generative Pretrained Transformer, trasformazione generativa preaddestrata, un tipo di architettura di deep learning generalizzata che ha rivoluzionato l'elaborazione del linguaggio naturale, dove da decenni era in uso lo sviluppo di modelli specifici, addestrati caso per caso.
Si tratta di una rete neurale più veloce e più efficiente perché non utilizza connessioni ricorrenti, ma può elaborare in parallelo intere e lunghe sequenze di dati in ingresso grazie alla potenza dei nuovi microprocessori.
L’idea chiave è l’utilizzo di meccanismi di auto-attenzione per elaborare le sequenze di input, apprendendo le relazioni tra due qualsiasi parole indipendentemente dalla loro distanza: la cattura delle dipendenze a lungo raggio nei dati è infatti essenziale per la comprensione del linguaggio umano.
Su queste basi stati sviluppati gli LLM (Large Language Models): i più noti sono appunto CHATGPT della fondazione OpenAI, che ha tra i suoi finanziatori Microsoft e Elon Musk, il sistema GEMINI di Google, CLAUDE.AI.ai della fondazione Anthropic fondata dai fratelli italo-americani Dario e Daniela Amodei e infine il sistema cinese ERNIE.
Addestrati su enormi quantità di testi con apprendimento non supervisionato, cioè senza intervento umano (l’intera Wikipedia rappresenta meno dell’1% di quanto letto), gli LLM sono stati progettati per compiti semplici, come la previsione della parola successiva in una frase: con un addestramento e un numero di parametri adeguato, dell’ordine di miliardi, riescono però a catturare gran parte della sintassi e della semantica del linguaggio umano, che, in fondo, è altamente prevedibile.
Ciò non deve stupire: un bambino a 5 anni normalmente già dimostra una buona capacità di espressione, ma è stato esposto “solo” a qualche dozzina di milioni di parole, ovviamente ripetute, nella sua madrelingua.
Qualche esempio concreto
Per capire bisogna però toccare con mano la potenza di questa tecnologia. Nella semplice frase: “Eva ha dato una mela ad Adamo, che la ha ringraziata | che la ha mangiata”, il pronome “la” si riferisce alla mela oppure a Eva?
Per un umano l’interpretazione è ovvia. Dipende dal significato del verbo, non dalla la sua posizione vicina o lontana nella frase, né dalla concordanza di genere, che in questo caso è sempre femminile.
Prima dell’avvento di questi nuovi modelli di auto-attenzione, comprendere anche una frase così semplice era un compito quasi impossibile per un software, mentre i sistemi attuali non hanno difficoltà: massimizzano la probabilità di una singola parola o sequenza, dato il contesto precedente, proprio come fanno gli umani.
Ecco un altro esempio, preso da una conversazione con ChatGPT:
• Domanda: “Parlando di geopolitica, qual è la parola più probabile che segue la parola "Stati"?
• ChatGPT: “La parola più probabile è "Uniti", poiché "Stati Uniti" è l'espressione più comune nella geopolitica”.
• Domanda: “E se invece stessimo parlando di storia francese?”
• ChatGPT: “La parola più probabile dopo "Stati" è "Generali", riferendosi agli États Généraux.
Cosa c’è dietro all’angolo?
Avendo memorizzato un’enorme quantità di fatti nella fase di pre-addestramento, un LLM dimostra una notevole conoscenza generale, ma non ha un modello mentale causale, non capisce, non ha proprio imparato a conoscere il mondo. Analizzando i testi ha però imparato bene come le persone usano le parole in relazione ad altre parole, cioè la probabilità che una stringa di testo ne segua un'altra. In pratica le sue risposte sono un enorme taglia&incolla di pezzi di testi usati per l'addestramento. Anche se il software ha compiuto notevoli passi avanti nella produzione di output somiglianti a quelli umani, all’AI generativa mancano ancora l'immaginazione, la motivazione e il senso dello scopo. Dobbiamo sperare che nel 2025 li trovi o no?
Riproduzione riservata © il Nord Est