I Large Language Models sono il cervello dei sistemi GEN-AI

I grandi modelli attuali con migliaia di miliardi di parametri sono stati addestrati su enormi quantità di testi con apprendimento non supervisionato, cioè senza intervento umano

Leonardo FelicianLeonardo Felician

Il cervello della GEN-AI sono i Large Language Models (LLM), modelli linguistici costituiti da programmi capace di navigare il web leggendo tutte le pagine incontrate e da reti neurali per memorizzare in maniera adeguata l’informazione letta.

I grandi modelli attuali con migliaia di miliardi di parametri sono stati addestrati su enormi quantità di testi con apprendimento non supervisionato, cioè senza intervento umano: tutta Wikipedia è meno dell’1% di quanto letto. Dal 2018 i LLM superano sistematicamente i precedenti sistemi addestrati per compiti specifici: anche se pensati per compiti semplici, come la previsione della parola successiva in una frase, con un addestramento adeguato e un numero di parametri sufficiente riescono a capire gran parte della sintassi e della semantica del linguaggio umano, che è altamente prevedibile.

Avendo memorizzato una grande quantità di fatti durante l'addestramento, un LLM dimostra una notevole conoscenza generale, ma non ha un modello mentale causale, non capisce, non ha imparato a conoscere il mondo: analizzando i testi ha imparato come le persone usano le parole in relazione ad altre parole, cioè la probabilità che una parola ne segua un'altra.

Lo facciamo pure noi: parlando di geopolitica, che parola segue a “Stati Uniti…”?.

In pratica un LLM è un enorme taglia&incolla di pezzi di testi usati nell'addestramento. Anche se il software ha compiuto notevoli passi avanti nella produzione di output somiglianti a quelli umani, alla GEN-AI manca ancora il senso dello scopo, l'immaginazione e la motivazione. Almeno lo speriamo.

(*) Docente di Big Data Management, MIB Trieste School of Management

Argomenti:pillole di ai

Riproduzione riservata © il Nord Est