Tempo di lettura stimato: 9'
Mi hanno detto: “Andrea, tu parli sempre di intelligenza artificiale, di AI Act, di IA in azienda… ma non ci hai ancora detto cosa c’è sotto: cosa sono i Large Language Model? Cos’è un prompt? Spiegacelo, ma fallo in modo chiaro, terra a terra, perché siamo giuristi, economisti, consulenti ISO. Non siamo ingegneri informatici. Abbiamo bisogno di capire, senza doverci sorbire formule complesse e termini troppo tecnici.”
Bene. Detto fatto. Ne ho parlato al GDPR Forum 2025, con l’aiuto di Giancarlo Facoetti, co-fondatore di Trix, sviluppatore di AI per l’analisi documentale, ricerca legale, ottimizzazione processi e web analytics. In quell’occasione, Facoetti ha spiegato alla platea cosa sono gli LLM, cosa vuol dire prompt e quali sono le modalità per gestire un sistema che non sia “promptare con ChatGPT”.
Perché è vero. Se non capisci bene queste cose, ti riesce difficile fare il DPO e fare consulenza alle aziende. Il panorama sta evolvendo alla velocità della luce e stargli dietro è difficile. I clienti chiedono AI, vogliono l’AI perché fa figo, perché lo fanno tutti… ne ho parlato anche nel mio articolo “Privacy e intelligenza artificiale… si non caste, tamen caute”. Quindi bisogna sfatare i falsi miti e capire bene di cosa stiamo parlando.
Quello che segue è l’estratto dell’intervento di Giancarlo Facoetti al GDPR Forum 2025 "Sporchiamoci le mani: GEMINI un esempio pratico dalla configurazione all’apprendimento". Il video? Ovviamente, è su Raise Academy.
Un po’ di storia sull’intelligenza artificiale, veloce veloce, semplice semplice
Ecco un neurone dell'intelligenza artificiale:
È un classificatore binario lineare. Il suo mestiere è tirare una linea e dividere gli oggetti.
Risale al 1958. All’epoca ci si rese conto che questo algoritmo poteva essere molto potente, ma mancavano 2 cose:
- i dati
- la potenza computazionale per elaborarli
Quindi, iniziarono "gli inverni dell'AI" (N.d.R. espressione che fa riferimento a un periodo di pochi investimenti e interesse per l'intelligenza artificiale). In seguito, sono arrivati internet, il digitale, i sensori, tutto quello che buttiamo in rete ogni giorno… e i dati sono cresciuti in modo esponenziale.
![]()
A quel punto, il problema dei dati era stato in parte smarcato. Poi, col tempo, l’evoluzione tecnica ha portato alle schede di elaborazione GPU (Graphics Processing Unit o unità di elaborazione grafica), che hanno fornito i “picconi” nella corsa all’oro dell’AI.
E così siamo arrivati a oggi, perché nel frattempo sono aumentati i dati e la potenza computazionale.
Il 2017 è stato lo snodo di tutto: è l’anno in cui Google ha regalato al mondo i transformer, che sono dei modelli di intelligenza artificiale un po' più smart di quelli che c'erano prima (N.d.R. I trasformatori sono un'architettura di rete neurale che serve a trasformare o a modificare una sequenza di input in una sequenza di output). Infatti, in base al contesto, i transformer riescono ad attribuire a ogni parola un significato diverso. Per esempio, riescono ad attribuire il significato corretto alla parola “rosa” in una frase come: la signora Rosa (persona) ha una rosa (fiore) rosa (colore).
Un’evoluzione del transformer è il generative pre-training transformer, cioè un modello che è bravo a generale qualcosa (GPT). Nel 2017 questo modello era limitato, simile a un modello di laboratorio che generava un testo più o meno sensato. Grazie a diverse iniziative, tra cui quella di OpenAI, è migliorato.
Poi qualcuno ha fatto all-in e ci ha sparato dentro una marea di dati e una marea di potenza computazionale e gli investimenti di Microsoft in OpenAI hanno creato quello che è ChatGPT oggi.
Ma non era l'unico modello esistente ai tempi.
La differenza è che Microsoft e OpenAI hanno fatto un'ottima operazione di marketing, perché hanno dato un'interfaccia a questi modelli, in modo che arrivassero alle masse.
Quindi, nel 2022, ChatGPT è diventato di pubblico dominio. Poi OpenAI ha tracciato la strada e tutti gli altri gli sono andati dietro. Sono arrivati Gemini, Lama e tanti altri.
Questi modelli sono chiamati LLM: Large Language Model.
Cos’è un Large Language Model?
Large Language Model vuol dire grandi modelli di linguaggio. Sono modelli di intelligenza artificiale addestrati su enormi quantità di testo - praticamente tutto quello che è disponibile in rete e non solo -, capaci di generare risposte simili a quelle umane e che vengono utilizzati per compiti come rispondere alle domande e riassumere testi.
Ma cosa vuol dire generare risposte “simili” a quelle umane?
Perché loro, in realtà, non capiscono molto di quello che raccontano.
Per questioni statistiche, danno risposte credibili, dal momento che hanno letto molti testi e hanno imparato, per esempio, che, se scrivo "io mangio la…”, la parola “sedia" apparirà molto raramente. Mentre "torta" appare più spesso.
E poi proseguono: "Io mangio la torta" e la frase va avanti.
"Io mangio la torta alle…"
"mele"
"Io mangio la torta alle mele"
e via dicendo.
Questo è il meccanismo alla base dell'LLM.
Come funzionano gli LLM tecnicamente: parliamo di next-token prediction e c Chain of Thought (CoT)
Andiamo più nel dettaglio. Gli LLM funzionano con la next-token prediction.
Ma cos’è un token?
Il token è come una parola. In realtà è un pezzetto di parola, che permette di gestire singolari, plurali, parole sconosciute nel vocabolario… Per semplicità diciamo che è una parola.
Gli LLM sono bravi a mettere in fila le parole a partire dall'input dell'utente.
Proprio perché lavorano con un token alla volta e dato che il token che viene prodotto, viene restituito all'interno per il prossimo token, è molto importante il modo in cui vengono messi in fila i token.
Quindi è stato creato un algoritmo chiamato Chain of Thought (CoT), cioè la catena di pensieri, nella quale si aiuta il modello a generare token che abbiano un senso e a evitare di deragliare verso le allucinazioni.
Quindi, per esempio, invece di dirgli "Dimmi come fare una torta di mele", potrei chiedergli "Voglio fare una torta alle mele, dimmi gli ingredienti, dimmi come devo mischiarli e quanto devo cuocerli".
In questo modo guidiamo il modello, ma non perché ha capito quello che gli ho chiesto. È guidato perché i token vengono generati, completando il mio input.
Quindi c'è una buona probabilità che i token generati rimangano circostanziati all'interno di quello che ho chiesto.
Come sono stati addestrati gli LLM? Il ruolo degli addestratori di AI
Gli LLM sono stati addestrati facendo leggere loro tutto quello che esisteva (forum, blog, siti web…). La prima fase, quindi, è stata mandare in input tutti questi testi, che però contengono fake news, contenuti illegali, litigi tra gli utenti, informazioni pericolose.
È chiaro che non si può dare al pubblico un modello che ti spiega tranquillamente come costruire una bomba, se glielo chiedi.
Quindi, si passa alla seconda fase: l'RLHF (Reinforcement Learning from Human Feedback). Sono stati assunti degli addestratori dell'AI, cioè, persone a cui sono state presentate delle domande e delle risposte, a cui dare uno score (un punteggio).
Così, le risposte che includevano le parolacce e i contenuti pericolosi, come costruire bombe, sono state penalizzate. Da questa operazione è emersa la versione più educata dell'LLM. Ed è un lavoro che si fa a valle: insegno al modello a generare token e poi lo rendo un po' più educato, perché gli dico quali token vanno bene e quali no.
Cos’è un modello, cos’è un’interfaccia, cos’è un server: le basi per capire gli strumenti di AI che stiamo usando
È importante precisare cosa sono modelli, interfacce e server per poterli distinguere. Perché c’è un po’ di confusione.
Cos’è un modello
Il modello è il transformer: una rete di pesi e neuroni che prendono un input e generano un testo. Quindi restituiscono un testo in base all'input che viene dato. Non memorizzano informazioni. Non vanno in rete.
Se chiedo a un modello che ore sono, non me lo sa dire. Un modello si limita a prendere un testo e a generare token. Non fa nient’altro.
Esistono modelli commerciali (Gemini, ChatGPT…) e modelli open-source (DeepSeek…).
Cosa sono le interfacce
Le interfacce sono un po’ più pericolosette, diciamo. Perché sono dei siti web che mettono uno strato sopra al modello, per fare N cose. Per esempio, ChatGPT ha la ricerca web e ha la memoria. Se gli dico che sono "Un evangelist del GDPR", oltre a prendere il mio dato, se lo ricorderà e lo terrà in considerazione. Quindi devo capire dove finiscono i dati che mando all'interfaccia. Per cui il problema non è il modello in sé, ma il sito che lo ospita e che può fare cose.
Cos’è il server
E poi c'è il server. Qui si pone il problema della sovranità dei dati: dove vanno le informazioni?
Ricapitolando, per capire la differenza tra questi concetti, pensiamo a questo: posso prendere il modellino di DeepSeek, metterlo nel mio server in cantina, staccare internet e lui funziona.
Ecco perché è importante sapere che c’è differenza tra modello, interfaccia e server.
Cosa sono i prompt?
I prompt sono delle istruzioni testuali che do a un modello e che di solito contengono diverse informazioni. Con i prompt si danno istruzioni alla macchina scrivendo in linguaggio naturale. Ne esistono di 2 tipi:
- Prompt interattivi
Sono interazioni domanda-risposta, in cui si ha la sensazione di avere a che fare con un chatbot, pensiamo a ChatGPT, Gemini, Lama… - Prompt strutturati
Sono più articolati e seguono una struttura ben definita, con 4 sezione obbligatorie e 3 opzionali.
Sezioni obbligatorie:
- Persona
Serve a condizionare il modello perché si attenga a tono, stile e competenza nel dominio, come nei giochi di ruolo, in cui si imposta il character. Per esempio, posso dirgli: sei un DPO con 10 anni di esperienza come consulente nelle multinazionali. - Obiettivo
Gli dico cosa voglio ottenere. Per esempio, un executive summary sul GDPR nelle multinazionali. - Istruzioni (Chain of Thoughts)
Scompongo il task in diverse istruzioni, creando una guida passo passo e dettagliata da seguire. Più sono dettagliato, maggiore è la probabilità di ridurre le allucinazioni e di ottenere un output corretto e utile. Posso anche inserire dei vincoli, istruzioni perentorie per impostare il modello, sia in positivo che in negativo: i do e don’t. - Contesto
È la parte più importante: passo io al modello le informazioni e i dati, in modo che lui li assembli come gli ho chiesto. Per implementare questo flusso, uso il RAG (Retrieval-Augemented Generation), che è una tecnica che serve a migliorare i risultati di uno strumento di intelligenza artificiale generativa, tramite la ricerca in tempo reale di dati che si vanno ad aggiungere all'input utente.
Sezioni opzionali:
- Fornire esempi di input/output desiderati. Per esempio: “oglio creare un documento su GDPR nelle multinazionali fatto in questo modo” e fornisco l’esempio.
- Scegliere come formattare l'output (per esempio, testo semplice, html…)
- Recap: riassunto veloce delle indicazioni date
Intervento tratto dall’intervento di Giancarlo Facoetti al GDPR Forum 2025: “Sporchiamoci le mani: GEMINI un esempio pratico dalla configurazione all’apprendimento”.
Conoscere le basi per fare consulenza GDPR nell’era dell’AI
Bene. L’estratto dell’intervento di Facoetti dovrebbe aver chiarito molti dei tuoi dubbi. Lo spero. Anzi, me lo auguro. Perché, se non sei in grado di capire queste cose, non puoi fare bene il DPO…
Questa è la base. Nel prossimo articolo approfondiremo ancora il tema, con un altro intervento tratto dal GDPR Forum 2025, quello di Enrico Mensa su “ChatGPT… è un cazzaro!”
Perché è un cazzaro?
Hai 2 modi per saperlo:
- aspettare il prossimo articolo
- recuperare sia l’intervento di Facoetti sia quello di Mensa su Raise Academy.
Perché quelli che trovi qui sono solo degli assaggi!
La formazione completa e aggiornata su GDPR, privacy e cybersecurity è su Raise Academy, l'Accademia di Formazione Efficace di PrivacyLab che coinvolge consulenti e professionisti del GDPR, grazie al connubio tra tecnologia, presenza, competenza, contatto, condivisione e diffusione.
RIPRODUZIONE RISERVATA. Ne è consentito un uso parziale, previa citazione della fonte.





