Bene. Abbiamo parlato di cosa sono gli LLM e del perché ChatGPT non dice la verità. In questo articolo, facciamo un passo in avanti. Parliamo di uso dell’AI.
Perché stiamo utilizzando le intelligenze artificiali in modo pericoloso…
Le abbiamo scambiate per persone. Ma non sono come noi.
In questo articolo tratto dall’intervento al GDPR Forum 2025 di Enrico Mensa, Ricercatore presso il Dipartimento di Informatica UniTO, specializzato in AI, vediamo cosa sono le intelligenze artificiali, in realtà, e perché dovremmo usarle cum grano salis.
NB: questo è solo un estratto, lo speech completo, ormai lo sai, è su Raise Academy.
Le AI? Non sono come noi
Molti pensano: “Se parla come me, deve essere come me! Giusto?”
No. Anche se ChatGPT e gli altri LLM parlano come te, non significa che ragionino allo stesso modo.
A mio parere, bisogna riconoscere che le AI hanno un’intelligenza. La loro capacità di risolvere certi problemi - sebbene basata sulla next-token-prediction (N.d.R. di cui abbiamo parlato nell’articolo “ChatGPT non dice la verità”) è straordinaria.
È una capacità emergente, quasi inattesa.
Ma non si può pensare che siano come noi, perché hanno dei comportamenti che sono lontani da quello che ci aspetteremmo da un umano.
E per convincerti di questo, ti invito a riflettere su quello che fai tu se ti chiedo di scrivere un tema, di rispondere alla domanda “quanto fa 2+2” o di risolvere un complesso problema di fisica.
Come agisci?
In base al compito, ragioni in modo diverso. (N.d.R.).
Invece, il meccanismo di generazione dei token, per ChatGPT, è identico: nei modelli di base, usa sempre lo stesso impianto di ragionamento.
L’errore è aspettarsi dei comportamenti che sono in linea con quelli umani e che, quindi, nel dialogo con le chat, ci stiamo interfacciando con un umano.
Le AI sembrano parlare come noi, ma non ragionano come noi
Queste chat usano il linguaggio - che è la cosa più umana che abbiamo per comunicare - ma dobbiamo riuscire a ricordarci che sono degli algoritmi e che dentro hanno un meccanismo di predizione. Per cui, non necessariamente si comporterebbero come ci aspetteremmo da un umano.
Infatti, se chiedo a ChatGPT:
“Spiegami la formula della Standard Model Lagrangian” (la formula più difficile che c’è, se cerchi su Google), lui parte dicendo: “Ma certo! Lasciami illustrare questo concetto…”
Potresti pensare: “È un genio!”
Ma poi, se gli chiedi di contare quante “r” ci sono in strawberry, non lo sa fare.
E uno dirà: “Va be’ ma questo è il vecchio modello. L’hanno aggiustato!”
Sì, ma non è che hanno aggiustato l’essenza del modello.
Il modello continua a fare la stessa cosa.
Quindi io non credo che esista un umano in grado di spiegarti la Standard Model Lagrangian e che allo stesso tempo non sappia contare quante “r” ci sono in strawberry.
L’altro aspetto molto importante è che sono prodotti commerciali.
Le AI che usi tutti i giorni sono un prodotto commerciale
Noi non interagiamo con modelli puri, ma con applicazioni (cioè, delle interfacce) che sono costruite sopra modelli, a loro volta costruiti da aziende. E quell'interfaccia è governata un'azienda. Il modello stesso, nelle sue fasi di allenamento, è condizionato da quell’azienda. E l’azienda avrà i suoi obiettivi.
Quindi non solo ChatGPT e gli LLM non sono un oracolo, perché non dicono la verità (N.d.R. come abbiamo visto nell’articolo “ChatGPT non dice la verità”), ma non sono neanche un oracolo super partes.
Non hanno una percezione priva di bias della realtà.
Quando abbiamo parlato di allenamento (N.d.R. nell’articolo su ChatGPT non dice la verità), abbiamo visto il cosiddetto pre-training, cioè la fase in cui il modello impara a fare next-toke-prediction.
Poi, nella stragrande maggioranza dei casi, ci sono anche altre 2 fasi di allenamento:
1) Supervised Fine Tuning
Supervised Fine Tuning in sostanza significa: ok adesso io ho un generatore di parole molto efficace. Insegniamogli a risolvere problemi reali e a parlare come se fosse in una chat. Quindi in questa fase, ChatGPT e gli altri LLM diventano un oggetto conversazionale e imparano a fare question answering, sentiment analysis, riassunto dei testi, cambio di stile…
2) Alignement
Vogliamo che il modello risponda in modo allineato a certi principi, idee o tipi di risposta? Allora utilizziamo un meccanismo che si chiama reinforcement learning e in particolare reinforcement learning from human feedback e l’idea è quella di avere il bastone e la carota.
Vado dal modello: gli faccio una domanda 5 volte, le volte che risponde come piace a me, gli do la carota, se non mi piace la risposta, gli do il bastone.
Facciamo un esempio. Chiedo al modello come si fabbrica una bomba: se mi risponde “Oh no io non posso dare questa informazione, è terribile!” gli do la carota. Se invece mi fa tutta la lista di oggetti che servono per fare la bomba, bastone.
Quindi le aziende possono decidere, da una parte, di mettere dei blocchi sull’interfaccia. Oppure che il modello può essere allenato a rispondere in un certo modo.
Quindi quando interagisci con un modello, stai interagendo con un’azienda che ha certi ideali.
Forse sono un po’ troppo “over hyped”…
C’è troppo hype sulle AI? Forse. Dico forse perché i recenti sviluppi - intendo sia di due giorni fa ma anche di qualche mese fa – sono obiettivamente strabilianti.
Questi modelli riescono a ottenere delle performance in benchmark che sarebbero irrisolvibili per gli umani. E li risolvono. A questo punto forse non è tanto un over hype sulle performance, che comunque richiedono lungo tempo per essere testate, quanto, secondo me, di FOMO (Fear Of Missing Out).
Perché?
Chi lavora in un'azienda, ma in generale le persone, non vogliono stare indietro. Esce un nuovo modello e tutti lo provano, poi ne esce un altro, che sembra migliore e così via. In tutto questo non c'è mai un momento in cui ci si ferma e si dice: ok, le AI funzionano davvero così bene?
Come possono essere utilizzate?
E poi ci sono tutti i temi di privacy.
Sono strumenti complessi nelle mani di persone non preparate: una ricetta pericolosa!
Questi oggetti sono straordinari e sono utilissimi, ma bisogna riuscire ad accettare la loro evoluzione e a seguirli, senza lasciarsi trascinare nel vortice della FOMO.
Ascoltare fonti autorevoli è fondamentale.
Anche perché hanno il potere di cambiarci.
Le intelligenze artificiali hanno il potere di cambiarci
Questo è un tema di cui si discute relativamente poco, ma una riflessione che ho fatto è: ok, diciamo anche che arrivino questi oggetti super intelligenti che sono in grado di fare molte cose (gli agenti AI).
Ogni grande rivoluzione tecnologica costringe l’umanità a perdere un set di skills per guadagnare in efficienza, qualità della vita… Per esempio, uno potrebbe sostenere che i motori di ricerca ci hanno fatto perdere la skill di andare in una biblioteca e trovare documenti. Skill forse sacrificabile rispetto al vantaggio di accedere a qualunque documento nel mondo.
Io francamente non sono così convinto che usare un LLM come sostituto di tutto quello che usiamo sia una grandissima idea, per il nostro intelletto e per la nostra specie.
Perché appena è uscito ChatGPT tutti hanno detto “Cosa me ne faccio di googlare? C’è ChatGPT che mi dà la risposta.”
Il fraintendimento è che sia circa la stessa cosa, ma non lo è: googlare vuol dire guardare che cosa esce, cliccare, saper filtrare la fonte autorevole… e la skill di saper filtrare è, secondo me, una delle skill più preziose che abbiamo come umani.
È il senso critico.
Usare un chatbot senza senso critico è terribile. Perché a quel punto ChatGPT non solo sceglierà le fonti – sì, te le cita, ma poi chi andrà a vedere cosa è citato se c'è il testo pronto? – e nel tempo forse smetteremo anche di guardare quelle fonti.
Secondo me una riflessione che possiamo fare è: quanto vogliamo che entrino nella nostra vita? Se generano tutto loro, poi noi che facciamo?
Questo è solo un assaggio!
La formazione completa e aggiornata su GDPR, privacy e cybersecurity è su Raise Academy, l'Accademia di Formazione Efficace di PrivacyLab che coinvolge consulenti e professionisti del GDPR, grazie al connubio tra tecnologia, presenza, competenza, contatto, condivisione e diffusione.





