Bene. Riprendiamo il fil rouge dell’intelligenza artificiale con un nuovo articolo, tratto dall’intervento al GDPR Forum 2025 di Giovanni Ziccardi, Professore Ordinario presso UniMI e UniBO, Avvocato, Giornalista Pubblicista e Direttore della rivista scientifica “Ciberspazio e Diritto”.
Ecco l’estratto del suo intervento: “AI Act: da dove parte e dove è arrivato il regolamento europeo sull’intelligenza artificiale. Come creare il giusto contesto di analisi”:
Buona lettura!
La supervisione umana nel regolamento europeo sull’intelligenza artificiale
Mi piacerebbe parlarvi delle priorità che, secondo me, l’AI Act porrà ai professionisti, ai DPO, agli esperti privacy. È un ordine di priorità molto molto personale.
Il primo problema è quello della supervisione umana.
Avrete sentito parlare di antropocentrismo. L’antropocentrismo nel regolamento sull’intelligenza artificiale ha due lati importanti.
Il primo è mettere l'essere umano al centro: la sua dignità, la non discriminazione, la protezione della vita privata, la protezione dei dati personali. E quello è l'approccio tipico europeo, ma c'è un aspetto molto interessante. Antropocentrismo è anche non lasciare sola l'intelligenza artificiale, ossia l'Unione Europea ha fatto la scelta - secondo me importante - di prevedere che ci debba sempre essere un soggetto - una persona fisica, c'è scritto nel regolamento - che supervisioni l'intelligenza artificiale.
E questo ha fatto un po’ sorridere perché, se è intelligenza artificiale, vuol dire che arriverà a un livello di intelligenza tale che potrà fare da sola. In realtà, è proprio la natura europea di questo regolamento che riporta delle considerazioni proprie della nostra tradizione.
La leggenda del Golem e l’AI Act
Se conoscete la Repubblica Ceca, avrete sentito parlare della leggenda del Golem, una creatura di argilla, che non era pensata solo per proteggere il ghetto ebraico di Praga, ma anche per fare i lavori più duri, per aiutare le signore a fare la spesa. Tra l’altro, golem - il cui termine originario richiama una massa informe - nella lingua ebraica moderna significa robot, viene usato come sinonimo. Per conoscere la storia del Golem, il riferimento migliore è “Praga magica” di Angelo Maria Ripellino, grande slavista (ancora adesso questo libro è meglio di tantissime guide che si trovano in giro). Quando Ripellino parla delle origini del Golem, dice che chi creava il Golem aveva già previsto almeno due possibilità per ucciderlo - due modalità di kill switch diremmo oggi – cioè, la possibilità di spegnere la macchina. Perché, quando l'essere umano pensa di delegare la sua intelligenza – in realtà il Golem non era cosciente, non aveva emozioni - pensa anche al modo di bloccare tutto, se il controllo si perde. In questo caso, la leggenda vuole che o si recitavano delle formule al contrario o gli si toglieva un pezzetto di carta dalla bocca, dove era indicata la parola che lo teneva in vita.
Se prendete l'articolo 14 dell’AI Act, trovate questa idea del badante umano dell’intelligenza artificiale (l’intelligenza artificiale che non va lasciata sola).
L’articolo 14 dell’AI Act e i 3 livelli di supervisione umana sull’intelligenza artificiale
La supervisione umana nell'articolo 14 è su 3 livelli:
- Primo livello: i sistemi di intelligenza artificiale e devono essere efficacemente supervisionati da persone fisiche. La centralità dell'essere umano. Questa sorveglianza a che cosa serve? A prevenire o ridurre al minimo i rischi per salute e sicurezza per i diritti fondamentali, che possono emergere quando un sistema di intelligenza artificiale ad alto rischio non sia usato conformemente alle sue finalità previste. Questo è un articolo che ha messo in crisi tantissime realtà perché, se voi dovete trovare una persona che sovrintenda o supervisioni a ogni strumento di intelligenza artificiale, questa persona deve avere delle competenze specifiche.
- Secondo livello: il supervisore umano deve comprendere correttamente le capacità e i limiti del sistema di intelligenza artificiale. Deve essere in grado di monitorarne debitamente il funzionamento, deve essere in grado di individuare o affrontare anomalie e disfunzioni e prestazioni inattese (altre competenze necessarie). In più, deve restare consapevole che, negli esseri umani, ci può essere la tendenza a fare automatico affidamento o eccessivo affidamento sull’output di un sistema di intelligenza artificiale.
- Terzo livello: il kill switch, che passa attraverso la possibilità per un essere umano di scegliere di non usare il sistema di intelligenza artificiale, di ignorarlo, di annullare la sua decisione o di ribaltare l'output. E alla fine – guardate, ecco il Golem – deve avere la possibilità di intervenire sul sistema o interromperlo mediante un pulsante di arresto, ovviamente l'arresto deve essere fatto in assoluta sicurezza (e quindi ulteriori competenze necessarie).
La seconda priorità è la dignità della persona.
La dignità della persona nell’uso dei sistemi di AI
La sorveglianza umana ha anche il compito, secondo me, di rispettare la dignità della persona. In alcune aziende si è posto il problema di come implementare, nelle postazioni di tutti i lavoratori e dipendenti, Copilot e del diritto delle persone di non volere l'intelligenza artificiale sul proprio dispositivo o sul proprio computer.
È legittimo.
Siete consulenti aziendali e viene da voi un dipendente. Vi dice “Son venuto a lavorare stamattina e ho trovato l’intelligenza artificiale sul mio computer. Sono a disagio. Da domani mi metto in malattia. Non sto bene, perché è più intelligente di me, perché scrive meglio di me, perché mi fa risparmiare il 30% del tempo, ma poi il mio datore di lavoro non mi dice come utilizzare quel 30% di tempo che ho risparmiato. Non mi va bene. Allora voglio un upskilling delle mie competenze per poterlo comprendere.”
Il problema dell'impatto sul welfare aziendale e sulla persona dei sistemi di intelligenza artificiale è spesso molto trascurato. Può capitare che una persona si senta in ansia nell'andare a lavorare tutte le mattine con un computer, dove c'è dentro un “piccolo alieno”: un soggetto più intelligente di lui.
ChatGPT ha una potenza che può mettere a disagio una persona che era abituata per una vita a fare le trascrizioni dei verbali dei consigli d'amministrazione. Adesso te lo fa l’AI. Però non te lo fa con la tua grazia, la tua cura, la passione che ci metti. L'ingresso dell'intelligenza artificiale nella vita di una persona può anche creare disagio.
Tutto qui? Certo che no!
Il discorso prosegue con altre priorità e riflessioni. Se vuoi sapere quali sono, puoi:
- aspettare il prossimo articolo tratto dall’intervento di Giovanni Ziccardi al GDPR Forum
- andare su Raise Academy e vedere direttamente la registrazione
Perché questo è solo un assaggio!
La formazione completa e aggiornata su GDPR, privacy e cybersecurity è su Raise Academy, l'Accademia di Formazione Efficace di PrivacyLab che coinvolge consulenti e professionisti del GDPR, grazie al connubio tra tecnologia, presenza, competenza, contatto, condivisione e diffusione.






