
Qualche giorno fa ho iniziato a guardare una serie TV “Il rifugio atomico” (Billionaires’ Bunker) è una serie thriller spagnola creata da Álex Pina, già autore de “La Casa di Carta” (La Case de Papel).
La trama ruota attorno a un gruppo di miliardari che si rifugia in un bunker ultratecnologico chiamato Kimera Underground Park per sfuggire a una guerra nucleare imminente.
In questo ambiente claustrofobico e lussuoso, vecchie rivalità familiari riemergono, alimentando tensioni e conflitti psicologici. La serie mescola satira sociale, dramma e suspense, esplorando le dinamiche di potere e l’ipocrisia dell’élite mondiale.
Mi ha colpito, inoltre, come nei diversi scenari distopici rappresentati nella serie emergano riferimenti espliciti a numerose tematiche affrontate nell’AI Act dell’Unione Europea — in particolare quelle legate ai deepfake, al riconoscimento biometrico in tempo reale e ad altri aspetti critici dell’intelligenza artificiale.
Non si tratta certo della prima serie TV ad affrontare questi argomenti: anche la celeberrima Black Mirror ne ha esplorati diversi, anticipando in più occasioni riflessioni oggi al centro del dibattito pubblico.

L’AI Act dell’Unione Europea
Il testo integrale dell’AI Act è consultabile online in tutte le lingue europee, ma diciamocelo: non è esattamente il tipo di lettura “da spiaggia”. Per questo ho deciso di selezionare i passaggi più interessanti e presentarli in modo più accessibile, lasciando da parte il linguaggio “legalese” (giuridico) evitando che cadiate nelle braccia di Morfeo prima di arrivare al comma 12 dell’articolo 57.
Obiettivi principali
Garantire un mercato interno armonizzato per l’IA
Con la crescente attenzione verso l’intelligenza artificiale e la sua capillare adozione, diversi Paesi dell’UE avevano iniziato a sviluppare normative e linee guida autonome per regolamentarla e tutelare i cittadini.
Questa frammentazione normativa, però, rischiava di creare disuguaglianze e ostacoli alla libera circolazione delle tecnologie legate all’IA.
Per questo motivo, l’AI Act punta a uniformare il quadro legislativo europeo, così da evitare che le imprese debbano affrontare complessità aggiuntive nello sviluppo, nella commercializzazione e nell’uso dei sistemi di IA, dovendo adattarsi a normative locali differenti.
Un approccio simile a quello già adottato per il mercato unico europeo di prodotti e servizi.
L’AI Act introduce un insieme condiviso di diritti fondamentali a tutela della salute, della sicurezza, della privacy e delle libertà individuali.
L’obiettivo è creare un ecosistema europeo per l’IA che favorisca un’adozione affidabile, trasparente e centrata sull’essere umano (antropocentrica).
Particolare attenzione è rivolta a PMI (Piccole e Medie Imprese) e Start-Up (impresa emergente), con l’intento di offrire un ambiente favorevole, fatto di regole chiare e strumenti di supporto, atti a stimolare l’innovazione evitando di compromettere i valori fondamentali dell’Unione.
Promozione di un’IA antropocentrica e affidabile, rispettosa dei diritti fondamentali e della democrazia e dell’ambiente
Quando si parla di IA antropocentrica, si intende un’intelligenza artificiale pensata per essere al servizio dell’essere umano, e non per sostituirlo né tantomeno dominarlo. Deve rispettare la dignità umana, la libertà individuale e i valori democratici, agendo come supporto alle decisioni umane, soprattutto in contesti critici come giustizia, sanità, lavoro, ecc.
Una IA affidabile si può tradurre in un sistema che garantisca la sicurezza tecnica, ovvero che funzioni in modo corretto, prevedibile e resistente a errori, manipolazioni o attacchi.
Per gli utenti, deve inoltre essere garantita la trasparenza: ogni volta che interagiscono con un sistema di IA, devono saperlo chiaramente.
Inoltre, l’IA dovrà prevedere meccanismi di controllo e supervisione umana (noti anche come HITLM – human in the loop), operando in conformità con la Carta dei Diritti Fondamentali dell’UE, assicurando:
- privacy e protezione dei dati personali
- assenza di discriminazioni
- la libertà di informazione e di espressione
- equo accesso a servizi pubblici e privati.
Il regolamento proibisce esplicitamente alcune pratiche considerate ad alto rischio per i diritti e le libertà individuali, tra cui:
- manipolazione del comportamento delle persone (es. IA subliminale)
- sfruttamento delle vulnerabilità (es. età, disabilità, ecc.)
- classificazione sociale degli individui o la previsione di reati solo sulla base di profili personali
È stata anche approntata una sezione a tutela ambientale, incoraggiando uno sviluppo sostenibile dei sistemi IA che sia efficiente dal punto di vista energetico e che riduca l’impatto ambientale, integrando valutazioni ambientali già nelle fasi di progettazione e deployment.
Per farla breve, l’obiettivo è mettere l’essere umano al centro dello sviluppo tecnologico, garantendo che l’IA sia utile, sicura e controllabile, che non comprometta i valori democratici né i diritti fondamentali, e che contribuisca, al tempo stesso, a un futuro sostenibile e inclusivo.

Prevenire gli effetti nocivi dei sistemi di IA
Cosa si intende per effetti nocivi dell’intelligenza artificiale? Si tratta di una serie di azioni potenzialmente dannose che questi sistemi possono compiere, alcune delle quali già accennate in precedenza. Tra queste rientrano:
- discriminazioni algoritmiche, dovute alla presenza di “bias” (pregiudizi cognitivi o distorsioni) nei dati o nei modelli
- violazioni della privacy e dei diritti fondamentali
- manipolazione del comportamento umano, attraverso sistemi persuasivi o ingannevoli
- sorveglianza abusiva, come il riconoscimento biometrico in tempo reale
- decisioni automatizzate ingiuste, in ambiti delicati come lavoro, credito, giustizia
- impatto ambientale, legato all’uso intensivo di risorse computazionali
Le misure di prevenzione per contrastare questi rischi introducono una serie di misure concrete, quali:
- classificazione per livello di rischio: i sistemi vengono suddivisi in cinque categorie — inaccettabile, alto, limitato, minimo e sistemico — in base al potenziale impatto
- divieti espliciti: sono vietati i sistemi considerati a rischio inaccettabile, come il social scoring, la classificazione etnica o i deepfake non dichiarati
- supervisione umana obbligatoria: i sistemi ad alto rischio devono essere monitorati da persone competenti, in grado di intervenire e disattivare il sistema in caso di anomalie.
- qualità dei dati e prevenzione dei “bias”: è richiesto l’uso di dati rappresentativi e privi di pregiudizi, con misure specifiche per evitare distorsioni nei risultati
- monitoraggio continuo e gestione degli incidenti: le aziende devono sorvegliare costantemente il funzionamento dei sistemi IA e segnalare eventuali incidenti gravi alle autorità competenti
- valutazione d’impatto sui diritti fondamentali: obbligatoria per enti pubblici e aziende che impiegano IA in ambiti sensibili come credito, assicurazioni, lavoro
- trasparenza e informazione: gli utenti devono essere informati quando interagiscono con un sistema IA o quando un contenuto è generato artificialmente
In sintesi, queste misure mirano a mitigare i rischi, proteggere le persone e i loro diritti, garantire un uso etico e sicuro dell’IA e favorire la fiducia nell’adozione di queste tecnologie.
Favorire l’innovazione, in particolare per PMI e start-up
L’Unione Europea sta predisponendo un quadro di misure concrete per sostenere l’innovazione nel settore dell’intelligenza artificiale, con particolare attenzione a PMI e start-up. Grazie a strumenti finanziari mirati, come equity e quasi-equity — cioè investimenti diretti o strumenti finanziari ibridi con possibilità di conversione in capitale — si punta a facilitare l’accesso al capitale di rischio e a stimolare la crescita del settore.
Inoltre, sono previste semplificazioni normative e l’istituzione di sandbox regolamentari: ambienti controllati e protetti dove le imprese possono testare tecnologie IA in condizioni reali senza correre rischi legali o sanzionatori.
Questi spazi, disciplinati dall’articolo 57 dell’AI Act, rappresentano un’occasione preziosa per sviluppare, validare e migliorare soluzioni innovative prima del loro ingresso sul mercato.
Le PMI potranno contare su linee guida, strumenti operativi e assistenza tecnica per conformarsi alle normative, senza essere schiacciate dalla complessità burocratica. L’obiettivo è ridurre gli ostacoli e incoraggiare l’adozione dell’IA anche da parte di realtà con risorse limitate, facilitando così un ecosistema inclusivo e dinamico.
Infine, la legge promuove collaborazioni tra università, centri di ricerca, imprese e amministrazioni pubbliche, incentivando la condivisione di conoscenze e buone pratiche. La strategia nazionale per l’IA prevede inoltre aggiornamenti biennali, con obiettivi chiari e misure di sostegno, allineati con l’evoluzione tecnologica e normativa.
Cosa non si potrà più fare con l’intelligenza artificiale
Dal 2 febbraio 2025 sono in vigore nuove norme che vietano alcune pratiche considerate lesive dei diritti fondamentali, per garantire un uso etico e sicuro dell’IA. Ecco le principali aree tematiche, corredate da esempi concreti tratti dalle storie segnalate su AlgorithmWatch.org:
1. Manipolazione subliminale
Sono vietati i sistemi IA che influenzano le persone senza che se ne accorgano, sfruttando tecniche nascoste.
Esempi:
- Pubblicità che modifica impercettibilmente immagini o suoni per suscitare desideri.
- Assistenti vocali che cambiano tono e ritmo per influenzare l’umore.
- Algoritmi che usano dati biometrici (come il battito cardiaco) per cambiare in tempo reale ciò che vediamo.
- Stimoli visivi o sonori troppo rapidi o impercettibili, ma capaci di condizionare le emozioni.
Perché è vietata? Perché viola la libertà di scelta e sfrutta le debolezze cognitive delle persone, spesso senza che se ne rendano conto.
Riferimenti esterni:
The AI Revolution Comes With the Exploitation of Gig Workers – Le aziende di Business Process Outsourcing (BPO) gestiscono il lavoro umano dietro lo sviluppo dell’intelligenza artificiale. Tuttavia, sono accusate di sfruttamento dei lavoratori, sottopagamento e furto salariale. Le grandi aziende tecnologiche traggono vantaggio da questo modello operativo
Work Inside the Machine: How Pre-saves and Algorithmic Marketing Turn Musicians into Influencers – Le piattaforme di streaming permettono agli utenti di aggiungere brani in uscita alle proprie playlist, così da poterli ascoltare non appena vengono pubblicati. Anche se può sembrare una funzione innocua, ha modificato le abitudini dei musicisti indipendenti, che sentono di dover adattarsi a un altro algoritmo.
2. Sorveglianza biometrica illecita
Si tratta dell’uso non autorizzato di tecnologie che analizzano volto, voce, movimenti, espressioni e altri dati biometrici.
Esempi:
- Raccolta di immagini facciali dai social o da telecamere pubbliche senza consenso.
- Telecamere che identificano persone in tempo reale in piazze o stazioni.
- Sistemi che deducono razza, religione o orientamento sessuale dal volto.
- Analisi delle emozioni sul lavoro o a scuola per valutare impegno o motivazione.
- Algoritmi che prevedono comportamenti criminali basandosi su tratti fisici.
Eccezioni (molto limitate):
- Ricerca di persone scomparse.
- Prevenzione di attacchi terroristici.
- Identificazione di sospetti di crimini gravi, solo con autorizzazione giudiziaria.
Riferimenti esterni:
The Automated Fortress Europe: No Place for Human Rights – Negli ultimi dieci anni, 29.000 persone sono morte nel Mediterraneo mentre cercavano di raggiungere l’Unione Europea. Si potrebbe pensare che l’UE voglia porre fine a questa tragedia e che gli scienziati europei stiano lavorando febbrilmente per farlo, utilizzando le tecnologie più avanzate. In realtà sta accadendo il contrario: con l’aiuto della cosiddetta intelligenza artificiale, vengono eretti muri digitali alle frontiere, finanziati con denaro pubblico.
The Rise and Fall of a Predictive Policing Pioneer – KeyCrime è stata la prima azienda del suo genere, dedicata all’utilizzo dell’intelligenza artificiale per identificare schemi ricorrenti nei crimini seriali. Tuttavia, l’AI Act dell’Unione Europea ha inferto al progetto un colpo mortale. Ma l’idea continua a vivere.
Spanish Inmates Not to Be Automatically Monitored in Fear of AI Act – Il governo della regione spagnola della Catalogna ha approvato l’uso di un software basato sull’intelligenza artificiale per monitorare i detenuti e interpretarne il comportamento. Parzialmente finanziato dall’Unione Europea, il sistema avrebbe dovuto essere implementato nel carcere di Mas d’Enric, vicino a Tarragona, una città a sud di Barcellona, e successivamente esteso ad altri istituti penitenziari regionali. Alla fine, però, non è stato realizzato.
3. Classificazione sociale automatizzata (Social Scoring)
È vietato usare l’IA per attribuire punteggi o etichette alle persone in base a comportamenti o caratteristiche personali, se questo porta a trattamenti ingiusti.
Esempi:
- Un governo che limita l’accesso a servizi pubblici in base al comportamento online.
- Una banca che rifiuta un prestito per abitudini di consumo, anche se il cliente è affidabile.
- Un datore di lavoro che scarta candidati per punteggi calcolati da IA, non legati alle competenze.
- Assicurazioni che aumentano i costi basandosi su preferenze politiche o stile di vita.
Cosa è ammesso:
- Valutazioni basate su dati oggettivi (es. storico finanziario).
- Sistemi di reputazione su piattaforme digitali (es. recensioni).
- Valutazioni professionali basate su performance reali.
Riferimenti esterni:
False Positives: A Podcast on Financial Discrimination & De-banking – AlgorithmWatch e Agence France-Presse (AFP) hanno pubblicato un podcast sulla discriminazione automatizzata nel settore finanziario, basato su un’indagine durata sei mesi condotta nell’ambito della nostra fellowship per il giornalismo sulla responsabilità algoritmica.
Flagged by the Algorithm: Klarna Thought I’m a Fraudster – I sistemi automatizzati della società di pagamenti flessibili Klarna hanno segnalato un utente per presunto mancato pagamento di un ordine online. Le era stato comunicato che un errore sulla piattaforma le aveva impedito di completare il pagamento, ma gli algoritmi di Klarna l’hanno inserita direttamente in una lista di cattivi pagatori, dalla quale non poteva uscire senza affrontare una complicata trafila amministrativa.
Regole europee sui modelli di IA generali (GPAI)
Dal 2 agosto 2025 è entrato in vigore nell’Unione Europea un nuovo quadro normativo dedicato ai modelli di intelligenza artificiale a finalità generali, noti come GPAI (General-Purpose Artificial Intelligence).
Si tratta di modelli molto potenti e versatili, capaci di svolgere compiti diversi, dal generare testi o immagini al supporto decisionale complesso, che devono ora rispettare una serie di obblighi per garantire trasparenza, sicurezza e tutela dei diritti fondamentali.
Cosa sono i modelli GPAI secondo l’AI Act
Si tratta di modelli che:
- sono addestrati con enormi quantità di dati e potenza computazionale, pari ad almeno 10^23 operazioni in virgola mobile (FLOPs);
- dimostrano una notevole versatilità, ovvero sono capaci di svolgere una vasta gamma di compiti, indipendentemente dal modo in cui vengono distribuiti o commercializzati;
- possono essere integrati in molteplici sistemi o applicazioni downstream.
Sono esclusi dalla definizione i modelli utilizzati esclusivamente per ricerca, sviluppo o prototipazione, purché non siano ancora stati immessi sul mercato.
GPAI e rischio sistemico: cosa significa
Un modello GPAI è considerato a rischio sistemico se soddisfa almeno uno dei seguenti criteri:
- supera la soglia di 10^25 FLOPs di calcolo cumulativo per l’addestramento;
- possiede capacità di impatto elevato, come la generazione avanzata di contenuti o l’autonomia decisionale;
- è formalmente designato dalla Commissione Europea come modello ad alto rischio.
In questi casi, il modello è soggetto a obblighi più stringenti, tra cui:
- notifica all’Ufficio europeo per l’Intelligenza Artificiale (AI Office);
- implementazione di misure robuste di gestione e mitigazione del rischio.
Obblighi per i fornitori di GPAI
Chi sviluppa o commercializza modelli GPAI deve rispettare una serie di requisiti:
- documentazione tecnica dettagliata, da aggiornare regolarmente;
- sintesi pubblica dei dataset di addestramento, secondo template ufficiali;
- politiche chiare sul rispetto del diritto d’autore, sia per i dati utilizzati che per i contenuti generati;
- test indipendenti sui modelli e notifica di incidenti gravi all’AI Office;
- per i GPAI a rischio sistemico, valutazioni continue del rischio e misure di mitigazione efficaci.
Chi modifica significativamente un GPAI esistente — ad esempio tramite fine-tuning che impiega oltre un terzo del calcolo originale — è considerato nuovo fornitore e deve rispettare gli stessi obblighi.
Tempistiche e esenzioni
L’AI Act prevede una fase transitoria:
- per i modelli GPAI già sul mercato prima del 2 agosto 2025, il termine per l’adeguamento è fissato al 2 agosto 2027;
- per i modelli nuovi o aggiornati, le regole si applicano a partire dal 2 agosto 2025.
Alcuni modelli open-source possono beneficiare di esenzioni, a condizione che:
- siano rilasciati con licenze autenticamente open-source;
- non siano commercializzati;
- rendano pubblici pesi, architettura e informazioni d’uso;
- non siano classificati come a rischio sistemico.
Conclusione
Billionaires’ Bunker ci proietta in un futuro inquietante, ma tutt’altro che remoto. In un mondo dove chi dispone di risorse illimitate può accedere a tecnologie avanzate e strumenti inaccessibili per la maggior parte delle persone — traendone vantaggi, profitti e potere — il divario tra élite e cittadini comuni rischia di diventare una voragine.
L’AI Act, con tutte le sue complessità, rappresenta un tentativo concreto di riequilibrare queste dinamiche, cercando di governare l’innovazione prima che sia essa a governare noi.
In un contesto in cui la tecnologia evolve più rapidamente delle nostre capacità di comprensione e regolazione, serve una bussola normativa che non si limiti a proteggere, ma che sappia anche orientare verso un futuro equo, sicuro e centrato sull’essere umano.
Gabriele P
English Version available on LinkedIn: The EU AI Act Between Fiction and Reality: Analysis from New Tech Narratives