Disposizioni contro la diffusione illecita di contenuti generati o alterati con l’intelligenza artificiale
APPROFONDIMENTI
L’intelletto “artificiale” e la problematica delle black box
Abstract
Il presente contributo esamina il tema dell’“intelletto” dell’IA cioè il “modello” creato dall’algoritmo utilizzato per l’analisi e la schematizzazione del materiale su cui è stato addestrato, soffermandosi sulla problematica delle black box e sulla necessità di dare concreta attuazione ai principi stabiliti dall’AI Act per i sistemi ad alto rischio.

L’Intelletto Artificiale
Il Premio Nobel per la Fisica 2024 è stato assegnato agli scienziati John Hopfield e Geoffrey Hinton che intorno alla metà del secolo scorso elaborarono i modelli matematici delle cosiddette “reti neurali” perché per l’appunto imitano la modalità in cui i neuroni del nostro cervello interagiscono tra loro nel memorizzare e schematizzare le informazioni e le esperienze che costituiscono il nostro intelletto. Hopfield ha sviluppato un modello di rete neurale in grado di memorizzare schemi e di ricostruirli a partire da input parziali o distorti. Hinton, invece, ha sviluppato la Boltzmann Machine, una rete neurale capace di apprendere non tramite istruzioni dirette, ma osservando esempi ricorrenti.
Le reti neurali imparano a riconoscere gli elementi caratteristici delle informazioni – sulla base delle frequenze statistiche e probabilistiche con cui lettere e parole, anche distanti tra loro, si susseguono in un corpus documentale – e le traducono in un sistema vettoriale che, come il nostro intelletto, sintetizza le informazioni e identifica schemi per risolvere anche problemi non noti e/o trovare soluzioni in situazioni nuove o impreviste. Ma così come non abbiamo ancora risolto completamente il problema di dove e come il nostro cervello realizza le sue connessioni ed i suoi schemi, allo stesso modo non è stata data ancora la spiegazione scientifica di come gli algoritmi utilizzati condensano il risultato delle analisi condotte sui dati e sui corpus documentali su cui sono stati addestrati. Da ciò il motivo per cui gli strumenti di IA risultano poco comprensibili o non intuitivi per l’essere umano, un fenomeno noto come “opacità algoritmica” e comunemente descritto con la metafora delle scatole nere o “black box”.
.
.
La problematica delle black box nei sistemi di IA ad alto rischio
La black box è il frutto dell’algoritmo[1] che la ha generata ed è un connotato essenziale di ogni strumento di IA. L’opacità dell’algoritmo spesso non consente di ricostruire e spiegare nel dettaglio l’iter logico seguito dal sistema di IA per generare un output a partire dal suo modello che condensa l’essenza dei dataset utilizzati per realizzare l’Intelletto Artificiale.
I sistemi di IA ad alto rischio, sulla base del Regolamento (UE) 1689/2024 (“AI Act”), devono rispettare i principi di trasparenza, spiegabilità, controllo e supervisione umana. In particolare i principi di trasparenza e spiegabilità[2] impongono che i sistemi di IA ad alto rischio siano progettati e sviluppati in un modo “sufficientemente trasparente” e tale da consentire all’utilizzatore di interpretare l’output del sistema e utilizzarlo adeguatamente. Tuttavia, l’opacità algoritmica che sta alla base della formazione dell’intelletto artificiale, come abbiamo detto, non consente sempre allo sviluppatore o all’utilizzatore di comprendere il funzionamento del sistema di IA né di documentare nel dettaglio le soluzioni e/o le risposte proposte dallo strumento di IA. Proprio per questo l’AI Act prevede che i sistemi di IA ad alto rischio debbano essere progettati in modo da consentire agli umani di sorvegliarne il funzionamento.
L’opacità algoritmica e il rispetto dei principi sanciti dall’AI Act sollevano perciò criticità significative, vieppiù quando tali sistemi vengono impiegati per prendere decisioni che impattano sui diritti fondamentali degli individui. Si considerino, ad esempio, i sistemi di IA usati nel settore bancario per valutare l’affidabilità creditizia e quelli usati nel settore educativo per determinare l’accesso all’istruzione, entrambi qualificati come ad alto rischio dall’AI Act. I primi analizzano una molteplicità di dati contenuti nelle banche dati creditizie e finanziarie per determinare la solvibilità del cliente, i secondi valutano fattori come il merito accademico, i punteggi dei test, il background educativo e le esperienze pregresse. In entrambi i casi l’opacità algoritmica rende complessa la comprensione delle motivazioni sottostanti a una determinata decisione, sollevando criticità significative nel rispetto dei principi di trasparenza, spiegabilità, controllo e supervisione umana stabiliti dall’AI Act. Per garantire la conformità a tali principi è dunque di fondamentale importanza implementare un adeguato meccanismo di intervento umano – human in the loop – sia nella fase dell’addestramento dell’algoritmo sia in quella successiva di monitoraggio. A ciò si aggiunge la necessità di stabilire come nella pratica i principi stabiliti dal Regolamento potranno trovare concreta ed effettiva attuazione sia a livello comunitario che nazionale grazie alle normative di attuazione ed i provvedimenti che dovranno essere assunti dalle competenti autorità tecniche e di controllo cui la norma primaria spesso rimanda.
.
.
Conclusioni
Al legislatore comunitario va quindi riconosciuto il merito di aver regolamentato per primo il complesso fenomeno della IA con principi e regole di indubbio valore che però necessitano dei “complementi” che ne consentano l’effettiva e concreta applicazione. Vanno stabiliti limiti, soglie di rilevanza, linee guida, requisiti tecnici, modalità di documentazione della fase di addestramento, strumenti per il controllo e test di compatibilità. In questa prospettiva la normativa primaria e secondaria di attuazione, comprese le disposizioni di soft law, dovranno integrare e riempire di contenuto le disposizioni del Regolamento, specificando le disposizioni di dettaglio e gli strumenti operativi che consentiranno agli sviluppatori dei sistemi di IA ad alto rischio di rispettare i principi di trasparenza, spiegabilità, controllo e supervisione umana. Nel frattempo il rischio è quello di bloccare a livello europeo lo sviluppo della tecnologia limitando l’utilizzo degli strumenti di IA solo ai sistemi diversi da quelli ad alto rischio.
NOTE
[1] Tipicamente basato sul noto transformer.
[2] Nel fornire una definizione del principio di trasparenza, L’AI Act richiama gli orientamenti etici per un’IA affidabile elaborati nel 2019 dall’AI HLEG indipendente nominato dalla Commissione Europea: “i sistemi di IA devono essere sviluppati e utilizzati in modo da consentire un’adeguata tracciabilità e spiegabilità, rendendo gli esseri umani consapevoli del fatto di comunicare o interagire con un sistema di IA nonché informando debitamente i deployer delle capacità e dei limiti di tale sistema di IA e le persone interessate dei loro diritti” (cfr. considerando 27).
Ultimi articoli
AI, in California obblighi più stringenti sui chatbot
Una linea in contrasto con la tendenza trumpiana
Intelligenza artificiale: stretta del CSM e nuovi obblighi per i professionisti
Ammesso o non ammesso l’uso dell’AI in ambito giudiziario?
Contattaci per avere maggiori informazioni
Potrebbe interessarti:
Deepfake reato: cosa prevede la Legge 132/2025
Disposizioni contro la diffusione illecita di contenuti generati o alterati con l’intelligenza artificiale
AI, in California obblighi più stringenti sui chatbot
Una linea in contrasto con la tendenza trumpiana
Intelligenza artificiale: stretta del CSM e nuovi obblighi per i professionisti
Ammesso o non ammesso l’uso dell’AI in ambito giudiziario?
Esplora i nostri archivi
il futuro
È UN PROGETTO INTELLIGENTE
Intelligenza umana e intelligenza artificiale generativa saranno i due asset del futuro dell’umanità. Il nostro modo di vivere, di lavorare, di relazionarci, di acquistare e di vendere cambierà radicalmente e saper maneggiare le nuove tecnologie farà la differenza in un mondo sempre più tecnologico e competitivo. Noi abbiamo gli strumenti per essere preparati a tutto questo.




