APPROFONDIMENTI

L’intelletto “artificiale” e la problematica delle black box

Dalle reti neurali all'AI Act: sfide e regolamentazione della trasparenza nei sistemi di Intelligenza Artificiale
di Luca Tufarelli, Maria Lilia La Porta e Liliana Brindisi, Studio Legale Ristuccia Tufarelli & Partners

Abstract

Il presente contributo esamina il tema dell’“intelletto” dell’IA cioè il “modello” creato dall’algoritmo utilizzato per l’analisi e la schematizzazione del materiale su cui è stato addestrato, soffermandosi sulla problematica delle black box e sulla necessità di dare concreta attuazione ai principi stabiliti dall’AI Act per i sistemi ad alto rischio.

L’Intelletto Artificiale

Il Premio Nobel per la Fisica 2024 è stato assegnato agli scienziati John Hopfield e Geoffrey Hinton che intorno alla metà del secolo scorso elaborarono i modelli matematici delle cosiddette “reti neurali” perché per l’appunto imitano la modalità in cui i neuroni del nostro cervello interagiscono tra loro nel memorizzare e schematizzare le informazioni e le esperienze che costituiscono il nostro intelletto. Hopfield ha sviluppato un modello di rete neurale in grado di memorizzare schemi e di ricostruirli a partire da input parziali o distorti. Hinton, invece, ha sviluppato la Boltzmann Machine, una rete neurale capace di apprendere non tramite istruzioni dirette, ma osservando esempi ricorrenti.

Le reti neurali imparano a riconoscere gli elementi caratteristici delle informazioni – sulla base delle frequenze statistiche e probabilistiche con cui lettere e parole, anche distanti tra loro, si susseguono in un corpus documentale – e le traducono in un sistema vettoriale che, come il nostro intelletto, sintetizza le informazioni e identifica schemi per risolvere anche problemi non noti e/o trovare soluzioni in situazioni nuove o impreviste. Ma così come non abbiamo ancora risolto completamente il problema di dove e come il nostro cervello realizza le sue connessioni ed i suoi schemi, allo stesso modo non è stata data ancora la spiegazione scientifica di come gli algoritmi utilizzati condensano il risultato delle analisi condotte sui dati e sui corpus documentali su cui sono stati addestrati. Da ciò il motivo per cui gli strumenti di IA risultano poco comprensibili o non intuitivi per l’essere umano, un fenomeno noto come “opacità algoritmica” e comunemente descritto con la metafora delle scatole nere o “black box”.

.
.

La problematica delle black box nei sistemi di IA ad alto rischio

La black box è il frutto dell’algoritmo[1] che la ha generata ed è un connotato essenziale di ogni strumento di IA. L’opacità dell’algoritmo spesso non consente di ricostruire e spiegare nel dettaglio l’iter logico seguito dal sistema di IA per generare un output a partire dal suo modello che condensa l’essenza dei dataset utilizzati per realizzare l’Intelletto Artificiale.

I sistemi di IA ad alto rischio, sulla base del Regolamento (UE) 1689/2024 (“AI Act”), devono rispettare i principi di trasparenza, spiegabilità, controllo e supervisione umana. In particolare i principi di trasparenza e spiegabilità[2] impongono che i sistemi di IA ad alto rischio siano progettati e sviluppati in un modo “sufficientemente trasparente” e tale da consentire all’utilizzatore di interpretare l’output del sistema e utilizzarlo adeguatamente. Tuttavia, l’opacità algoritmica che sta alla base della formazione dell’intelletto artificiale, come abbiamo detto, non consente sempre allo sviluppatore o all’utilizzatore di comprendere il funzionamento del sistema di IA né di documentare nel dettaglio le soluzioni e/o le risposte proposte dallo strumento di IA. Proprio per questo l’AI Act prevede che i sistemi di IA ad alto rischio debbano essere progettati in modo da consentire agli umani di sorvegliarne il funzionamento.

L’opacità algoritmica e il rispetto dei principi sanciti dall’AI Act sollevano perciò criticità significative, vieppiù quando tali sistemi vengono impiegati per prendere decisioni che impattano sui diritti fondamentali degli individui. Si considerino, ad esempio, i sistemi di IA usati nel settore bancario per valutare l’affidabilità creditizia e quelli usati nel settore educativo per determinare l’accesso all’istruzione, entrambi qualificati come ad alto rischio dall’AI Act. I primi analizzano una molteplicità di dati contenuti nelle banche dati creditizie e finanziarie per determinare la solvibilità del cliente, i secondi valutano fattori come il merito accademico, i punteggi dei test, il background educativo e le esperienze pregresse. In entrambi i casi l’opacità algoritmica rende complessa la comprensione delle motivazioni sottostanti a una determinata decisione, sollevando criticità significative nel rispetto dei principi di trasparenza, spiegabilità, controllo e supervisione umana stabiliti dall’AI Act. Per garantire la conformità a tali principi è dunque di fondamentale importanza implementare un adeguato meccanismo di intervento umano – human in the loop – sia nella fase dell’addestramento dell’algoritmo sia in quella successiva di monitoraggio. A ciò si aggiunge la necessità di stabilire come nella pratica i principi stabiliti dal Regolamento potranno trovare concreta ed effettiva attuazione sia a livello comunitario che nazionale grazie alle normative di attuazione ed i provvedimenti che dovranno essere assunti dalle competenti autorità tecniche e di controllo cui la norma primaria spesso rimanda.

.
.

Conclusioni

Al legislatore comunitario va quindi riconosciuto il merito di aver regolamentato per primo il complesso fenomeno della IA con principi e regole di indubbio valore che però necessitano dei “complementi” che ne consentano l’effettiva e concreta applicazione. Vanno stabiliti limiti, soglie di rilevanza, linee guida, requisiti tecnici, modalità di documentazione della fase di addestramento, strumenti per il controllo e test di compatibilità. In questa prospettiva la normativa primaria e secondaria di attuazione, comprese le disposizioni di soft law, dovranno integrare e riempire di contenuto le disposizioni del Regolamento, specificando le disposizioni di dettaglio e gli strumenti operativi che consentiranno agli sviluppatori dei sistemi di IA ad alto rischio di rispettare i principi di trasparenza, spiegabilità, controllo e supervisione umana. Nel frattempo il rischio è quello di bloccare a livello europeo lo sviluppo della tecnologia limitando l’utilizzo degli strumenti di IA solo ai sistemi diversi da quelli ad alto rischio.

 

NOTE
[1] Tipicamente basato sul noto transformer.
[2] Nel fornire una definizione del principio di trasparenza, L’AI Act richiama gli orientamenti etici per un’IA affidabile elaborati nel 2019 dall’AI HLEG indipendente nominato dalla Commissione Europea: “i sistemi di IA devono essere sviluppati e utilizzati in modo da consentire un’adeguata tracciabilità e spiegabilità, rendendo gli esseri umani consapevoli del fatto di comunicare o interagire con un sistema di IA nonché informando debitamente i deployer delle capacità e dei limiti di tale sistema di IA e le persone interessate dei loro diritti” (cfr. considerando 27).

Ultimi articoli

Contattaci per avere maggiori informazioni

    al trattamento dei miei Dati Personali per la finalità di Marketing di cui alla sua sezione 3.b.

    al trattamento dei miei Dati Personali per la finalità di Personalizzare i nostri servizi di cui alla sua sezione 3.g.

    al trattamento dei miei Dati Personali per la finalità di Comunicazione a terze parti di cui sua alla sezione 3.b e 3.f.

    Potrebbe interessarti:

    il futuro

    È UN PROGETTO INTELLIGENTE

    Intelligenza umana e intelligenza artificiale generativa saranno i due asset del futuro dell’umanità. Il nostro modo di vivere, di lavorare, di relazionarci, di acquistare e di vendere cambierà radicalmente e saper maneggiare le nuove tecnologie farà la differenza in un mondo sempre più tecnologico e competitivo. Noi abbiamo gli strumenti per essere preparati a tutto questo.

    Formazione

    Scopri

    Ti proponiamo formazione multicanale sull’Intelligenza Artificiale Applicata, progettata per un’esperienza di apprendimento completa e coinvolgente.

    Coaching

    Scopri

    Ti guidiamo nel cambiamento con percorsi personalizzati o di team, lavorando su mentalità, metodo e approccio.

    Consulenza

    Scopri

    Ti aiutiamo a disegnare, implementare ed evolvere nel tempo progetti ad alto contenuto tecnologico nel settore dell’Intelligenza Artificiale.

    Software

    Scopri

    Abbiamo realizzato due soluzioni in grado di risolvere problemi concreti degli operatori utilizzando l’Intelligenza Artificiale.