Il caso di un contratto di locazione commerciale
APPROFONDIMENTI
I Diritti Umani nella rivoluzione dell’Intelligenza Artificiale
Abstract
L’intelligenza artificiale sta trasformando rapidamente la nostra società, sollevando importanti questioni sui diritti umani fondamentali. Sono tante e complesse le sfide normative legate all’IA, e l’approccio europeo prettamente “human-centered” si distingue da quello statunitense. In questo contesto di incertezza, progetti interdisciplinari in grado di promuovere il confronto e la ricerca fanno la differenza.

L’intelligenza artificiale si sta integrando in quasi ogni aspetto della vita quotidiana e delle attività istituzionali, sollevando domande cruciali sui diritti fondamentali e sulla necessità di strumenti efficaci per governarne l’impatto. Come ogni rivoluzione tecnologica, l’IA porta con sé enormi potenzialità, ma anche rischi significativi per la tutela dei diritti fondamentali e della dignità umana. Infatti, grazie alla capacità di analizzare enormi quantità di dati, prendere decisioni autonome e apprendere autonomamente, i sistemi di intelligenza artificiale sono in crescente utilizzo in ambiti come la sanità, la mobilità, l’efficienza amministrativa e l’accessibilità dei servizi pubblici. Tuttavia, proprio queste caratteristiche possono comportare violazioni sistematiche o involontarie dei diritti umani, specialmente nel campo della privacy, della non discriminazione, della libertà di espressione e del diritto a un equo processo.
Ad esempio, algoritmi predittivi utilizzati nelle decisioni giudiziarie, come nella giustizia predittiva negli Stati Uniti, o nella sorveglianza predittiva utilizzata in alcuni Stati europei, sollevano rilevanti questioni di trasparenza, accountability e possibile discriminazione algoritmica. La natura spesso opaca e complessa dei modelli IA rende difficile identificare chiaramente le responsabilità in caso di violazioni di diritti, facendo emergere la necessità di nuovi approcci regolamentari e giuridici.
La valutazione di impatto sui diritti umani: oltre all’AI Act
Uno degli strumenti emergenti per affrontare queste sfide è la valutazione di impatto sui diritti umani (Fundamental Rights Impact Assessment o “FRIA”). Si tratta di uno strumento sistematico per identificare, comprendere e gestire gli effetti potenziali o effettivi delle tecnologie IA sui diritti fondamentali.
A livello europeo, la valutazione di impatto è stata prevista in vari strumenti normativi, come il Regolamento 2016/679, detto regolamento generale sulla protezione dei dati (GDPR), che già prevede l’obbligo di condurre una valutazione d’impatto sulla protezione dei dati (DPIA) quando i trattamenti automatizzati possono presentare rischi elevati per i diritti e le libertà degli individui. Più recentemente, il Regolamento europeo 2024/1689 sull’intelligenza artificiale (AI Act) introduce, a corredo della DPIA, obblighi specifici di valutazione e gestione dei rischi per le applicazioni classificate come ad alto rischio, puntando a un approccio preventivo basato sulla tutela dei diritti umani. In generale, l’AI Act prevede un approccio ai sistemi di IA basato sul rischio, rendendo illegali quei sistemi giudicati troppo pericolosi per il loro impatto sui diritti umani e mantenendo comunque l’obbligo della trasparenza e della spiegabilità per tutti gli altri.
Per questo con il nostro gruppo di lavoro Human Hall 4 AI che si occupa di ricerca applicata e interdisciplinare in materia di intelligenza artificiale abbiamo recentemente pubblicato il primo passo della nostra metodologia per promuovere uno sviluppo di sistemi di IA che siano antropocentrici e che mirino a sostenere le attività umane e non a sostituirle.
Il ruolo dell’Unione Europea nel promuovere un approccio “Human Centered” a confronto con l’approccio USA
Con la mia recente esperienza di visiting presso la Fordham University di New York ho potuto constatare, direttamente, come i principi della nuova amministrazione americana stiano creando profonde incertezze in chi si occupa di diritti umani. Questo ha delle ricadute anche sulla governance dei sistemi di IA. L’AI Act europeo, infatti, caratterizza un approccio normativo centralizzato e fondato sulla valutazione del rischio, che si inserisce coerentemente in una strategia più ampia volta a garantire un’IA antropocentrica, affidabile e rispettosa dei diritti fondamentali. Questo impianto regolatorio si articola anche attraverso strumenti soft law, come il General-Purpose AI Code of Practice, attualmente in fase di finalizzazione, volto a tradurre i principi dell’AI Act in indicazioni operative per sviluppatori e utilizzatori.
Al contrario, il modello statunitense si caratterizza per una governance frammentata, affidata a una pluralità di agenzie federali e statali spesso sovrapposte, e per una tendenza alla deregolamentazione, che si è acuita durante il secondo mandato dell’amministrazione Trump con politiche che hanno profondamente indebolito tutele civili e programmi di inclusione. Questa divergenza riflette non solo differenti priorità normative, ma anche dissonanze più ampie in merito al ruolo dello Stato nella tutela dei diritti nell’era digitale. Tuttavia, nonostante queste frizioni, esistono spazi significativi di cooperazione transatlantica, soprattutto nell’ambito dello sviluppo di standard tecnici condivisi, della ricerca scientifica e delle linee guida etiche. In questo senso, iniziative come il citato Codice di condotta europeo potrebbero fungere da catalizzatori per una progressiva armonizzazione, contribuendo alla costruzione di un ecosistema globale dell’IA che sia insieme innovativo e rispettoso della dignità umana.
Verso una governance integrata e interdisciplinare
Alla luce di questa comparazione, appare evidente che la governance dell’intelligenza artificiale non può limitarsi a un solo approccio giuridico o tecnologico. Serve un approccio integrato e interdisciplinare che combini expertise giuridica, tecnologica, etica e sociale. È fondamentale che la valutazione di impatto non diventi un mero esercizio burocratico, ma un momento reale di riflessione sui diritti umani, capace di anticipare e correggere le criticità, garantendo allo stesso tempo l’innovazione tecnologica.
Human Hall 4 AI: una risposta interdisciplinare
Proprio in questo contesto nasce e si inserisce il progetto Human Hall 4 AI (HH4AI), promosso dal centro di ricerca Human Hall dell’Università degli Studi di Milano. HH4AI è un progetto di ricerca applicata che riunisce competenze provenienti dal diritto costituzionale, dall’etica, dall’informatica e dalla sociologia, con l’obiettivo di sviluppare strumenti concreti per la valutazione degli impatti dell’intelligenza artificiale sui diritti fondamentali.
Il progetto si distingue per il suo approccio interdisciplinare e partecipativo, che coinvolge attivamente stakeholder istituzionali, imprese, società civile e comunità scientifica nella definizione di metodologie e linee guida pratiche per la conduzione delle valutazioni di impatto. Tra le iniziative più significative di HH4AI c’è la realizzazione una metodologia per la FRIA, specifica per l’intelligenza artificiale, che non si limita alla valutazione di sistemi ad alto rischio ma si propone come strumento concreto per le imprese e le istituzioni che intendono governare i propri sistemi di IA.
HH4AI si propone come centro di competenza, risorsa e guida per navigare queste complessità, assicurando che l’innovazione tecnologica sia sempre al servizio dell’uomo e non viceversa. Seguire l’attività del progetto HH4AI significa partecipare a un dibattito essenziale per il futuro della società digitale, contribuendo a diffondere consapevolezza e strumenti concreti per una governance efficace e responsabile dell’intelligenza artificiale.
L’intersezione tra IA e diritti umani non è solo un tema accademico, ma una sfida pratica che riguarda l’intera società.
Ultimi articoli
Deepfake reato: cosa prevede la Legge 132/2025
Disposizioni contro la diffusione illecita di contenuti generati o alterati con l’intelligenza artificiale
AI, in California obblighi più stringenti sui chatbot
Una linea in contrasto con la tendenza trumpiana
Contattaci per avere maggiori informazioni
Potrebbe interessarti:
L’equilibrio fondamentale tra velocità e rigore nell’intelligenza artificiale per avvocati
Il caso di un contratto di locazione commerciale
Deepfake reato: cosa prevede la Legge 132/2025
Disposizioni contro la diffusione illecita di contenuti generati o alterati con l’intelligenza artificiale
AI, in California obblighi più stringenti sui chatbot
Una linea in contrasto con la tendenza trumpiana
Esplora i nostri archivi
il futuro
È UN PROGETTO INTELLIGENTE
Intelligenza umana e intelligenza artificiale generativa saranno i due asset del futuro dell’umanità. Il nostro modo di vivere, di lavorare, di relazionarci, di acquistare e di vendere cambierà radicalmente e saper maneggiare le nuove tecnologie farà la differenza in un mondo sempre più tecnologico e competitivo. Noi abbiamo gli strumenti per essere preparati a tutto questo.




