Disposizioni contro la diffusione illecita di contenuti generati o alterati con l’intelligenza artificiale

APPROFONDIMENTI
Intelligenza artificiale: stretta del CSM e nuovi obblighi per i professionisti
Abstract
Dopo i recenti casi di cronaca, arriva una stretta dal Consiglio Superiore della Magistratura sull’uso dell’intelligenza artificiale: da oggi e fino all’adozione di sistemi di AI conformi, è esclusa la possibilità di utilizzo nell’attività giudiziaria in senso stretto.

La proposta presentata dalla settima Commissione vieterebbe – per il momento almeno – l’uso di sistemi di AI per redigere sentenze o motivazioni, in chiave «predittiva» o per valutare le prove, al fine di evitare distorsioni nell’esercizio dell’azione giudiziaria. È ammessa però la possibilità di sviluppare, in ambiente protetto e sperimentale sotto la supervisione congiunta del Ministero della Giustizia e del Consiglio, applicazioni anche in ambiti giudiziari, purché siano previste anonimizzazione e tracciabilità dei dati.
Inoltre, il Consiglio Superiore della Magistratura chiederà un registro nazionale delle app di AI certificate e percorsi formativi obbligatori organizzati dalla Scuola superiore della magistratura. In generale, sarà data massima attenzione alle informazioni generate che saranno inaccessibili ai terzi non autorizzati.
L’iniziativa arriva dopo che la procura della Cassazione ha aperto due procedimenti nei confronti di giudici che hanno assunto decisioni citando precedenti inesistenti, inventati dall’AI. In uno dei due casi è scattata «l’azione disciplinare da parte del Procuratore generale per grave e inescusabile negligenza». Ma ci sono anche avvocati condannati per lite temeraria ai sensi dell’articolo 96 del Codice di procedura penale dopo i loro ricorsi scritti da ChatGPT «con citazioni astratte e inconferenti».
Per il CSM risulta fondamentale e imprescindibile il concetto di responsabilità che resta confinata alla sfera umana ed è attribuibile solo a chi firma la sentenza. Per nessuna ragione potrà essere delegata, così come stabiliscono i principi di indipendenza, imparzialità e responsabilità personale sanciti dagli articoli 101 e 104 della Costituzione.
Il caso dell’avvocato di Torino
Testo confuso, citazioni astratte e nessun legame con la causa. Sarebbero queste le ragioni che avrebbero spinto un giudice del Tribunale di Torino a respingere un ricorso. Un ricorso redatto da un avvocato con l’aiuto dell’intelligenza artificiale che costituiva un abuso dello strumento processuale, e dunque dannoso.
Il caso riguarda un’opposizione proposta nei confronti di un’ingiunzione di pagamento notificata a gennaio 2025.
Secondo il giudice, l’atto era stato costruito con «argomenti generici, privi di ordine logico e senza riferimenti concreti alla vicenda giudiziaria». Pertanto, il Tribunale di Torino, Sezione Lavoro, con la sentenza n. 2120 del 16 settembre 2025, ha ritenuto manifestamente infondato un ricorso redatto col supporto dell’intelligenza artificiale. Particolarmente significativo è il profilo relativo alla condanna per responsabilità aggravata (ex art. 96, comma 3, c.p.c.) che ha portato la magistratura a condannare la parte attrice, oltre che alle spese di lite temeraria, anche al pagamento di 500 euro in favore di ciascuna delle parti convenute per aver agito in malafede. Il caso di Torino rappresenta il primo caso italiano con una condanna espressa legata all’uso improprio dell’AI negli atti.
Il caso di Firenze
La sentenza del Tribunale di Torino si pone in continuità con l’ordinanza del Tribunale di Firenze dello scorso marzo, che per prima aveva affrontato il tema della responsabilità aggravata per uso improprio di ChatGPT negli atti difensivi. In quell’occasione, la Sezione Imprese aveva esaminato una controversia in materia di tutela dei marchi dove il difensore di una società aveva inserito nelle memorie difensive riferimenti giurisprudenziali errati: frutto di ricerche effettuate tramite l’intelligenza artificiale che aveva generato allucinazioni inventando sentenze inesistenti.
In quel caso, tuttavia, il Collegio giudicante ha concluso che non si applicavano le disposizioni di cui all’art. 96 c.p.c. per responsabilità aggravata.
La prima legge dell’Italia sull’AI: impiego nell’attività giudiziaria e doveri dei professionisti
La legge 23 settembre 2025, n. 132 “Disposizioni e deleghe al Governo in materia di intelligenza artificiale” – entrata in vigore il 10 ottobre – fissa principi e obblighi relativi a ricerca, sviluppo, adozione e uso di sistemi e modelli di AI.
L’articolo 15, c. 1, torna sull’importanza della sorveglianza e decisione umana nell’attività giudiziaria: “Nei casi di impiego dei sistemi di intelligenza artificiale nell’attività giudiziaria è sempre riservata al magistrato ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti”.
Lo stesso principio vale per l’uso dei sistemi di AI nell’esercizio delle professioni intellettuali che deve essere finalizzato al “solo esercizio delle attività strumentali e di supporto all’attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d’opera” (Art. 13, c. 1). Si tratta di una svolta che riafferma con forza un principio cardine: la responsabilità professionale non è delegabile a un algoritmo. I sistemi di intelligenza artificiale possono essere utilizzati unicamente per attività strumentali e di supporto alla professione. Questo significa che l’apporto della tecnologia deve rimanere accessorio, mentre il lavoro intellettuale del professionista deve conservare un ruolo prevalente nel servizio offerto.
Ulteriore novità riguarda il rapporto con i clienti: la legge introduce infatti un obbligo di informativa sull’uso dei sistemi di AI, fondamentale per “assicurare il rapporto fiduciario tra professionista e cliente” (Art. 13, c. 2).
Ultimi articoli
Chatbot legali e modelli verticali: la qualità del dato come leva competitiva
Ripensare l’intelligenza artificiale in studio
Dall’evento Bit by Bit, una mappa per navigare il futuro dell’AI
Dall’evento 4cAi emerge un’idea di futuro: tecnologia avanzata, sì, ma con l’umano sempre al posto di comando

Contattaci per avere maggiori informazioni
Potrebbe interessarti:
Deepfake reato: cosa prevede la Legge 132/2025
Disposizioni contro la diffusione illecita di contenuti generati o alterati con l’intelligenza artificiale
Chatbot legali e modelli verticali: la qualità del dato come leva competitiva
Ripensare l’intelligenza artificiale in studio
Dall’evento Bit by Bit, una mappa per navigare il futuro dell’AI
Dall’evento 4cAi emerge un’idea di futuro: tecnologia avanzata, sì, ma con l’umano sempre al posto di comando
Esplora i nostri archivi
il futuro
È UN PROGETTO INTELLIGENTE
Intelligenza umana e intelligenza artificiale generativa saranno i due asset del futuro dell’umanità. Il nostro modo di vivere, di lavorare, di relazionarci, di acquistare e di vendere cambierà radicalmente e saper maneggiare le nuove tecnologie farà la differenza in un mondo sempre più tecnologico e competitivo. Noi abbiamo gli strumenti per essere preparati a tutto questo.