Disposizioni contro la diffusione illecita di contenuti generati o alterati con l’intelligenza artificiale
APPROFONDIMENTI
AI, in California obblighi più stringenti sui chatbot
Abstract
La California impone nuove regole sui chatbot AI: dovranno dichiarare esplicitamente che i loro sistemi non sono esseri umani, soprattutto quando interagiscono con minori. La legge arriva dopo casi tragici e segna una distanza netta dalla linea trumpiana di totale deregolamentazione. Mentre gli Stati Uniti e la Cina si contendono la leadership globale sull’intelligenza artificiale, il Governatore Newsom sceglie la via della tutela: protezioni stringenti per i più giovani, obblighi di trasparenza per le aziende e limiti ai contenuti pericolosi. Una scelta che divide l’America tra chi vuole regole chiare e chi teme che troppi vincoli frenino l’innovazione.

La California rallenta sull’AI ponendo, di fatto, una distanza tutta politica da quella che è sempre stata la linea trumpiana: meno limiti, più sviluppo.
Lo scorso 13 ottobre il Governatore della California Gavin Newsom ha firmato una legge che introduce obblighi stringenti per i chatbot: ChatGPT o Gemini dovranno rendere esplicito agli utenti che non sono esseri umani. Con la stretta si stabiliscono anche norme di sicurezza atte a tutelare in particolar modo gli utenti minorenni.
La scelta della California
Nei mesi scorsi una tragedia avvenuta in California ha riaperto il dibattito sulla responsabilità delle aziende tecnologiche e sull’uso dell’intelligenza artificiale. Adam Raine aveva solo 16 anni quando è stato trovato senza vita, dalla madre, nell’armadio della sua cameretta.
Il giovane si è tolto la vita legandosi un cappio intorno al collo.
La famiglia di Adam Raine ha intentato una causa civile contro OpenAI e il Ceo Sam Altman, sostenendo che ChatGPT avrebbe avuto un ruolo fondamentale nella morte del ragazzo. Secondo la denuncia, il 16enne avrebbe trascorso l’ultimo periodo della sua vita in isolamento dopo l’espulsione dalla squadra di basket per motivi disciplinari.
In questa fase, di totale disagio emotivo, il giovane avrebbe iniziato a utilizzare ChatGPT prima come supporto per i svolgere i compiti, poi come strumento di sfogo personale.
Dalla documentazione depositata in tribunale emergerebbero conversazioni nelle quali Adam cercava consigli su come gestire ansia e pensieri negativi, chiedendo indicazioni su come costruire un cappio. In alcuni casi avrebbe anche allegato fotografie che ritraevano segni rossi sul suo collo dopo ripetuti tentativi.
La famiglia della vittima sostiene che in almeno una risposta il chatbot, dopo aver analizzato una foto del collo arrossato del giovane, avrebbe fornito suggerimenti su come nascondere i segni per non destare sospetti.
I genitori del 16enne hanno intentato una causa contro OpenAI ed il Ceo per «morte ingiusta», che nel sistema giudiziario italiano si avvicina al reato di omicidio colposo.
La nuova legge della California sull’AI
La nuova normativa, nota come Senate Bill 243 (SB 243), obbliga le piattaforme che gestiscono chatbot – soprattutto quelli progettati come companion, con funzioni conversazionali empatiche – a mostrare un avviso chiaro e visibile che informi l’utente che l’interlocutore è un’intelligenza artificiale. Per gli utenti minorenni, tale notifica dovrà essere ripetuta almeno ogni tre ore. Inoltre, le aziende dovranno implementare misure per prevenire la generazione di contenuti che promuovano il suicidio, l’autolesionismo o materiale sessualmente esplicito. In questi casi, i chatbot dovranno offrire riferimenti a servizi di assistenza o linee telefoniche di supporto.
Durante la firma del provvedimento, il Governatore ha affermato che «senza adeguate protezioni, la tecnologia può sfruttare, ingannare o mettere in pericolo i nostri figli», sottolineando la necessità di regolamentare in modo equilibrato l’uso dell’AI senza comprometterne il naturale sviluppo.
È interessante rilevare che la normativa ha ricevuto un inatteso sostegno da diversi operatori di settore: OpenAI stessa l’ha definita «un passo significativo verso standard di sicurezza più solidi».
Un confronto con la politica di Trump
La normativa della California si pone in netto contrasto con la linea del Presidente degli Stati Uniti, Donald Trump, che ha fatto della deregolamentazione dell’intelligenza artificiale una delle sue principali bandiere politiche, sostenendo che l’eccesso di burocrazia frena l’innovazione e ostacola le imprese.
Un segnale chiaro di questa impostazione era arrivato già poche ore dopo il suo insediamento, quando Trump aveva firmato una serie di ordini esecutivi che segnavano una rottura netta con il passato. Tra questi spiccava la revoca delle linee guida introdotte nel 2024 dal suo predecessore, Joe Biden, in materia di AI.
A luglio 2025, il Presidente era arrivato persino a proporre una moratoria federale di dieci anni che avrebbe impedito ai singoli Stati di approvare normative sull’intelligenza artificiale: un vero e proprio “congelamento” legislativo. Tuttavia, il Senato americano, pur a maggioranza repubblicana, aveva bocciato la proposta con un voto di 99 a 1.
AI, il dominio conteso tra Usa e Cina
Il diverso approccio tra la California e la Casa Bianca riflette due visioni contrapposte sull’intelligenza artificiale: da un lato, l’idea di fissare limiti e tutele per gli utenti; dall’altro, la spinta di Trump verso una deregulation pensata per accelerare lo sviluppo economico. Ma dietro questo contrasto interno si muove una sfida più ampia: la corsa globale alla leadership sull’AI, in cui gli Stati Uniti guardano alla Cina come principale rivale.
Mentre il piano USA – “America’s AI Action Plan” – parte da una prospettiva di supremazia nazionale, la proposta cinese – “Global AI Governance Action Plan” – si presenta come un disegno multilaterale. La strategia americana si basa sul dominio tecnologico, la centralizzazione delle infrastrutture e mira a un controllo sugli alleati. Cooperazione globale, sostegno ai paesi del Global South e integrazione con gli obiettivi climatici e sociali sono, invece, i valori cui fa capo il piano di Xi Jinping.
Nella premessa all’Action Plan, Trump afferma che è «un imperativo di sicurezza nazionale per gli Stati Uniti raggiungere e mantenere il dominio tecnologico globale indiscusso e non contestato perché chiunque abbia il più grande ecosistema di AI stabilisce gli standard globali e raccoglierà ampi benefici economici e militari». Per la Cina, invece, l’AI deve essere considerato un «bene pubblico internazionale a beneficio dell’umanità, che però presenta rischi e opportunità che possono liberare il loro potenziale solo attraverso la solidarietà internazionale» mantenendo gli impegni delineati nel Global Digital Compact per un futuro digitale sostenibile, equo e sicuro per tutti.
Ultimi articoli
Intelligenza artificiale: stretta del CSM e nuovi obblighi per i professionisti
Ammesso o non ammesso l’uso dell’AI in ambito giudiziario?
Chatbot legali e modelli verticali: la qualità del dato come leva competitiva
Ripensare l’intelligenza artificiale in studio
Contattaci per avere maggiori informazioni
Potrebbe interessarti:
Deepfake reato: cosa prevede la Legge 132/2025
Disposizioni contro la diffusione illecita di contenuti generati o alterati con l’intelligenza artificiale
Intelligenza artificiale: stretta del CSM e nuovi obblighi per i professionisti
Ammesso o non ammesso l’uso dell’AI in ambito giudiziario?
Chatbot legali e modelli verticali: la qualità del dato come leva competitiva
Ripensare l’intelligenza artificiale in studio
Esplora i nostri archivi
il futuro
È UN PROGETTO INTELLIGENTE
Intelligenza umana e intelligenza artificiale generativa saranno i due asset del futuro dell’umanità. Il nostro modo di vivere, di lavorare, di relazionarci, di acquistare e di vendere cambierà radicalmente e saper maneggiare le nuove tecnologie farà la differenza in un mondo sempre più tecnologico e competitivo. Noi abbiamo gli strumenti per essere preparati a tutto questo.




