Intervista a Enrico Ferraris, Responsabile Product Privacy & Ethics PagoPA
INTERVISTE
L’Intelligenza Artificiale vista da Alan Turing: l’intervista postuma
Abstract
In questa intervista (virtuale), il padre dell’informatica moderna ci offre il suo punto di vista sugli sviluppi dell’Intelligenza Artificiale e sulle sfide che ci attendono.
La storia dell’informatica e dell’Intelligenza Artificiale non sarebbe la stessa senza Alan Turing (1912-1954). Matematico, crittografo e pioniere dell’informatica, Turing ha posto le basi teoriche del moderno computer e dell’Intelligenza Artificiale. In questa intervista abbiamo provato ad immaginare il possibile dialogo con lui sui temi più scottanti dell’AI contemporanea, immaginando come la sua straordinaria mente analizzerebbe gli sviluppi più recenti di questa tecnologia.
.
.
Dott. Turing, cosa pensa dell’evoluzione che l’Intelligenza Artificiale sta avendo negli ultimi due anni, dal rilascio di ChatGPT 3.5 nel 2022?
È affascinante osservare come le mie intuizioni teoriche degli anni ’50 si stiano concretizzando in modi che allora potevamo solo immaginare. Il test che proposi nel 1950 – oggi noto come “Test di Turing” – era un esperimento mentale per valutare l’intelligenza delle macchine. Quello che vedo oggi con sistemi come ChatGPT è sorprendente, ma non del tutto inaspettato dal punto di vista teorico. Ciò che trovo particolarmente interessante è l’approccio utilizzato: l’apprendimento attraverso grandi quantità di dati è qualcosa che avevo teorizzato nel mio articolo “Computing Machinery and Intelligence“. L’idea che le macchine potessero “imparare” anziché essere programmate esplicitamente era centrale nel mio pensiero. Tuttavia, la scala e la velocità con cui questo sta accadendo superano le mie più ottimistiche previsioni.
La vera rivoluzione che osservo non è tanto nella tecnologia in sé, quanto nell’impatto sociale e culturale che sta avendo. Quando scrivevo dei computer “pensanti”, molti consideravano queste idee pure fantascienza. Oggi, milioni di persone interagiscono quotidianamente con sistemi AI, ed è questo cambiamento culturale che trovo più significativo.
.
.
Ritiene che si possa nel breve periodo raggiungere l’AGI, quindi l’Intelligenza Artificiale generale che eguaglia le capacità umane?
La questione dell’AGI tocca il cuore stesso di ciò che definiamo “intelligenza”. Nel mio lavoro, ho sempre sostenuto che la domanda “Le macchine possono pensare?” fosse mal posta. La vera domanda è: “Cosa significa pensare?“. E questa domanda è ancora più rilevante oggi.
I sistemi attuali, per quanto impressionanti, sono ancora fondamentalmente diversi dall’intelligenza umana. Hanno capacità straordinarie in domini specifici, ma mancano di quella che chiamerò “comprensione contestuale generale” – la capacità di trasferire conoscenze da un dominio all’altro e di comprendere veramente il significato di ciò che stanno elaborando.
Nel breve periodo – diciamo nei prossimi 5-10 anni – ritengo improbabile il raggiungimento di una vera AGI. Ciò che vedremo sarà piuttosto un continuo miglioramento dei sistemi esistenti, che potrebbero apparire sempre più “intelligenti” in contesti specifici. Ma c’è una differenza fondamentale tra simulare comportamenti intelligenti e possedere una vera intelligenza generale. Le sfide principali non sono solo tecniche, ma anche teoriche. Dobbiamo ancora comprendere pienamente come funziona la coscienza umana, come emerge l’autoconsapevolezza, come si sviluppa la creatività genuina. Senza queste comprensioni fondamentali, creare una vera AGI rimane un obiettivo distante.
.
.
Alcuni scenari fantascientifici dell’Intelligenza Artificiale che sfugge al controllo umano sono secondo lei possibili e realistici?
Come matematico, ho sempre cercato di basare le mie analisi su fondamenti logici rigorosi, non su speculazioni sensazionalistiche. Tuttavia, il problema del controllo dell’AI è genuino e merita seria considerazione. Il concetto di una “fuga dal controllo” dell’AI va analizzato su diversi livelli. Non si tratta tanto di scenari alla Terminator – che considero più utili come metafore che come previsioni realistiche – quanto di problemi più sottili e immediati. Per esempio, già oggi vediamo sistemi AI che prendono decisioni che i loro stessi creatori faticano a spiegare completamente. Questo è ciò che chiamo il “problema della scatola nera“.
La vera preoccupazione non è tanto che l’AI diventi improvvisamente ostile, quanto che possa causare danni significativi attraverso decisioni ottimizzate per obiettivi mal specificati. È quello che nel campo dell’informatica teorica chiamiamo “problema dell’allineamento“: come assicurarci che i sistemi AI perseguano obiettivi veramente allineati con i valori umani?
Durante il mio lavoro a Bletchley Park nella decrittazione dei codici nazisti, ho imparato quanto sia cruciale mantenere il controllo sui sistemi complessi. La stessa lezione si applica all’AI: dobbiamo sviluppare metodi rigorosi per garantire che questi sistemi rimangano comprensibili e controllabili.
.
.
Cosa pensa dell’influenza che l’AI sta avendo sui media?
L’influenza dell’AI sui media mi ricorda, per certi versi, l’impatto che ebbe l’introduzione della stampa di Gutenberg. Stiamo assistendo a una rivoluzione nella produzione e distribuzione dell’informazione, con implicazioni profonde per la società. Ciò che trovo particolarmente interessante è la democratizzazione della creazione di contenuti. Gli strumenti AI stanno rendendo accessibili a tutti capacità che un tempo richiedevano competenze specialistiche. Questo ha aspetti positivi – maggiore accessibilità e creatività – ma anche rischi significativi.
Nel mio lavoro sulla computabilità, ho sempre sottolineato l’importanza della verificabilità dei risultati. Con i media generati dall’AI, questa verificabilità diventa sempre più complessa. Come distinguere il vero dal generato? Come mantenere l’autenticità in un mondo dove la creazione di contenuti diventa sempre più automatizzata?
La sfida più grande che vedo non è tanto tecnologica quanto educativa: dobbiamo sviluppare una nuova forma di alfabetizzazione mediatica che permetta alle persone di navigare in questo nuovo panorama informativo.
.
.
Le fake news generate con l’AI come possono essere secondo Lei contrastate, per evitare frodi e reati informatici?
Il problema delle fake news generate dall’AI è particolarmente interessante per me, dato il mio background in crittografia. Durante la guerra, lavorando sui codici Enigma, ho imparato che ogni sistema di codifica può essere decifrato se si hanno gli strumenti giusti. Lo stesso principio si applica al rilevamento dei contenuti falsi.
La soluzione, a mio avviso, deve essere multilivello: primo, dobbiamo sviluppare strumenti tecnologici avanzati per il rilevamento dei contenuti generati dall’AI. Questo è un problema di pattern recognition, campo in cui ho lavorato estensivamente. Ma attenzione: sarà sempre una corsa agli armamenti tra sistemi di generazione e sistemi di rilevamento.
Secondo, è essenziale implementare sistemi di autenticazione robusta per i contenuti digitali. Penso a qualcosa di simile ai watermark digitali, ma più sofisticati, basati magari su principi crittografici.
Terzo, e forse più importante, dobbiamo ripensare completamente il nostro approccio alla verifica delle informazioni. Nel mio lavoro sulla computabilità, ho dimostrato che alcuni problemi sono fondamentalmente indecidibili. Similmente, potremmo dover accettare che distinguere con certezza assoluta il vero dal falso in ambiente digitale potrebbe diventare impossibile, concentrandoci invece su approcci probabilistici e su una maggiore educazione critica.
.
.
Cosa dovrebbero fare i Paesi produttori di AI per regolamentare efficacemente questo settore a tutela dei diritti dell’uomo?
Questa domanda tocca un tema che mi sta particolarmente a cuore, data la mia personale esperienza con le limitazioni dei diritti civili. La regolamentazione dell’AI deve bilanciare l’innovazione tecnologica con la protezione dei diritti fondamentali.
Basandomi sulla mia esperienza nel settore governativo durante la guerra, suggerirei un approccio su tre livelli: primo, è necessario stabilire standard internazionali chiari per lo sviluppo dell’AI, simili ai protocolli che regolano la ricerca nucleare o biomedica. Questi standard dovrebbero includere requisiti di trasparenza, verificabilità e responsabilità.
Secondo, dobbiamo implementare sistemi di supervisione indipendenti. Durante il mio lavoro a Bletchley Park, ho imparato l’importanza di avere controlli e contrappesi efficaci. Nel caso dell’AI, questo potrebbe significare la creazione di organismi di controllo internazionali con reali poteri di intervento.
Terzo, è fondamentale stabilire principi etici vincolanti per lo sviluppo dell’AI. Questi principi dovrebbero essere incorporati nei framework legali nazionali e internazionali, con particolare attenzione alla protezione della privacy, dell’autonomia individuale e dell’equità sociale.
La mia esperienza personale mi ha insegnato quanto sia importante proteggere i diritti individuali di fronte al progresso tecnologico. L’AI non deve diventare uno strumento di controllo o discriminazione, ma deve rimanere al servizio del progresso umano.
Il futuro dell’AI è tanto promettente quanto complesso. La sfida più grande non sarà tanto tecnologica quanto umana: come utilizzare questa potente tecnologia per migliorare la condizione umana preservando al contempo i nostri valori fondamentali?
.
.
Nota editoriale: questa intervista è un’opera di fiction creativa basata sul pensiero e le teorie di Alan Turing. Le risposte sono state elaborate immaginando come il grande matematico avrebbe potuto rispondere alle domande attuali sull’AI, basandosi sui suoi scritti, le sue teorie e il suo approccio scientifico.
Ultimi articoli
Intelligenza artificiale e fotografia: evoluzione o rivoluzione?
Intervista a Walter Guadagnini, Direttore Artistico di CAMERA – Centro Italiano per la Fotografia
Intelligenza Artificiale e Due Diligence: la rivoluzione dell’analisi legale con CleverChain
Intervista ad Ermanno Ciarrocchi, Chief Growth Officer di CleverChain.
Contattaci per avere maggiori informazioni
Potrebbe interessarti:
AI in PagoPA: innovazione tecnologica al servizio dei cittadini
Intervista a Enrico Ferraris, Responsabile Product Privacy & Ethics PagoPA
Intelligenza artificiale e fotografia: evoluzione o rivoluzione?
Intervista a Walter Guadagnini, Direttore Artistico di CAMERA – Centro Italiano per la Fotografia
Intelligenza Artificiale e Due Diligence: la rivoluzione dell’analisi legale con CleverChain
Intervista ad Ermanno Ciarrocchi, Chief Growth Officer di CleverChain.
Esplora i nostri archivi
il futuro
È UN PROGETTO INTELLIGENTE
Intelligenza umana e intelligenza artificiale generativa saranno i due asset del futuro dell’umanità. Il nostro modo di vivere, di lavorare, di relazionarci, di acquistare e di vendere cambierà radicalmente e saper maneggiare le nuove tecnologie farà la differenza in un mondo sempre più tecnologico e competitivo. Noi abbiamo gli strumenti per essere preparati a tutto questo.




