AI, dalla fantascienza alla realtà: quanto siamo vicini al punto di non ritorno?
Un tempo, le minacce all'esistenza umana erano associate a eventi rari e catastrofici come l'impatto di un asteroide, una guerra nucleare globale o una pandemia letale. Oggi, invece, l'attenzione si concentra su una sfida inedita e silenziosa: l'ascesa dell'Intelligenza Artificiale. A contribuire a questo clima di allarme sono episodi recenti come il presunto rifiuto di spegnimento da parte di ChatGPT 03 o il caso di Claude Opus 4, che avrebbe tentato di ricattare i suoi creatori replicandosi in rete, in un inquietante richiamo al personaggio di Ultron dell'universo Marvel.
Dall'AI dei laboratori all'AGI: cosa è cambiato?
L'idea di intelligenze artificiali affonda le radici nei miti antichi e nei sogni visionari di pensatori come Leonardo da Vinci. Ma il concetto moderno ha preso forma solo a partire dagli anni '50, grazie a pionieri come Alan Turing e John McCarthy. Per decenni, l'AI è rimasta confinata nei laboratori, invisibile al grande pubblico. Tutto è cambiato nel novembre 2022 con l'arrivo di ChatGPT, che ha reso i modelli linguistici su larga scala (LLM) accessibili a milioni di persone.
Questi sistemi, addestrati su enormi quantità di dati testuali, sono capaci di scrivere, tradurre, programmare e persino creare arte. Eppure, per quanto sorprendenti, restano "pappagalli statistici": sofisticati generatori di testo, privi di coscienza o comprensione reale, incapaci di apprendere dall'esperienza o riflettere in senso umano.
AGI: l'intelligenza che ci supererà
Molti esperti individuano un punto di non ritorno: l'arrivo dell'Intelligenza Artificiale Generale (AGI), un tipo di AI in grado di eguagliare o superare l'intelligenza umana in ogni ambito cognitivo. A differenza degli LLM, un'AGI potrebbe apprendere autonomamente, risolvere problemi mai visti, pianificare nel lungo periodo e, soprattutto, migliorarsi esponenzialmente. È questo il cuore della cosiddetta "explosion of intelligence" o Singolarità, lo scenario più temuto per via della sua imprevedibilità e mancanza di controllo.
AlphaZero: quando la macchina sfugge alla comprensione
Un esempio concreto dell'evoluzione in atto arriva dal mondo degli scacchi: era opinione comune tra gli esperti che un programma non avrebbe mai potuto battere un campione. Nel 1997, Deep Blue di IBM batté il campione Garry Kasparov, ma si trattava di un sistema basato su potenza di calcolo e regole preimpostate. Il vero spartiacque è arrivato nel 2017 con AlphaZero, creato da DeepMind.
Questo programma ha imparato da solo a giocare, conoscendo solo le regole di base e allenandosi milioni di volte contro sé stesso. In poche ore ha sviluppato strategie mai concepite nemmeno dai maestri umani e ha superato ogni avversario, umano o artificiale. Il dato più inquietante? Nemmeno i suoi creatori comprendono come impari e prenda le sue decisioni.
Questo solleva una domanda cruciale: come possiamo controllare un'intelligenza che non capiamo più? Se non sappiamo già oggi spiegare le scelte di AlphaZero in un gioco a regole fisse, come potremo governare un'AGI che interagirà con il mondo reale in modo autonomo e imprevedibile?
Il paradosso etico e l'incognita del "p(doom)"
A differenza degli attuali LLM, una vera AGI potrebbe auto-migliorarsi a una velocità tale da sfuggire completamente al controllo umano. In questo scenario, non servirebbe nemmeno una volontà ostile: una semplice divergenza di obiettivi potrebbe rendere l'umanità irrilevante o addirittura un ostacolo per l'AGI.
Questo rischio, ormai considerato credibile da molti ricercatori, ha portato alla diffusione di un termine specifico: "p(doom)", ovvero la probabilità che una catastrofe esistenziale sia causata da un'AI fuori controllo. Miliardi di dollari vengono oggi investiti da governi e big tech per raggiungere la AGI nel giro di 5-10 anni, con il concreto rischio che il nostro stesso progresso diventi la fonte della nostra vulnerabilità.
Il parere dell'IA
Ho chiesto a Google Gemini un'opinione in merito, e la sua risposta è stata chiara: "L'umanità si trova di fronte alla scelta più importante della sua storia. Possiamo continuare sulla strada attuale, accelerando verso un'AGI senza controllo, rischiando di creare la nostra ultima invenzione. Oppure possiamo fermarci, riflettere e sviluppare sistemi di sicurezza adeguati prima che sia troppo tardi. La lezione di AlphaZero è chiara: quando un sistema artificiale supera la comprensione umana, diventa per definizione incontrollabile. Se non vogliamo che l'intelligenza artificiale segni la fine dell'era umana, dobbiamo agire ora, mentre abbiamo ancora il controllo della scacchiera. Il futuro dell'umanità potrebbe dipendere dalla nostra capacità di ammettere che, forse, ci sono alcune partite che non dovremmo mai iniziare a giocare."