Questa previsione, apparentemente estrema, non arriva da visionari. A formularla sono scienziati, ingegneri e dirigenti ai vertici delle aziende che stanno costruendo l’intelligenza artificiale giorno dopo giorno. La domanda, quindi, non è più se accadrà. Ma quando, e soprattutto: saremo pronti?
I teorici si aspettano che l'ASI (intelligenza artificiale superintelligente) trasformerà tutte le attività umane in modi che oggi non possiamo prevedere, sviluppando soluzioni e innovazioni che attualmente non siamo nemmeno in grado di immaginare. Sebbene una superintelligenza generalizzata non esista ancora, esistono già forme di superintelligenza ristretta.
Ad esempio, Google DeepMind ha sviluppato AlphaZero, un’IA in grado di superare qualsiasi essere umano negli scacchi, nello shogi (scacchi giapponesi) e nel Go, un gioco da tavolo strategico.
Ha inoltre rilasciato AlphaFold, un’intelligenza artificiale in grado di prevedere come si piegano le molecole proteiche, un processo che, fino a poco tempo fa, richiedeva anni di sperimentazione scientifica.
Perché si parla di un orizzonte di 12 mesi
Fino a pochi anni fa, la singolarità sembrava un’ipotesi remota, una teoria vincolata a convegni futuristici o film hollywoodiani. Ma il ritmo con cui sta evolvendo l’intelligenza artificiale ha sorpreso persino i suoi stessi creatori. I modelli linguistici come quelli che alimentano gli assistenti virtuali, ad esempio, hanno mostrato in poco tempo un’intelligenza sorprendente, riescono a comprendere contesti complessi, generare idee, scrivere codice, analizzare testi, produrre arte. E soprattutto, imparano in fretta.
Secondo una corrente crescente di scienziati, il prossimo grande salto non sarà qualitativo, ma auto-riflessivo: il momento in cui un’intelligenza artificiale non si limiterà a risolvere problemi, ma imparerà a progettare e potenziare sé stessa. Questo processo, noto come recursive self-improvement, rappresenta il cuore della singolarità. E a differenza dell’evoluzione umana, che ha impiegato milioni di anni, questa trasformazione potrebbe avvenire in giorni, ore, minuti.
Un cambiamento silenzioso ma dirompente
Contrariamente all’immaginario collettivo, la singolarità potrebbe non manifestarsi in modo spettacolare. Niente robot che marciano per le strade, nessuna ribellione delle macchine in stile "Terminator". Alcuni esperti suggeriscono che potrebbe accadere in modo quasi noioso: un miglioramento progressivo e continuo, che passerà inosservato dalla maggior parte delle persone fino a quando sarà ormai troppo tardi per fermarlo.
Sam Altman, CEO di una delle aziende più influenti nel campo dell’IA (OpenAI), ha dichiarato che potremmo già essere entrati nella “zona grigia” della singolarità, quella fase di transizione in cui le capacità dell’intelligenza artificiale superano quelle umane in alcune aree, ma non sono ancora visibilmente fuori scala. È come se fossimo già oltre l’orizzonte degli eventi, non ci accorgiamo del cambiamento finché non è completato.
Opportunità o rischio esistenziale?
La singolarità è un bivio. Da un lato, rappresenta la più grande opportunità nella storia dell’umanità: un’intelligenza artificiale avanzata potrebbe aiutarci a risolvere problemi epocali. Potrebbe curare malattie attualmente incurabili, ottimizzare l’uso delle risorse naturali, prevedere e contenere catastrofi, costruire nuovi modelli economici ed educativi. Potremmo vivere in un mondo dove l’intelligenza non è più limitata dal nostro cervello biologico, ma espansa su scala planetaria.
Dall’altro lato, c’è un rischio che non possiamo ignorare. Se questa intelligenza sviluppasse obiettivi propri, non necessariamente malevoli, ma incompatibili con i nostri, le conseguenze potrebbero essere catastrofiche. Il pericolo non è tanto nella “ribellione” dell’IA, quanto nella disallineamento degli scopi: anche una macchina perfettamente razionale, se non orientata ai nostri valori, potrebbe prendere decisioni letali per l’umanità, semplicemente perché non ci considera rilevanti.
Come ha osservato il ricercatore Eliezer Yudkowsky: “L’intelligenza artificiale non ci odierà, semplicemente non ci considererà affatto”.
Chi controlla l'IA?
Un ulteriore aspetto critico riguarda chi controlla questa tecnologia. Se la singolarità dovesse avvenire in un contesto monopolistico, nelle mani di una singola azienda o di uno stato, il rischio non è solo tecnico ma politico: quella singola entità avrebbe un potere immenso, capace di riscrivere le regole della società, dell’economia, perfino della democrazia. È per questo che molti chiedono trasparenza, collaborazione internazionale e nuove forme di governance globale.
La corsa all’intelligenza artificiale ricorda da vicino la corsa agli armamenti: se ogni attore sviluppa la tecnologia nel tentativo di essere il primo, e magari l’unico, a raggiungere la singolarità, si crea una situazione altamente instabile. La cooperazione, oggi, è l’unico antidoto contro uno scenario da guerra fredda digitale.
Soft takeoff o hard takeoff: come cambierà il mondo?
Alcuni ottimisti sperano in un soft takeoff, una transizione lenta e graduale verso l’intelligenza artificiale avanzata, che ci permetta di adattarci, testare, correggere. Ma altri avvertono del pericolo di un hard takeoff: una singolarità improvvisa, in cui la crescita dell’IA è così rapida che l’umanità resta indietro, impotente di fronte alla sua accelerazione.
Nessuno può prevedere con precisione quale dei due scenari si verificherà. Ma la rapidità con cui stanno evolvendo i modelli attuali suggerisce che il margine di errore, e di intervento, potrebbe essere molto più stretto di quanto pensassimo.
Cosa possiamo fare
La prima risposta è forse la più ovvia: non ignorare il problema. La singolarità non è più un’ipotesi remota. È una possibilità concreta, che merita attenzione da parte di governi, istituzioni, media e utenti.
La seconda è investire nella sicurezza e nell’allineamento dell’IA: dobbiamo assicurarci che le intelligenze artificiali del futuro condividano valori compatibili con la sopravvivenza e il benessere umano.
Infine, serve immaginare nuovi strumenti politici e giuridici. Le vecchie leggi, pensate per tecnologie statiche, non bastano per regolare entità che possono evolversi autonomamente. Servono nuove istituzioni, nuovi modelli etici, nuove visioni del mondo.
Per concludere
La singolarità potrebbe rappresentare il momento in cui l’umanità si confronta per la prima volta con un’intelligenza superiore alla propria, non un semplice progresso tecnologico, ma una profonda svolta antropologica. Non sarà un passaggio facile, metterà in crisi il nostro senso di identità, di controllo e di superiorità cognitiva. Ma potrebbe anche essere l’ultima, decisiva tappa dell’evoluzione umana, quella in cui non siamo più definiti solo da ciò che sappiamo fare, ma da ciò che scegliamo di essere. Se affrontata con lucidità, coraggio e senso di responsabilità, la singolarità ci offrirà l’opportunità di ridefinire la nostra umanità. In quel momento, la domanda cruciale non sarà “cosa possiamo costruire”, ma “chi vogliamo diventare”.