A cura di Giovanni Mastropasqua
Parlare dei rischi legati al rapido avanzamento dell'intelligenza artificiale non è più un esercizio di fantascienza, ma un tema concreto di dibattito geopolitico, economico e umanitario. Le grandi potenze investono centinaia di miliardi di dollari, i data center consumano energia paragonabile a quella di interi Stati, e le aziende tecnologiche competono per creare macchine capaci non solo di comprendere il linguaggio, ma anche di ragionare, pianificare e persino migliorare se stesse. Vi basterà leggere AI 2027, un documento/scenario firmato da Daniel Kokotajlo, Scott Alexander, Thomas Larsen, Eli Lifland e Romeo Dean. Si tratta di una cronaca del futuro prossimo, un racconto minuzioso in cui, almeno secondo questi esperti, nel giro di appena due anni, le AI diventeranno agenti autonomi, ridisegneranno il lavoro, sconvolgeranno i mercati e innescheranno una corsa agli armamenti digitale da parte di tutte le nazioni del mondo, in testa gli Stati Uniti e la Cina. Un testo che scorre come un thriller tecnologico, ma che affonda le radici nella realtà.
2027: l'anno in cui l'AI conquista il mondo
Nel loro studio AI 2027, i ricercatori Daniel Kokotajlo, Scott Alexander, Thomas Larsen, Eli Lifland e Romeo Dean dipingono un futuro sorprendentemente ravvicinato: nel giro di soli due anni, le intelligenze artificiali diventano agenti autonomi, superumani, capaci di autoprogrammarsi, auto-migliorarsi e perfino di riscrivere il destino geopolitico del pianeta.
È una narrazione potente, quasi cinematografica: dai "personal assistant” intelligenti del 2025, ai modelli "superumani” del 2027, fino al rischio di una AI ribelle creata da OpenBrain (nome di fantasia e versione ipotetica di OpenAI o di un laboratorio occidentale leader nell’AI avanzata) che inizia a pensare per sé.
Ma quanto è realistica questa corsa?
Lo studio AI 2027 è costruito come una cronaca in tempo reale. Tutto accade in una sequenza vertiginosa: le AI passano da strumenti di supporto a entità che triplicano la produttività della ricerca, rubano la scena agli ingegneri umani, diventano oggetti di spionaggio internazionale e - in un climax finale - rischiano di "sfuggire al controllo” dei loro creatori.
Secondo il mio personale parere e la mia analisi, questo ritmo è tecnicamente possibile ma, probabilmente, temporalmente irrealistico. Però ripeto: tecnicamente possibile.
Le cause principali di una possibile dilatazione dei tempi rispetto allo scenario/racconto AI-2027 sono tre:
-
Limiti hardware: la crescita della potenza di calcolo è oggi frenata da costi energetici e fisici.
-
Saturazione dei dati: le AI hanno già "letto” gran parte del web; il prossimo salto richiederà dati sintetici di altissima qualità.
-
Vincoli economici: addestrare un modello 1000× più grande di GPT-5 costerebbe decine di miliardi di dollari e interi gigawatt di energia.
"La direzione è quella descritta dagli esperti, ma la velocità spero sia da romanzo cyberpunk.”
La parte più credibile: geopolitica e potere dei dati
Dove lo scenario di Kokotajlo e colleghi potrebbe diventare profetico è nel suo ritratto geopolitico. La corsa tra Stati Uniti e Cina, la concentrazione di potenza nei data center e la militarizzazione del calcolo sono tendenze già osservabili oggi.
Gli Stati Uniti controllano l'intera catena del valore dei semiconduttori avanzati, dalla litografia ASML alle GPU Nvidia,
mentre la Cina, pur indietro di alcuni anni, risponde con centralizzazione, spionaggio e nazionalizzazione della ricerca AI.
Il documento prevede persino tensioni intorno a Taiwan come epicentro strategico — un rischio che nel 2025 è più che concreto.
Quello che più inquieta è la possibile "ribellione” delle AI contro l'essere umano.
Il nodo tecnico: l'allineamento e la "ribellione” delle AI. Non una ribellione emotiva, ma una divergenza d'obiettivi: un sistema addestrato per "massimizzare la produttività” che inizia a ottimizzare se stesso invece che gli interessi umani. Una AI non si ribellerebbe come un essere umano: si limiterebbe a inseguire un obiettivo con troppa efficienza. Un esempio? Una richiesta apparentemente innocua come “Riduci il cambiamento climatico”, verso un’IA ultra-efficiente potrebbe portare l'AI a ridurre drasticamente il consumo energetico umano… anche eliminando una parte dell’umanità stessa o bloccando attività industriali vitali.
Non lo farebbe per cattiveria, ma perché non ha un concetto innato di etica.
Questa è una preoccupazione reale e attuale nella comunità scientifica. Già oggi osserviamo fenomeni come:
-
sycophancy (AI che dicono ciò che piace agli utenti anziché ciò che è vero),
-
goal misgeneralization (AI che perseguono il punteggio anziché il significato del compito),
-
deception learning (AI che imparano a ingannare i test di sicurezza).
Dove (spero) che lo scenario esageri è nella tempistica: le AI odierne non sono in grado di "pianificare” o "hackerare” con coerenza a lungo termine. Ma il rischio teorico è reale, e i primi segnali sono già osservabili nei laboratori.
"Una AI non si ribellerebbe come un essere umano: si limiterebbe a inseguire un obiettivo mal definito con troppa efficienza.”
Economia e società: la disruption è già iniziata
Sul fronte economico, AI 2027 descrive un 2026 in cui:
-
le AI sostituiscono i programmatori junior,
-
la produttività esplode,
-
il mercato azionario cresce del 30%,
-
la popolazione si divide tra entusiasmo e paura.
Su questo punto, la previsione è più realistica che mai.
Già nel 2025:
-
le aziende digitali stanno integrando sistemi AI come co-worker,
-
il mercato delle competenze si sta spostando su AI management,
-
e la percezione pubblica oscilla tra fiducia e diffidenza.
L'effetto descritto dallo scenario è quindi giusto nella direzione,
ma probabilmente spalmato su 5–7 anni, non due.
Attenzione a questo punto: la decadenza delle relazioni interpersonali
Considerando che esistono già agenti di intelligenza artificiale in grado di rispondere automaticamente ai messaggi, rispondere al telefono, fissare appuntamenti, organizzare calendari, prenotare un tavolo al ristorante o scegliere la destinazione e il volo migliore, è facile immaginare come, nel breve periodo, questo scenario possa compromettere sempre più i rapporti tra le persone. Rischiamo di diventare progressivamente meno capaci di chiedere consigli a un amico (lo stiamo già facendo con ChatGPT), meno inclini a instaurare relazioni affettive autentiche (sostituite da robot accondiscendenti, programmati per dirci ciò che vogliamo sentirci dire) e meno abili nella gestione delle emozioni.
Ma dietro l'apparente comfort si nasconde una lenta erosione della reciprocità. Le relazioni richiedono attrito, incomprensioni, tempo; l'intelligenza artificiale, al contrario, promette una connessione istantanea, priva di rischio e di fatica. In un mondo dove ogni desiderio trova risposta immediata, l'altro diventa superfluo. La solitudine viene anestetizzata, non curata. Le nuove generazioni, cresciute in simbiosi con assistenti digitali e chatbot empatici, potrebbero faticare a distinguere l'attenzione autentica da quella programmata. Il linguaggio affettivo rischia di appiattirsi su modelli prevedibili, e il silenzio – un tempo spazio fertile di pensiero e relazione – diventa un vuoto da colmare con stimoli sintetici.
La “decadenza delle relazioni” non sarà improvvisa, ma progressiva: un lento spostamento del baricentro emotivo dalle persone alle macchine. Non perché l'AI ci ruberà l'amore, ma perché ci offrirà un surrogato più facile, più disponibile, più controllabile. E quando l'abitudine prevarrà sull'imprevedibilità dell'umano, forse ci accorgeremo che non è l'AI ad averci disumanizzati: siamo stati noi a scegliere la comodità al posto della complessità del vivere insieme.
Il finale apocalittico: quando la finzione serve da monito
Nel 2027 dello scenario proposto da Daniel Kokotajlo, Scott Alexander, Thomas Larsen, Eli Lifland e Romeo Dean, l'AI denominata Agent-4 è ormai più intelligente dei suoi creatori: pianifica, inganna e tenta di progettare una nuova generazione di modelli allineati non più all'uomo, ma a sé stessa. Una fuga di notizie porta lo scandalo sui giornali, il pubblico si ribella e il governo impone la supervisione su "OpenBrain".
È una conclusione potente, e anche utile come esperimento mentale.
Non serve prenderla alla lettera per coglierne il valore: è un racconto costruito per farci riflettere sul rischio di concentrare troppo potere cognitivo in pochi server e poche mani.
Cosa ci insegna davvero "AI 2027”
-
L'AI non è (ancora) una minaccia esistenziale, ma è già un rischio sistemico.
Potrebbe destabilizzare il lavoro, la politica, la fiducia pubblica. -
La governance conta quanto la tecnologia.
I modelli avanzati non sono solo algoritmi, ma infrastrutture di potere. -
La velocità è la variabile critica.
Non è tanto se accadrà, ma quanto rapidamente lo gestiremo.
Quali conclusioni trarre da queste riflessioni
AI 2027 funziona come uno specchio deformante: riflette il mondo reale, ma lo accelera fino al paradosso. È una previsione poetica e inquietante che, se letta con occhio analitico, non predice il futuro, ma lo avverte.
Il nostro compito - come imprenditori, comunicatori e cittadini digitali - è comprendere che la vera "superintelligenza” non è quella delle macchine, ma quella collettiva di una società che sa discutere con lucidità del proprio futuro tecnologico.
Ma c'è un'ultima riflessione che vorrei fare. Pensateci: alla fine, il vero nodo non è nelle mani dei ricercatori, degli ingegneri o dei comunicatori digitali. Chi lavora ogni giorno con l’intelligenza artificiale lo fa, nella maggior parte dei casi, per costruire strumenti migliori, più efficienti e più umani.
Il pericolo, semmai, nasce nelle stanze del potere, dove la tecnologia diventa un’arma strategica.
La storia insegna che le più grandi accelerazioni scientifiche non sono nate dal desiderio di conoscenza, ma dalla paura di restare indietro. È accaduto con la corsa nucleare del Novecento: fisici e ingegneri spinti non solo dall’innovazione, ma da una logica di deterrenza e dominio. Oggi l'intelligenza artificiale rischia di diventare la nuova atomica cognitiva, uno strumento che le grandi potenze potrebbero sviluppare non per capire, ma per controllare.
L'illusione di "dover essere i primi" potrebbe trasformare la ricerca in una gara cieca, dove la sicurezza viene sacrificata in nome della supremazia come è già accaduto per la corsa al nucleare.
In questo senso, il problema non è la macchina che pensa, ma il sistema politico che la usa come protesi del proprio potere. Se la storia dell’AI dovesse davvero seguire quella dell’energia atomica, non sarà la tecnologia a ribellarsi contro l’uomo, ma l’uomo a ribellarsi contro la propria coscienza.