Sundar Pichai ha appena confermato al Google Cloud Next '26 una cifra che fa riflettere: tre quarti del nuovo codice di Mountain View viene generato dall'intelligenza artificiale. Non è un esperimento. È come Google lavora oggi, ogni giorno.
Da zero a tre quarti in meno di due anni
Ottobre 2024: il 25% del codice di Google veniva scritto dall'AI. Era già una notizia. Sembrava un traguardo ambizioso, quasi di frontiera. Poi, nella scorsa estate, quella percentuale era già raddoppiata al 50%. Oggi, aprile 2026, Sundar Pichai sale sul palco del Google Cloud Next a Las Vegas e annuncia che la quota ha raggiunto il 75%.
Tre quarti. In meno di due anni. Una curva di adozione che non ha precedenti nella storia dell'ingegneria del software.
Ma attenzione: non si tratta di un progetto pilota, né di un reparto sperimentale isolato. Pichai è stato esplicito - questo è il modo in cui Google opera normalmente, oggi, in tutta l'azienda. Il coding umano, dentro Mountain View, è diventato minoranza.
Come funziona concretamente
Il modello non prevede una sostituzione secca dell'ingegnere con la macchina. Il flusso di lavoro è ibrido: i sistemi AI - principalmente basati su Gemini e, in alcuni contesti, su Claude Code di Anthropic - generano il codice, e poi gli ingegneri lo revisionano, validano e approvano prima che vada in produzione.
Pichai descrive questa evoluzione come un passaggio verso flussi di lavoro "truly agentic": gli ingegneri non usano più l'AI come un semplice completatore di testo, ma supervisionano agenti capaci di gestire compiti autonomi sempre più complessi.
I risultati in termini di efficienza sono già misurabili. Un esempio citato dalla stessa Google riguarda le migrazioni di codice - operazioni storicamente lunghe e delicate - completate con una velocità sei volte superiore rispetto a un anno fa grazie alla collaborazione uomo-agente. Per il lancio di Gemini su Chrome, il team marketing ha usato l'AI con una riduzione del 70% nei tempi di lavorazione e un aumento del 20% delle conversioni.
Google non è sola: l'intero settore si muove nella stessa direzione
Quello di Google non è un caso isolato. Il settore tech si sta muovendo compatto in questa direzione, con velocità diverse ma la stessa traiettoria.
Anthropic - l'azienda che ha sviluppato Claude - genera già tra il 70% e il 90% del proprio codice usando la propria AI. Claude Code, lo strumento che in pratica scrive se stesso, ha superato il miliardo di dollari di fatturato già a novembre 2025. Meta ha dichiarato di puntare ad avere il 75% del codice prodotto via AI per la maggior parte dei propri ingegneri entro metà 2026. Snap è già oltre il 65%. Microsoft, secondo le parole di Satya Nadella dell'aprile 2025, era ferma intorno al 30% - ma anche qui la direzione è chiara.
La domanda non è più se l'AI scriverà codice. Lo sta già facendo, ovunque, su scala industriale.
La domanda a cui nessuno ha ancora risposto
C'è però una cosa che Google non ha reso pubblica: quanta parte del codice generato dall'AI viene rifiutata o riscritta prima di arrivare in produzione. Il 75% è la quota di codice che passa dalla macchina all'ingegnere. Ma quante righe vengono scartate? Qual è il tasso di errore?
Non è una domanda di poco conto. Studi legali di primo piano hanno già presentato documenti contenenti errori generati da AI - un segnale che l'adozione rapida porta con sé rischi operativi concreti. Nel software, un bug in produzione può avere conseguenze ben più gravi di un refuso in un atto legale.
Sergey Brin, co-fondatore di Google, ha scritto in un memo interno che per vincere "lo sprint finale" bisogna colmare con urgenza il divario nell'esecuzione agentica. Google DeepMind ha persino assemblato una "strike team" dedicata a migliorare le capacità di programmazione dei propri modelli Gemini. Il che suggerisce che, nonostante i numeri impressionanti, la qualità rimanga un cantiere aperto.
Cosa cambia per gli sviluppatori (e per tutti noi)
Se anche solo una parte di questa trasformazione si propagasse all'industria tech in senso più ampio - startup, agenzie, team interni di aziende non-tech - le implicazioni sono enormi.
Il ruolo dello sviluppatore non scompare, ma si trasforma radicalmente. Da artigiano del codice a supervisore di processi automatizzati. Da chi scrive le istruzioni a chi valuta se quelle istruzioni sono corrette, sicure, mantenibili. È uno spostamento verso l'alto nella catena del valore, ma richiede competenze diverse: pensiero architetturale, capacità critica, comprensione profonda dei limiti dei sistemi AI.
Per le aziende che non sono Google, la pressione competitiva è destinata ad aumentare: chi adotterà questi strumenti più velocemente potrà sviluppare e iterare a costi e velocità semplicemente non comparabili con chi lavora ancora in modo tradizionale.
Pronti o no, sta già accadendo
La domanda nel titolo - siamo davvero pronti? - è in parte retorica. La verità è che la transizione non ha aspettato il nostro consenso. Mentre discutiamo di etica, regolamentazione e impatto sul lavoro, le pipeline di sviluppo si stanno già riscrivendo.
Google ha trasformato se stessa in un laboratorio vivente di questa rivoluzione, autodefinendosi "customer zero" dei propri servizi AI. Il risultato è un modello operativo in cui la macchina produce e l'uomo supervisiona - un'inversione rispetto a qualunque paradigma di sviluppo software degli ultimi cinquant'anni.
Che si tratti di un progresso inevitabile o di un rischio sottovalutato, una cosa è certa: il software che usiamo ogni giorno - quello di Google, di Microsoft, di Meta - è già in gran parte scritto da un'intelligenza artificiale. E questa percentuale continuerà a salire.