Per oltre vent’anni il web è stato costruito attorno a un’unica cerniera: la SERP di Google.
Che si parlasse di e-commerce, editoria, lead generation o brand awareness, tutto ruotava intorno a un presupposto: l’utente cerca, Google ordina, il sito si fa trovare.
Ora questo paradigma si sta sgretolando. Lo studio Semrush prevede che entro il 2028 il traffico generato dagli LLM supererà quello della ricerca organica tradizionale. È un punto di non ritorno.

Per comprendere la portata del cambiamento bisogna abbandonare la logica del “marketing digitale” e osservare il fenomeno da prospettiva ingegneristica. Non è una battaglia tra Google e ChatGPT; è l’adozione massiva di sistemi di generazione del contenuto come interfaccia primaria di ricerca. Gli LLM non restituiscono una lista di link, ma una risposta. E questa differenza, apparentemente marginale, scardina ogni architettura del traffico web costruita negli ultimi due decenni.

La SERP, con i suoi dieci risultati e migliaia di varianti, è un grafo complesso, fatto di metriche visibili, fattori noti, segnali osservabili: link, anchor text, title tag, autorità di dominio, freschezza della pagina.
Gli LLM non operano in questo spazio.
Il loro modello di selezione delle fonti è opaco, basato su strutture neurali addestrate su miliardi di token, raffinate da reinforcement learning, controllate da filtri di sicurezza, influenzate dai dataset proprietari delle aziende che li costruiscono. Quando un LLM risponde, non sta recuperando: sta inferendo. Sta sintetizzando una risposta usando segmenti di conoscenza dispersi in centinaia di migliaia di fonti, molte delle quali non apparirebbero mai nella prima pagina di Google.

Ed è proprio questo il punto: la ricerca generativa non riflette la SERP. La svincola. La ignora quando non la ritiene rilevante.
Lo studio Semrush mostra che le citazioni nei risultati generativi spesso pescano contenuti che non hanno alcuna correlazione con il ranking tradizionale. Un sito invisibile su Google può essere citato da ChatGPT, Gemini o Perplexity se il suo contenuto è chiaro, semanticamente compatto, facile da integrare nei processi di answer synthesis.
Il criterio di autorità cambia completamente: non più “il sito migliore”, ma “il contenuto più utile per la frase che sto generando”.

È qui che emerge un concetto cruciale: un contenuto adatto a Google non è necessariamente un contenuto adatto a un LLM.
I modelli generativi privilegiano testi modulari, strutturati, disambiguati, costruiti per essere “chunkabili”: brevi unità semantiche che possono essere estratte e ricombinate. L’equivalente digitale dei mattoncini Lego.
Le pagine piene di decorazioni grafiche, testi prolissi, introduzioni narrative e keyword distribuite artificialmente non forniscono una struttura semantica sfruttabile da un modello generativo. Un LLM si muove come un compressore: scompone, riconfigura, ricostruisce. Non ama il superfluo, e soprattutto non può permettersi ambiguità.

Quando Semrush afferma che entro il 2028 il traffico LLM supererà l’organico tradizionale, sta dicendo molto più di quanto appaia: sta suggerendo che la porta d’ingresso del web non sarà più il motore di ricerca, ma l’assistente conversazionale.
L’utente non digiterà più “miglior software CRM 2028”: chiederà direttamente “Qual è il miglior CRM per una PMI manifatturiera?”.
E la risposta non sarà una SERP con dieci link, ma una frase composta, forse un elenco, quasi sempre una selezione sintetica di tre o quattro software. A quel punto la visibilità del tuo sito dipende da una domanda brutale: sei citabile?
Non posizionato.
Citabile.

La SEO diventa così una disciplina profondamente diversa: non l’arte di ottimizzare un sito affinché un crawler possa indicizzarlo, ma la capacità di costruire conoscenza strutturata affinché un modello neurale possa utilizzarla.
Non bastano più meta tag, heading e backlink. Serve una forma di ingegneria del contenuto: chiarezza semantica, precisione informativa, versioning puntuale, fonti autorevoli, coerenza interna e — soprattutto — la capacità di generare testi che un LLM riconosca come affidabili.
Questo non significa “scrivere per la macchina”, ma produrre contenuti che riducano il costo computazionale dell’inferenza. Un LLM tende a utilizzare fonti che gli permettono di stabilizzare la generazione, ridurre il rischio di errore e minimizzare i conflitti informativi.

Qui si apre una domanda inevitabile:
Com’è posizionato il sito della vostra azienda sugli LLM?
La maggior parte delle aziende non lo sa. Non esiste ancora un “rank tracker per LLM”, nessun tool restituisce la visibilità su ChatGPT, Gemini, Claude o Perplexity. Le citazioni sono dinamiche, influenzate dal prompting, dai contesti, dalla lingua, dall’aggiornamento del modello.

Eppure un fatto resta: un’azienda che attende il 2028 per verificare la propria presenza nella search generativa arriverà tardi.