Come un articolo del blog ha ottenuto 40K impressioni su Google in 11 giorni
Gli AI Overviews sintetizzano i contenuti generici rendendoli irrilevanti. Un articolo su webvise.io ha ottenuto 40.000 impressioni su Google in 11 giorni perché Google non disponeva di un riepilogo da mostrare. Ecco cosa è cambiato nel nostro content pipeline per pubblicare più pagine di questo tipo.
Gli AI Overviews non stanno uccidendo il SEO in modo generalizzato. Stanno eliminando i contenuti sintetizzabili. Un articolo pubblicato 11 giorni fa ha ottenuto 40.000 impressioni su Google, si trova alla posizione media 9,7 e rappresenta circa l'80% del traffico di ricerca organica di webvise.io nel periodo. Non abbiamo pubblicato annunci, non lo abbiamo incluso in una newsletter né condiviso il giorno della pubblicazione.
La narrazione del momento è che gli AI Overviews stiano divorando il web aperto. Il traffico su questo sito dice qualcosa di più preciso. Le pagine che un LLM può sintetizzare perdono clic; le pagine troppo specifiche per essere sintetizzate ricevono più traffico di un anno fa. Questo articolo mostra come appare una di quelle pagine, cosa abbiamo modificato nel nostro content pipeline per pubblicarne di più e cosa significa se si sta commissionando contenuto per un sito enterprise nel 2026.
Punti chiave
Un articolo del blog ha ottenuto 40.000 impressioni su Google in 11 giorni, posizione media 9,7, senza alcuna promozione.
Tre pagine correlate vengono pubblicate attraverso lo stesso pipeline. Ognuna ottiene qualche centinaio di impressioni a settimana. La variabile che ha fatto la differenza è la forza dell'anchor, non la qualità del template.
Gli AI Overviews si comportano come un classificatore di contenuti. Consumano contenuti generici e reindirizzano il traffico verso dati first-party, esempi nominati e specifiche post-cutoff.
Abbiamo eliminato gli obiettivi di conteggio parole, la rotazione dei sinonimi, il clustering hub-and-spoke e l'inquadratura complete-guide dal nostro comando `/blog-article`.
Il collo di bottiglia per i programmi di contenuto nel 2026 è la qualità del brief, non la capacità produttiva dei redattori.
Il numero che ci ha spinto a scrivere questo articolo
L'articolo è /blog/hermes-agent-self-improving-ai. È stato pubblicato all'inizio di questo mese. Entro l'undicesimo giorno, Google Search Console riportava circa 40.000 impressioni, posizione media 9,7 e una curva delle impressioni ancora in crescita giorno dopo giorno. Circa l'80% del volume di ricerca organica di webvise.io nel periodo proveniva da questa singola pagina.
Altre tre pagine del sito vengono elaborate attraverso lo stesso comando `/blog-article`. Stesso template, stesso byline, stesso schema markup, stessa struttura di link interni. Ognuna ottiene qualche centinaio di impressioni a settimana e si stabilizza.
Non abbiamo promosso l'articolo su Hermes. La crescita è avvenuta interamente attraverso la ricerca organica long-tail. Questo dettaglio è rilevante perché il long-tail organico è il canale di cui tutti scrivono l'obituario, e gli AI Overviews avrebbero dovuto sintetizzarlo e renderlo irrilevante.
L'articolo su Hermes è la prova concreta che quell'obituario riguarda un tipo specifico di contenuto long-tail, non tutto.
Se sta valutando se investire in contenuto per il sito della sua azienda nel 2026, il team di webvise può aiutarla a definire un content engine che pubblica pagine troppo specifiche per essere sintetizzate dagli AI Overviews.
Cosa consumano realmente gli AI Overviews
Tratti l'AI Overview come un classificatore di contenuti, non come un eliminatore di contenuti. Il classificatore pone una sola domanda per ogni pagina indicizzata da Google: posso produrre un riepilogo utile di questa pagina partendo dalla conoscenza esistente del modello, più il titolo e i titoli della pagina?
Se la risposta è sì, Google pubblica il riepilogo inline. L'utente ottiene la risposta above the fold e il clic non raggiunge mai la pagina. La pagina è tecnicamente posizionata, ma non genera traffico.
Se la risposta è no, Google non ha nulla da mostrare inline. Il riepilogo che potrebbe produrre sarebbe errato o troppo superficiale. Il classificatore cede, e la pagina si posiziona normalmente. Il clic raggiunge il sito.
L'aggiornamento core di Google di marzo 2026, le linee guida sui contenuti utili e il rollout degli AI Overviews convergono tutti sullo stesso segnale: questa pagina ha aggiunto al mondo informazioni che non erano già nel modello? Le pagine che lo hanno fatto si posizionano; le pagine che non lo hanno fatto vengono sintetizzate e rese irrilevanti.
Questa è l'inversione. La specificità è la nuova superficie di ranking.
Perché l'articolo su Hermes ha superato il filtro
L'articolo su Hermes supera il classificatore perché contiene un profilo comportamentale misurato su 40+ cicli di auto-miglioramento di un pattern agente specifico. Delta ciclo per ciclo, registrati nel nostro repository, attribuibili a una configurazione specifica. Nulla di tutto ciò esiste nei dati di training di alcun LLM.
L'AI Overview di Google non ha alcun riepilogo da mostrare quando qualcuno cerca il pattern per nome. Il modello non ha mai visto il log dei cicli. La misurazione first-party è l'anchor. Tutto il resto della pagina, l'inquadratura, la prosa, lo schema, è scaffolding per quell'anchor.
Le tre pagine correlate hanno anchor più deboli: strumenti nominati e risultati generici, sintesi di fonti pubbliche, o liste curate con commenti leggeri. Superano il livello tecnico per il posizionamento. Non superano il classificatore degli AI Overviews perché il modello può produrre lo stesso riepilogo inline. Stesso pipeline, stessa qualità di scrittura, forza dell'anchor diversa.
Il pattern è leggibile e possiamo mapparlo nella tabella seguente.
| Tipo di anchor | Esempio | Cosa fa un LLM con esso | Risultato sul traffico |
|---|---|---|---|
| Benchmark first-party | Log agente ciclo per ciclo, risultato A/B interno, risultato cliente nominato con numeri | Non può riprodurlo | Si compone nel tempo |
| Evento post-cutoff | Reazione a un rilascio, una normativa o un incidente datato dopo il cutoff di training del modello | Non ha ancora segnale | Genera traffico fino al prossimo ciclo di training |
| Sintesi cross-source | Combinazione di 3+ fonti primarie che nessuno ha assemblato | Può a volte sintetizzare, spesso cede | Misto, dipende dalla novità dell'inquadratura |
| Strumenti nominati, risultati generici | Articoli "Top X strumenti per Y" | Sintetizza inline | Qualche centinaio di impressioni, stabile |
| Lista curata, commento leggero | Directory o roundup | Sostituisce con la propria lista | Declino nel tempo |
Cosa abbiamo eliminato dal pipeline
Il comando `/blog-article` che pubblica questi articoli era impostato per default sulla forma standard del programmatic SEO: obiettivo di conteggio parole, cluster di keyword, tre sottotitoli, conclusione riepilogativa. Abbiamo eliminato tutto.
Gli obiettivi di conteggio parole sono stati eliminati. È l'anchor a determinare la lunghezza. Se il materiale first-party è un paragrafo di profilo comportamentale, l'articolo è quel paragrafo più lo scaffolding necessario affinché l'anchor abbia senso. La lunghezza segue l'anchor, non il contrario.
La rotazione dei sinonimi è stata eliminata. Il comando sostituiva "il fondatore" con "l'imprenditore" e "il titolare" per varietà. Questo genera confusione, non eleganza. Ripetiamo il sostantivo più chiaro.
Il clustering hub-and-spoke è stato eliminato. Il default era una pagina principale più otto satelliti per una singola keyword. Sette di essi erano derivativi perché l'anchor poteva trovarsi in un solo posto. Abbiamo eliminato i sette.
L'inquadratura complete-guide è stata eliminata. "La guida completa a X" è il wrapper slop predefinito, perché il modello non riesce a determinare cosa il lettore sa già. L'abbiamo sostituita con una domanda: cosa avrebbe già provato chi legge questa pagina? Iniziamo da lì.
Le parti del pipeline che sono rimaste sono quelle in cui l'automazione eccelle davvero: lo schema del frontmatter, la generazione dello slug, la risoluzione dei link interni, la traduzione nelle sette lingue supportate dal sito. Nessuna di queste è la parte che Google legge per il posizionamento.
Automazione per la struttura, anti-slop al cuore. Questa divisione è il playbook. Il framework completo si trova nel nostro articolo sulla strategia di contenuto anti-slop se desidera il metodo senza il caso studio.
Cosa significa questo per il suo content brief
Se sta commissionando un programma di contenuto per un sito enterprise nel 2026, l'economia unitaria si è invertita. Il collo di bottiglia non è più la capacità produttiva dei redattori. È la qualità del brief di input.
Un content engine che scala le pagine senza scalare gli anchor first-party produce esattamente il contenuto che il classificatore degli AI Overviews consuma. L'output è tecnicamente presente. Il traffico no. Ogni pagina che non supera il filtro diluisce il resto del dominio.
Un content engine che scala prima gli anchor produce meno pagine e genera più traffico per pagina. Il costo si sposta dalla redazione alla cattura di know-how: interviste ai fondatori, registrazione interna di benchmark, misurazione dei risultati di clienti nominati. I redattori continuano a scrivere. Scrivono intorno agli anchor invece che intorno alle keyword.
Dal punto di vista operativo, il cambiamento pratico riguarda l'acquisizione del brief. Un brief utile nel 2026 contiene almeno uno dei seguenti elementi:
Una misurazione che nessun altro ha condotto (benchmark interno, risultato A/B, log longitudinale)
Un risultato di cliente nominato con un numero verificabile e una data
Un evento post-cutoff a cui l'articolo reagisce (rilascio, incidente, normativa)
Una posizione del fondatore che l'articolo è disposto a difendere
Una sintesi di fonti primarie che nessuno ha ancora assemblato in un unico posto
Se la sua agenzia non riesce a estrarre nessuno di questi elementi dal suo team durante l'acquisizione, otterrà contenuto che viene pubblicato ma non genera traffico. Questo è il failure mode che gli AI Overviews impongono. Webvise gestisce l'acquisizione del brief, la cattura degli anchor, la produzione del pipeline e la copertura locale come un pacchetto unico. L'articolo su Hermes è la proof of concept.
Cosa dimostrano davvero 40K impressioni da un solo articolo
Non dimostrano che il pipeline sia scalabile. Dimostrano che il filtro funziona.
L'articolo su Hermes è alla posizione media 9,7 in undici giorni perché nessun altro sul web aperto scrive con quella specificità su quel pattern. Google non ha un'opzione di sintesi disponibile. Il clic deve raggiungere la pagina. Il numero si compone perché la coda long-tail è più ampia per i contenuti non replicabili di quanto non sia mai stata.
Lo stesso pipeline pubblica pagine che non superano il filtro. Quelle pagine ottengono qualche centinaio di impressioni e si stabilizzano. Stesso template, stesso schema, stessi link interni. L'unica variabile che cambia è la forza dell'anchor.
Questo è il programma di contenuto per il 2026. Meno pagine, ognuna con una misurazione, un nome, una data o una posizione che il modello non può già produrre. Lunghezza limitata al punto in cui il segnale first-party si esaurisce. Obiettivi di conteggio parole, cluster hub-and-spoke e inquadratura complete-guide tutti in pensione.
Se desidera che webvise gestisca un content engine con questo filtro per la sua azienda, offriamo l'acquisizione del brief, la cattura degli anchor, la produzione del pipeline e la copertura locale in un unico pacchetto. L'articolo su Hermes è la proof of concept. Il materiale first-party del suo team è il prossimo anchor.
Le pratiche di webvise sono allineate agli standard ISO 27001 e ISO 42001.