I segreti di Google

l mondo del SEO (Search Engine Optimization) è stato recentemente scosso da una fuga di documenti interni di Google che ha rivelato dettagli sorprendenti sulle operazioni del motore di ricerca.

Questa rivelazione, ottenuta da Rand Fishkin di SparkToro, proviene da un anonimo insider che ha condiviso migliaia di pagine di documentazione API, contenenti informazioni che mettono in discussione molte delle affermazioni pubbliche di Google.

Questo articolo esplorerà in dettaglio le implicazioni di queste scoperte, come potrebbero influenzare il settore del marketing digitale e cosa possono fare i professionisti del SEO per adattarsi.

Una Fuga di Dati Senza Precedenti

Il 5 maggio 2024, Rand Fishkin ha ricevuto un’email da un individuo anonimo che affermava di avere accesso a una massiccia fuga di documenti dall’interno della divisione di ricerca di Google.

Questi documenti, confermati come autentici da ex dipendenti di Google, contenevano informazioni dettagliate su come Google gestisce e valuta i risultati di ricerca.

Fishkin ha contattato diversi ex dipendenti di Google per verificare l’autenticità dei documenti trapelati. La maggior parte ha confermato che i documenti sembravano legittimi, citando la conformità agli standard interni di documentazione di Google. Anche Mike King, uno dei massimi esperti tecnici di SEO, ha esaminato i documenti, confermando che contenevano una quantità straordinaria di informazioni precedentemente non confermate sulle operazioni interne di Google.

Le scoperte contraddicono molte dichiarazioni pubbliche fatte da rappresentanti di Google nel corso degli anni.

Principali Rivelazioni dai Documenti Trapelati

  1. NavBoost e Clickstream Data: Uno dei principali sistemi menzionati nei documenti è NavBoost, che raccoglie dati clickstream (ogni URL visitato da un browser) per migliorare la qualità dei risultati di ricerca. Questo sistema utilizza i dati del browser Chrome per monitorare i click degli utenti e migliorare il ranking delle pagine web.
  2. Valutazione della Qualità dei Siti: Google utilizza una serie di segnali, inclusi i dati sui click e la cronologia dei cookie, per valutare la qualità complessiva di un sito. Questo processo può portare a un miglioramento o a una penalizzazione nei risultati di ricerca, basato su fattori come i click “buoni” e “cattivi”.
  3. Geo-Fencing dei Dati: Google segmenta i dati dei click in base alla geolocalizzazione (paese, stato/provincia) e al tipo di dispositivo (mobile o desktop). Se Google non ha dati sufficienti per una specifica regione o dispositivo, potrebbe applicare processi universali ai risultati di ricerca.
  4. Liste Bianche per Ricerche Sensibili: Durante la pandemia di Covid-19 e le elezioni democratiche, Google ha utilizzato liste bianche per determinare quali siti dovrebbero apparire in alto nei risultati di ricerca per argomenti correlati. Questo è stato fatto per garantire che informazioni accurate e affidabili fossero facilmente accessibili agli utenti.
  5. Utilizzo dei Dati dei Quality Raters: Google impiega feedback da parte dei quality raters (valutatori della qualità) per influenzare i segnali di ranking. Sebbene i dettagli esatti di come questi dati vengono utilizzati non siano completamente chiari, è evidente che i giudizi umani svolgono un ruolo significativo nel determinare la rilevanza dei siti.
  6. I domini di vecchia data sono favoriti nella serp
  7. La qualità dell’hosting che ospita il sito è importante

Cosa sono NavBoost e Clickstream Data?

NavBoost e Clickstream Data sono due concetti correlati nell’ambito dell’analisi del comportamento degli utenti online:

NavBoost:

  • Definizione: NavBoost è un termine generico che può riferirsi a diverse tecnologie o strategie volte a migliorare la navigazione di un sito web o di un’applicazione.
  • Obiettivi: L’obiettivo principale di NavBoost è rendere l’esperienza dell’utente più fluida, intuitiva e personalizzata. Questo può tradursi in un aumento del coinvolgimento, del tempo trascorso sul sito e, in ultima analisi, delle conversioni.
  • Esempi:
    • Suggerimenti di navigazione personalizzati: NavBoost può utilizzare i dati dell’utente (come la cronologia di navigazione o le preferenze) per suggerire contenuti o prodotti rilevanti.
    • Menu dinamici: I menu possono adattarsi al comportamento dell’utente, evidenziando le sezioni più pertinenti.
    • Ricerca ottimizzata: NavBoost può migliorare la funzione di ricerca interna, rendendola più veloce e precisa.

Clickstream Data:

  • Definizione: I dati clickstream sono la registrazione dettagliata delle interazioni di un utente con un sito web o un’applicazione. Questi dati includono ogni clic, visualizzazione di pagina, ricerca effettuata e altre azioni.
  • Raccolta: I clickstream data vengono raccolti tramite diverse tecnologie, come cookie, JavaScript e web server logs.
  • Utilizzo: L’analisi dei clickstream data fornisce informazioni preziose sul comportamento degli utenti, come:
    • Percorsi di navigazione: Come gli utenti si muovono attraverso il sito.
    • Punti di abbandono: Dove gli utenti lasciano il sito.
    • Contenuto più popolare: Quali pagine o prodotti sono più interessanti.
  • Applicazioni: Le aziende utilizzano i clickstream data per:
    • Ottimizzare il sito web: Migliorare la navigazione, il layout e i contenuti.
    • Personalizzare l’esperienza utente: Offrire contenuti e raccomandazioni mirate.
    • Misurare l’efficacia delle campagne marketing: Valutare l’impatto delle iniziative promozionali.

NavBoost e Clickstream Data: Una Combinazione Potente

NavBoost può sfruttare i clickstream data per offrire un’esperienza di navigazione altamente personalizzata. Analizzando il comportamento degli utenti, NavBoost può adattare la navigazione in tempo reale, guidando gli utenti verso i contenuti più rilevanti per loro.

Cosa è il Geo-fencing?

Il Geo-fencing, o georecinzione, è una tecnologia basata sulla localizzazione che permette di creare un perimetro virtuale, chiamato “geofence”, intorno a una specifica area geografica. Questo perimetro può essere di qualsiasi forma e dimensione, da un piccolo negozio a un’intera città.

Come funziona:

Il geofencing utilizza il GPS, il Wi-Fi, il Bluetooth o altre tecnologie di localizzazione per determinare quando un dispositivo (come uno smartphone o un veicolo) entra o esce dall’area delimitata. Quando questo accade, il sistema può attivare automaticamente determinate azioni o inviare notifiche.

A cosa serve:

Il geofencing ha molteplici applicazioni in diversi settori:

  • Marketing: inviare messaggi promozionali mirati a persone che si trovano in una determinata area (ad esempio, un negozio o un evento).
  • Sicurezza: monitorare i movimenti di persone o oggetti di valore e ricevere avvisi in caso di spostamenti non autorizzati.
  • Gestione delle risorse umane: tracciare la presenza dei dipendenti in determinate aree di lavoro.
  • Logistica: monitorare la posizione di veicoli e merci in tempo reale.
  • Parental control: impostare limiti geografici per i propri figli e ricevere notifiche se escono da queste aree.

Esempi di utilizzo:

  • Un negozio può inviare un coupon sconto a un cliente quando entra nel raggio di azione del negozio.
  • Un’azienda può utilizzare il geofencing per monitorare i propri veicoli aziendali e ottimizzare i percorsi di consegna.
  • Un genitore può impostare un geofence intorno alla scuola del proprio figlio e ricevere una notifica quando il bambino arriva o lascia la scuola.

Cosa sono i Quality Raters?

I Quality Raters di Google sono persone reali assunte da Google per valutare la qualità dei risultati di ricerca. Non sono dipendenti di Google, ma collaboratori esterni che lavorano a progetto, seguendo linee guida specifiche fornite da Google stesso.

Il loro compito principale è quello di valutare la pertinenza e l’utilità delle risposte fornite da Google in relazione a determinate ricerche. In pratica, navigano tra le pagine web che compaiono nei risultati di ricerca e le valutano in base a vari criteri, come:

  • Rilevanza: la pagina web risponde alla domanda dell’utente?
  • Qualità dei contenuti: le informazioni sono accurate, complete e ben scritte?
  • Usabilità: la pagina è facile da navigare e utilizzare?
  • Esperienza complessiva: l’utente troverebbe la pagina utile e soddisfacente?

Le valutazioni dei Quality Raters non influenzano direttamente il posizionamento di un sito web nei risultati di ricerca, ma forniscono a Google un feedback importante sulla qualità dei suoi algoritmi. Questo feedback viene utilizzato per migliorare costantemente la qualità dei risultati di ricerca e per garantire che gli utenti trovino le informazioni più pertinenti e utili per le loro esigenze.

I Quality Raters sono una componente importante del processo di valutazione della qualità di Google e contribuiscono a rendere il motore di ricerca sempre più preciso e affidabile.

Puoi trovare ulteriori informazioni sui Quality Raters in questi articoli:

Perchè la qualità di un hosting è importante per Google?

La qualità dell’hosting è un fattore cruciale per Google per diversi motivi, tutti correlati all’esperienza utente e al modo in cui il motore di ricerca valuta i siti web:

  1. Velocità di caricamento: Un hosting di scarsa qualità può rallentare il caricamento delle pagine web. Google considera la velocità un fattore importante per il posizionamento nei risultati di ricerca, poiché gli utenti preferiscono siti veloci e potrebbero abbandonare quelli lenti.
  2. Disponibilità e uptime: Un hosting inaffidabile può causare frequenti interruzioni del servizio, rendendo il sito web inaccessibile agli utenti. Google penalizza i siti con frequenti downtime, poiché ciò compromette l’esperienza utente.
  3. Sicurezza: Un hosting poco sicuro può esporre il sito web a vulnerabilità e attacchi informatici. Google potrebbe segnalare i siti non sicuri come pericolosi, danneggiando la reputazione del sito e scoraggiando gli utenti dal visitarlo.
  4. Localizzazione dei server: La posizione geografica dei server dell’hosting può influenzare la velocità di caricamento per gli utenti di diverse regioni. Google tiene conto di questo fattore, soprattutto per le ricerche locali, privilegiando i siti con server vicini agli utenti.
  5. Supporto tecnico: Un buon servizio di hosting offre un supporto tecnico efficiente per risolvere eventuali problemi tecnici che potrebbero influire sul funzionamento del sito web. Un sito web con problemi tecnici frequenti può essere penalizzato da Google.

In sintesi, la qualità dell’hosting incide direttamente sull’esperienza utente e sulla sicurezza del sito web, fattori che Google considera fondamentali per il posizionamento nei risultati di ricerca. Un hosting di qualità può migliorare la velocità, l’affidabilità, la sicurezza e l’accessibilità del sito, contribuendo a un migliore posizionamento e a una maggiore visibilità online.

L’assoluta importanza di contenuti di qualità secondo standard EEAT

EEAT è l’acronimo di Experience, Expertise, Authoritativeness e Trustworthiness (Esperienza, Competenza, Autorevolezza e Affidabilità). È un concetto fondamentale utilizzato da Google per valutare la qualità dei contenuti online.

Perché EEAT è importante?

  • Migliora la qualità dei risultati di ricerca: Google si impegna a fornire agli utenti i risultati più rilevanti e affidabili. Valutando i contenuti in base a EEAT, il motore di ricerca può garantire che le informazioni presentate siano accurate, complete e provenienti da fonti autorevoli.
  • Aumenta la fiducia degli utenti: Quando gli utenti trovano contenuti che soddisfano i criteri EEAT, si sentono più sicuri delle informazioni che stanno leggendo. Questo aumenta la loro fiducia nel sito web e in Google come motore di ricerca.
  • Influenza il posizionamento nei risultati di ricerca: I siti web che dimostrano alti livelli di EEAT hanno maggiori probabilità di posizionarsi più in alto nei risultati di ricerca. Questo perché Google riconosce il valore di questi contenuti e li considera più utili per gli utenti.
  • Protegge da disinformazione e contenuti di bassa qualità: EEAT aiuta a filtrare contenuti fuorvianti, falsi o scritti da persone senza le competenze necessarie. Questo protegge gli utenti da informazioni inaccurate o potenzialmente dannose.

Come dimostrare EEAT:

  • Esperienza: Dimostra di avere esperienza diretta o conoscenza approfondita dell’argomento trattato.
  • Competenza: Assicurati che il contenuto sia scritto da esperti o persone qualificate nel settore.
  • Autorevolezza: Cita fonti affidabili e linka a siti web autorevoli.
  • Affidabilità: Fornisci informazioni accurate, aggiornate e supportate da prove.

In sintesi:

EEAT è un concetto fondamentale per chiunque crei contenuti online. Dimostrare alti livelli di EEAT non solo migliora la qualità dei contenuti, ma aumenta anche la fiducia degli utenti e la visibilità nei risultati di ricerca.

Implicazioni per il Marketing Digitale

Queste rivelazioni hanno implicazioni significative per i professionisti del marketing digitale e del SEO. Ecco alcune delle principali lezioni che possiamo trarre da questa fuga di dati:

  1. Importanza dei Dati Clickstream: I dati dei click degli utenti sono fondamentali per il ranking delle pagine web. I professionisti del SEO devono considerare l’implementazione di strategie che migliorino il coinvolgimento degli utenti e riducano il bounce rate.
  2. Ottimizzazione per la Qualità: La qualità complessiva di un sito, inclusi i contenuti e l’esperienza utente, è cruciale. È essenziale garantire che i visitatori trovino rapidamente le informazioni che cercano e che abbiano un’esperienza positiva sul sito.
  3. Adattamento alla Geo-Fencing: Le strategie di SEO devono tenere conto delle differenze geografiche e adattarsi alle specifiche esigenze e comportamenti degli utenti in diverse regioni.
  4. Affidabilità delle Informazioni: In contesti sensibili come la salute e le elezioni, è importante che i siti forniscano informazioni accurate e affidabili per evitare penalizzazioni e garantire la fiducia degli utenti.
  5. Ruolo dei Quality Raters: Gli input dei quality raters di Google possono influenzare significativamente il ranking dei siti. È quindi importante creare contenuti di alta qualità che siano ben valutati dai revisori umani.

Guarda il video su YouTube del mio amico di Ivano Di Biasi di Seozoom, che vi spiega tutte le novità scoperte dai documenti interni di Google a questo link:

se desideri approfondire l’argomento puoi leggere l’ottimo articolo, in inglese, di Mike King sul suo sito:

Conclusione

La fuga di documenti dell’API di Google ha svelato dettagli sorprendenti su come il motore di ricerca più grande del mondo valuta e classifica i siti web. Queste informazioni offrono una rara visione delle operazioni interne di Google e forniscono preziosi spunti per i professionisti del SEO e del marketing digitale. Adattarsi a queste nuove conoscenze sarà cruciale per rimanere competitivi nel panorama in continua evoluzione della ricerca online.

I professionisti del marketing devono quindi rimanere aggiornati sulle ultime tendenze e sviluppi, e utilizzare queste informazioni per migliorare le proprie strategie di SEO e garantire che i loro siti web siano ottimizzati per soddisfare i rigorosi criteri di Google.