Ogni 3-4 anni c’è un grosso cambiamento/aggiunta alle metriche che Google (e, in misura minore, a quelle di Bing/Yahoo!) utilizza per ordinare i risultati delle sue SERP. 1996-1999: parole chiave utilizzate nella pagina + meta data 1999-2002: PageRank + fattori on-page 2002-2005: anchor text + nome a dominio + PageRank + fattori on-page 2005-2009: autorità del dominio + link provenienti da domini diversi + “modellazione” del contenuto/tema + anchor text + nome a dominio + PageRank + fattori on-page Nel 2010 e nel 2011, abbiamo visto l’ingresso dei “fattori sociali” di Facebook e Twitter. Lo studio dei percorsi di navigazione dell’utente all’interno dei siti ha mostrato che Google e Bing utilizzano questi dati, anche se probabilmente in un modo ancora marginale. Sono convinto che la prossima generazione dei fattori di posizionamento si baserà su queste 3 metriche: 1. Fattori legati al Brand [già 2 anni fa si parlava di Google Brand Update…] Uno dei motivi per cui Google ci ha messo tanto tempo per penalizzare JCPenney è che probabilmente i suoi quality rater, e i dati degli utenti, suggerivano che il sito forniva davvero ottimi risultati per query come “dresses” o “bedding”. Il brand aveva una buona percezione agli occhi dell’utente e Google, fino a quando il caso non è finito sulla stampa, non aveva motivo di intraprendere azioni punitive. Il problema è che per moltissime ricerche di tipo transactional i risultati di Google non sono affatto buoni. Guarda questo esempio:

La query yellow puma shoes in Google

Ho appena acquistato un paio di Puma gialle (queste), ma il miglior risultato (probabilmente questo) era introvabile in Google, e le prime 2 pagine mostrano risultati non abbastanza specifici – in un buon numero di questi non sono neppure presenti le Puma gialle! Google può risolvere il problema, e un buon modo per farlo è quello di separare i “brand” (che producono utenti e clienti soddisfatti dei risultati delle ricerche) dai “generici” (siti che spesso possono essere classificati fra gli affiliati, o che comunque non lasciano all’utente il ricordo di una buona experience). I webmaster e i supporter degli small business sul web potrebbero lamentarsi, ma siamo tutti d’accordo che Puma, Amazon e Zappos sono sicuramente buoni risultati per una query come quella in questione. Ma quali tipi di fattori potrebbe utilizzare Google per capire se un sito è un “brand” oppure no?

Brand sites vs. Generic

Questi sono solo alcuni esempi; Google e Bing sono sicuramente in grado di guardare a decine o centinaia di altri parametri. Come puoi ben immaginare, ci saranno siti che cercheranno di usare a loro favore questi fattori, ma i motori saranno in grado di rilevarli: il Vince update di 2 anni fa viene spesso ricordato come un primo sforzo di Google in questa direzione. 2. Associare le “entità” I motori di ricerca sono, classicamente, basati su un algoritmo relativamente “universale”, che classifica le pagine sulla base delle metriche disponibili, senza spingersi troppo nel verticale. Negli ultimi anni, tuttavia, vari SEO hanno notato una netta evoluzione verso un modello dove certe tipologie di siti hanno l’ottima possibilità di performare bene per determinate query. I motori, per soddisfare l’intento degli utenti, sono propensi a mostrare contenuti che normalmente sarebbero esclusi da SERP competitive: per esempio, quando un utente cerca “lamb shanks”, ha senso far emergere i siti il cui contenuto è incentrato su ricette e prodotti alimentari.

La query braised lamb shanks in Google

La stessa logica potrebbe essere applicata ad una query come “The King’s Speech”, dove il motore dovrebbe propendere a mostrare siti di film come RottenTomatoes, IMDB, Flixster e Metacritic. Bill Slawski ha spiegato molto bene la cosa tempo fa: “Invece di limitarsi ai brand, è più probabile che Google stia cercando di capire quando una query include una “entità” (ovvero una persona specifica, un posto, una cosa) e se può identificare questa “entità”, la cosa influenza la SERP che viene mostrata… … ho già accennato a questo argomento tempo fa, quando a Google è stato concesso un brevetto denominato “Query rewriting with entity detection” nel Maggio del 2009. La recente acquisizione di Metaweb da parte di Google è importante, per diversi motivi. Uno di questi è che Metaweb ha sviluppato un approccio di catalogazione basato sul dare diversi nomi per la stessa “entità”. Per esempio, quando Google vede sul web nomi come “Terminator” o “Governator” o “Conan the Barbarian” o “Kindergarten Cop” può facilmente associarli a Arnold Schwarzenegger”. Associare le “entità” potrebbe essere utile come fattore legato al brand, per classificare tipologie di query (e di risultati), e probabilmente anche per discriminare risultati verticali/universali, per esempio all’interno di Places/Maps, Immagini, Video, etc. 3. Quality rater “umani” & comportamenti degli utenti Nell’ultimo decennio, il mondo online è stato governato da 2 forze gemelle: le Folla e l’Algoritmo. Gli utenti di Internet (la Folla) creano, cliccano e valutano, mentre le equazioni matematiche aggiungono la scalabilità e la reperibilità di tutta questa enorme mole di dati (l’Algoritmo). Come la Luna sopra l’oceano, l’attrazione di queste 2 forze contribuisce a creare le maree di popolarità (e di oscurità) di Internet. Le informazioni sono accessibili, utili ed egualitarie come mai prima d’ora. Ma ultimamente, almeno per me, i punti deboli di questo sistema mezzo “crowdsourced” e mezzo algoritmico iniziano a farsi sentire, e la prossima rivoluzione sembra essere inevitabile. Dato che Google ha appena lanciato una estensione per Chrome che consente agli utenti di bloccare siti scelti fra le SERP, e visti i numerosi tentativi di sfruttare i dati degli utenti nei risultati delle ricerche (SideWiki, SearchWiki, Starred Results), ci sono buone probabilità che l’algoritmo “puro” sia destinato ad estinguersi. Bing utilizza già un panel di “quality reviewer”, e così pure Google (anche se quest’ultimo continua ad essere molto reticente a riguardo). Entrambi osservano con attenzione i percorsi degli utenti all’interno dei siti web. Tutto ciò suggerisce che aumenteranno sempre più le informazioni raccolte sugli utenti e sul modo in cui questi utilizzano la rete, al fine di migliorare la qualità delle SERP. Liberamente tradotto da The Next Generation of Ranking Signals, di Rand Fishkin.