i fattori di posizionamento

Ogni 3-4 anni c’รจ un grosso cambiamento/aggiunta alle metriche che Google (e, in misura minore, a quelle di Bing/Yahoo!) utilizza per ordinare i risultati delle sue SERP.

1996-1999: parole chiave utilizzate nella pagina + meta data

1999-2002: PageRank + fattori on-page

2002-2005: anchor text + nome a dominio + PageRank + fattori on-page

2005-2009: autoritร  del dominio + link provenienti da domini diversi + “modellazione” del contenuto/tema + anchor text + nome a dominio + PageRank + fattori on-page

Nel 2010 e nel 2011, abbiamo visto l’ingresso dei “fattori sociali” di Facebook e Twitter. Lo studio dei percorsi di navigazione dell’utente all’interno dei siti ha mostrato che Google e Bing utilizzano questi dati, anche se probabilmente in un modo ancora marginale. Sono convinto che la prossima generazione dei fattori di posizionamento si baserร  su queste 3 metriche:

1. Fattori legati al Brand

[giร  2 anni fa si parlava di Google Brand Update…] Uno dei motivi per cui Google ci ha messo tanto tempo per penalizzare JCPenney รจ che probabilmente i suoi quality rater, e i dati degli utenti, suggerivano che il sito forniva davvero ottimi risultati per query come “dresses” o “bedding”. Il brand aveva una buona percezione agli occhi dell’utente e Google, fino a quando il caso non รจ finito sulla stampa, non aveva motivo di intraprendere azioni punitive. Il problema รจ che per moltissime ricerche di tipo transactional i risultati di Google non sono affatto buoni. Guarda questo esempio:

La query yellow puma shoes in Google

Ho appena acquistato un paio di Puma gialle (queste), ma il miglior risultato (probabilmente questo) era introvabile in Google, e le prime 2 pagine mostrano risultati non abbastanza specifici – in un buon numero di questi non sono neppure presenti le Puma gialle! Google puรฒ risolvere il problema, e un buon modo per farlo รจ quello di separare i “brand” (che producono utenti e clienti soddisfatti dei risultati delle ricerche) dai “generici” (siti che spesso possono essere classificati fra gli affiliati, o che comunque non lasciano all’utente il ricordo di una buona experience).

I webmaster e i supporter degli small business sul web potrebbero lamentarsi, ma siamo tutti d’accordo che Puma, Amazon e Zappos sono sicuramente buoni risultati per una query come quella in questione. Ma quali tipi di fattori potrebbe utilizzare Google per capire se un sito รจ un “brand” oppure no?

Brand sites vs. Generic

Questi sono solo alcuni esempi; Google e Bing sono sicuramente in grado di guardare a decine o centinaia di altri parametri. Come puoi ben immaginare, ci saranno siti che cercheranno di usare a loro favore questi fattori, ma i motori saranno in grado di rilevarli: il Vince update di 2 anni fa viene spesso ricordato come un primo sforzo di Google in questa direzione.

2. Associare le “entitร ”

I motori di ricerca sono, classicamente, basati su un algoritmo relativamente “universale”, che classifica le pagine sulla base delle metriche disponibili, senza spingersi troppo nel verticale. Negli ultimi anni, tuttavia, vari SEO hanno notato una netta evoluzione verso un modello dove certe tipologie di siti hanno l’ottima possibilitร  di performare bene per determinate query. I motori, per soddisfare l’intento degli utenti, sono propensi a mostrare contenuti che normalmente sarebbero esclusi da SERP competitive: per esempio, quando un utente cerca “lamb shanks”, ha senso far emergere i siti il cui contenuto รจ incentrato su ricette e prodotti alimentari.

La query braised lamb shanks in Google

La stessa logica potrebbe essere applicata ad una query come “The King’s Speech”, dove il motore dovrebbe propendere a mostrare siti di film come RottenTomatoes, IMDB, Flixster e Metacritic. Bill Slawski ha spiegato molto bene la cosa tempo fa: “Invece di limitarsi ai brand, รจ piรน probabile che Google stia cercando di capire quando una query include una “entitร ” (ovvero una persona specifica, un posto, una cosa) e se puรฒ identificare questa “entitร ”, la cosa influenza la SERP che viene mostrata… … ho giร  accennato a questo argomento tempo fa, quando a Google รจ stato concesso un brevetto denominato “Query rewriting with entity detection” nel Maggio del 2009.

La recente acquisizione di Metaweb da parte di Google รจ importante, per diversi motivi. Uno di questi รจ che Metaweb ha sviluppato un approccio di catalogazione basato sul dare diversi nomi per la stessa “entitร ”. Per esempio, quando Google vede sul web nomi come “Terminator” o “Governator” o “Conan the Barbarian” o “Kindergarten Cop” puรฒ facilmente associarli a Arnold Schwarzenegger”. Associare le “entitร ” potrebbe essere utile come fattore legato al brand, per classificare tipologie di query (e di risultati), e probabilmente anche per discriminare risultati verticali/universali, per esempio all’interno di Places/Maps, Immagini, Video, etc.

3. Quality rater “umani” & comportamenti degli utenti

Nell’ultimo decennio, il mondo online รจ stato governato da 2 forze gemelle: le Folla e l’Algoritmo. Gli utenti di Internet (la Folla) creano, cliccano e valutano, mentre le equazioni matematiche aggiungono la scalabilitร  e la reperibilitร  di tutta questa enorme mole di dati (l’Algoritmo). Come la Luna sopra l’oceano, l’attrazione di queste 2 forze contribuisce a creare le maree di popolaritร  (e di oscuritร ) di Internet.

Le informazioni sono accessibili, utili ed egualitarie come mai prima d’ora. Ma ultimamente, almeno per me, i punti deboli di questo sistema mezzo “crowdsourced” e mezzo algoritmico iniziano a farsi sentire, e la prossima rivoluzione sembra essere inevitabile. Dato che Google ha appena lanciato una estensione per Chrome che consente agli utenti di bloccare siti scelti fra le SERP, e visti i numerosi tentativi di sfruttare i dati degli utenti nei risultati delle ricerche (SideWiki, SearchWiki, Starred Results), ci sono buone probabilitร  che l’algoritmo “puro” sia destinato ad estinguersi.

Bing utilizza giร  un panel di “quality reviewer”, e cosรฌ pure Google (anche se quest’ultimo continua ad essere molto reticente a riguardo). Entrambi osservano con attenzione i percorsi degli utenti all’interno dei siti web. Tutto ciรฒ suggerisce che aumenteranno sempre piรน le informazioni raccolte sugli utenti e sul modo in cui questi utilizzano la rete, al fine di migliorare la qualitร  delle SERP.

Liberamente tradotto da The Next Generation of Ranking Signals, di Rand Fishkin.

Max Valle

Da oltre 30 anni, offro consulenza e servizi digitali ad aziende e professionisti che desiderano far crescere il proprio business. Attraverso l’acquisizione di nuovi clienti in modo etico ed efficace, e l’utilizzo delle piรน recenti tecnologie web, aiuto i miei clienti a raggiungere i loro obiettivi nel pieno rispetto delle normative vigenti.

  • Certified Professional Ethical Hacker nยฐ4053103 
  • International Web Association nยฐ0312827
  • Membro Federprivacy nยฐFP-9572
  • Associazione Informatici Professionisti nยฐ3241
  • Consulente Tecnico d’Ufficio (CTU)

Oppure chiamami gratuitamente:

Numero Verde Max Valle