salvataggio di roma

Era l’aprile 2008 quando le armi costruite dagli spider di Google hanno invaso il dominio Roma del sito Bakeca.it. Le copie cache delle pagine web erano state brutalmente inserite nel carcere, ed il sito aveva perso quasi tutte le posizioni e non solo per le keyword competitive.

Ai tempi gestivo l’aspetto SEO del sito Bakeca, e senza ombra di dubbio, ero nei guai:

In primo luogo ho eseguito una revisione generale del sito e di tutti gli elementi che un professionista della SEO deve prendere assolutamente in considerazione.

Poi sono stati eliminati i link provenienti da attività di scambio link e i link dei partner che potrebbero sarebbero potuti sembrare frutto di compravendita. Sono stati rimossi alcuni espedienti semantici presenti nelle pagine dell’elenco annunci che erano finalizzati alla generazione di sinonimi e collocazioni nei testi link (anchor text) delle sezioni. Infine sono stati ottimizzati i Title e i contenuti delle pagine eliminando alcune frasi ripetute. Risultati? Zero.

Passavano i mesi, e io non trovavo una soluzione al problema. “Michal, se il problema è solo sul dominio Roma.bakeca.it e gli altri funzionano bene devi cercare qualcosa di diverso che riguarda quel dominio”, mi ripetevano i tecnici. Io, però, non ero d’accordo. Un ragionamento specifico nel caso delle punizioni di Google funziona molto raramente. Bisogna sempre guardare il sito nel suo insieme, altrimenti ci sono pochi dati e troppe variabili impreviste che escludiamo dall’analisi.

Essendo in un piena trance scientifico-ipnotica ho riletto le basi dell’algoritmo PhraseRank. Tra le tante informazioni inutili, probabilmente le frasi avrebbero potuto rappresentare la chiave del problema.

Le frasi riguardavano il modus operandi di Google nel caso delle pagine duplicate:

• nel caso in cui il motore di ricerca ritiene le pagine simili o duplicate, può decidere di indicizzarle e inserirle nei risultati di ricerca a rotazione, per verificare quale di queste produce la maggior user experience

• nel caso in cui il motore nota una grossa quantità di duplicati può decidere a priori di non indicizzarli

• in più è possibile che google classifichi un dominio o uno schema url come “duplicate pattern”, decretando così i documenti appartenenti a questo dominio inutili e duplicati

In più ai tempi Google introduceva la possibilità di verificare le duplicazioni dei tag title e meta description.

Autore: Michal Gawel (direttore tecnico di Seolab e relatore al corso The Google Show che si terrà a Milano a fine giugno), per il Max Valle