Era l’aprile 2008 quando le armi costruite dagli spider di Google hanno invaso il dominio Roma del sito Bakeca.it. Le copie cache delle pagine web erano state brutalmente inserite nel carcere, ed il sito aveva perso quasi tutte le posizioni e non solo per le keyword competitive.
Ai tempi gestivo l’aspetto SEO del sito Bakeca, e senza ombra di dubbio, ero nei guai:
In primo luogo ho eseguito una revisione generale del sito e di tutti gli elementi che un professionista della SEO deve prendere assolutamente in considerazione.
Poi sono stati eliminati i link provenienti da attivitร di scambio link e i link dei partner che potrebbero sarebbero potuti sembrare frutto di compravendita. Sono stati rimossi alcuni espedienti semantici presenti nelle pagine dell’elenco annunci che erano finalizzati alla generazione di sinonimi e collocazioni nei testi link (anchor text) delle sezioni. Infine sono stati ottimizzati i Title e i contenuti delle pagine eliminando alcune frasi ripetute. Risultati? Zero.
Passavano i mesi, e io non trovavo una soluzione al problema. โMichal, se il problema รจ solo sul dominio Roma.bakeca.it e gli altri funzionano bene devi cercare qualcosa di diverso che riguarda quel dominioโ, mi ripetevano i tecnici. Io, perรฒ, non ero dโaccordo. Un ragionamento specifico nel caso delle punizioni di Google funziona molto raramente. Bisogna sempre guardare il sito nel suo insieme, altrimenti ci sono pochi dati e troppe variabili impreviste che escludiamo dallโanalisi.
Essendo in un piena trance scientifico-ipnotica ho riletto le basi dellโalgoritmo PhraseRank. Tra le tante informazioni inutili, probabilmente le frasi avrebbero potuto rappresentare la chiave del problema.
Le frasi riguardavano il modus operandi di Google nel caso delle pagine duplicate:
โข nel caso in cui il motore di ricerca ritiene le pagine simili o duplicate, puรฒ decidere di indicizzarle e inserirle nei risultati di ricerca a rotazione, per verificare quale di queste produce la maggior user experience
โข nel caso in cui il motore nota una grossa quantitร di duplicati puรฒ decidere a priori di non indicizzarli
โข in piรน รจ possibile che google classifichi un dominio o uno schema url come โduplicate patternโ, decretando cosรฌ i documenti appartenenti a questo dominio inutili e duplicati
In piรน ai tempi Google introduceva la possibilitร di verificare le duplicazioni dei tag title e meta description.
Autore: Michal Gawel (direttore tecnico di Seolab e relatore al corso The Google Show che si terrร a Milano a fine giugno), per il Max Valle