salvataggio di roma

Era l’aprile 2008 quando le armi costruite dagli spider di Google hanno invaso il dominio Roma del sito Bakeca.it. Le copie cache delle pagine web erano state brutalmente inserite nel carcere, ed il sito aveva perso quasi tutte le posizioni e non solo per le keyword competitive.

Ai tempi gestivo l’aspetto SEO del sito Bakeca, e senza ombra di dubbio, ero nei guai:

In primo luogo ho eseguito una revisione generale del sito e di tutti gli elementi che un professionista della SEO deve prendere assolutamente in considerazione.

Poi sono stati eliminati i link provenienti da attivitร  di scambio link e i link dei partner che potrebbero sarebbero potuti sembrare frutto di compravendita. Sono stati rimossi alcuni espedienti semantici presenti nelle pagine dell’elenco annunci che erano finalizzati alla generazione di sinonimi e collocazioni nei testi link (anchor text) delle sezioni. Infine sono stati ottimizzati i Title e i contenuti delle pagine eliminando alcune frasi ripetute. Risultati? Zero.

Passavano i mesi, e io non trovavo una soluzione al problema. โ€œMichal, se il problema รจ solo sul dominio Roma.bakeca.it e gli altri funzionano bene devi cercare qualcosa di diverso che riguarda quel dominioโ€, mi ripetevano i tecnici. Io, perรฒ, non ero dโ€™accordo. Un ragionamento specifico nel caso delle punizioni di Google funziona molto raramente. Bisogna sempre guardare il sito nel suo insieme, altrimenti ci sono pochi dati e troppe variabili impreviste che escludiamo dallโ€™analisi.

Essendo in un piena trance scientifico-ipnotica ho riletto le basi dellโ€™algoritmo PhraseRank. Tra le tante informazioni inutili, probabilmente le frasi avrebbero potuto rappresentare la chiave del problema.

Le frasi riguardavano il modus operandi di Google nel caso delle pagine duplicate:

โ€ข nel caso in cui il motore di ricerca ritiene le pagine simili o duplicate, puรฒ decidere di indicizzarle e inserirle nei risultati di ricerca a rotazione, per verificare quale di queste produce la maggior user experience

โ€ข nel caso in cui il motore nota una grossa quantitร  di duplicati puรฒ decidere a priori di non indicizzarli

โ€ข in piรน รจ possibile che google classifichi un dominio o uno schema url come โ€œduplicate patternโ€, decretando cosรฌ i documenti appartenenti a questo dominio inutili e duplicati

In piรน ai tempi Google introduceva la possibilitร  di verificare le duplicazioni dei tag title e meta description.

Autore: Michal Gawel (direttore tecnico di Seolab e relatore al corso The Google Show che si terrร  a Milano a fine giugno), per il Max Valle


Max Valle

Da oltre 30 anni offro consulenza e servizi digitali ad aziende e professionisti che desiderano far crescere il proprio business. Attraverso l’acquisizione di nuovi clienti in modo etico ed efficace, e l’utilizzo delle piรน recenti tecnologie web, aiuto i miei clienti a raggiungere i loro obiettivi nel pieno rispetto delle normative vigenti.

  • Certified Professional Ethical Hacker nยฐ4053103 
  • International Web Association nยฐ0312827
  • Membro Federprivacy nยฐFP-9572
  • Associazione Informatici Professionisti nยฐ3241