Siti web e il Panda della discordia

Posted by Stefano |27 Mar 11 | 3 comments

Google continua a “sfornare” aggiornamenti per migliorare la qualità e l’esperienza utente nelle attività di ricerca online. Infatti, dopo i recenti aggiornamenti:

  • Caffeine, algoritmo per migliorare il processo di indicizzazione dei siti web in modo tale da fornire al più presto, tra i risultati di ricerca, i nuovi contenuti pubblicati dagli utenti.
  • Real Time Search: funzione per inserire all’interno dei risultati di ricerca le informazioni provenienti dai social-network come Twitter, Facebook e Myspace (Leggi il mio articolo sul real time search).
  • Instant: è una funzione introdotta più di 6 mesi fa in cui risultati di ricerca compaiono mano a mano che vengono l’utente digita una query. Con questa soluzione Google garantisce all’utente di risparmiare alcuni secondi per ogni ricerca.

Recentemente Google ha introdotto Panda un nuovo algoritmo per ridurre l’influenza delle Content Farm nel ranking delle pagine web. Con il termine content farm si indicano tutti i siti di aggregazione delle informazioni e le pagine web con contenuti di scarsa qualità.

Il nuovo algoritmo è stato pensato per ridurre il ranking dei siti con contenuti qualitativamente scadenti in quanto, le persone che utilizzano i motori di ricerca vogliono trovare risultati pertinenti alle query e con contenuti interessanti e originali.

Come funziona l’algoritmo??

Come per tutti gli aggiornamenti precedenti, e con una filosofia in contrasto alla mentalità Open alla base delle strategie di Google, non sono mai state rilasciate dichiarazioni ufficiali sul funzionamento degli algoritmi…questo atteggiamento di chiusura non permette analisi veritiere ma solo delle considerazioni basate sui dati del traffico web ed interpretazioni delle parole degli ingegneri di BigG rilasciate nelle varie interviste.

Dalle parole di Matt Cutts e Amit Singhal, nella recente intervista su Wired Usa, sembra che l’algoritmo Panda (il cui nome deriva dal cognome dell’ingegnere che lo ha sviluppato) si basi su un’intuizione capace di comprendere dalla struttura e dal contenuto delle pagine web quali sono qualitativamente elevate e quali no.

Questo algoritmo sembra essere stato sviluppato partendo da un approccio un po particolare in quanto sono stati inviati dei documenti ad un gruppo di tester esterni ponendo loro una serie di domande molto rigorose del tipo:

  • Consideri autorevole il sito?
  • Questo sito ha un numero eccessivo di annunci pubblicitari?
  • Ti fideresti di dare la tua carta di credito a questo sito?
  • e molte altre

probabilmente, dalle risposte ottenute e dalla struttura di questi siti di test, l’ingegnere di Google deve aver osservato qualche peculiarità che è stata poi tramutarla in un algoritmo capace di individuare la qualità del contenuto.

In più, durante lo sviluppo dell’algoritmo, Google ha rilasciato un’estensione per Chrome, chiamata Personal Blocklist, per consentire agli utenti di indicare se il sito deve essere bloccato oppure no… Matt Cutts ha affermato che i dati ottenuti dall’estensione per Chrome non sono stati utilizzati fisicamente per ridurre lo spam tra i risultati di ricerca ma, sono serviti per verificare la qualità dell’algoritmo sviluppato. Dal confronto tra i risultati forniti dell’algoritmo e quelli forniti dagli utenti, tramite l’estensione Personal Blocklist,  gli ingegneri di BigG hanno avuto modo di osservare una corrispondenza dell’80% circa tra le due metodologie di classificazione dei siti.

I problemi

Ovviamente le novità hanno creato scompiglio tra i risultati di ricerca ed in alcuni casi l’algoritmo ha sovvertito il ranking favorendo grandi Brand a rispetto a siti meno famosi ma con contenuti di grande qualità. Gli esempi più famosi di siti penalizzati dal Panda sono: Suite 101 che ha perso più del 94% del traffico giornaliero sulle parole chiave (keywords) di riferimento ed il sito Digital Inspiration che ha perso il 90% del proprio traffico giornaliero; come loro molti altri siti.

A detta di Google l’algoritmo è in esecuzione solo per ricerche in lingua inglese e quindi non dovrebbe causare problemi nelle altre lingue ma, in rete, si sono riscontrate lamentele da parte di siti, ospitati su hosting americani, che hanno riscontrato una riduzione del traffico dall’introduzione del nuovo algoritmo.

La perdita di ranking da parte dei siti è principalmente dovuta ad una severa policy di penalizzazione dei siti con contenuti di bassa qualità. Dalle prime analisi sembra che ci sia una forte penalizzazione anche per quei siti che hanno contenuti rilevanti e che al loro interno contengono qualche articolo di bassa qualità. In poche parole i problemi introdotti dal nuovo algoritmo possono essere riassunti in due punti:

  1. L’algoritmo colpisce principalmente i siti di bassa qualità (  e anche farm) cioè con contenuti superficiali, scritti male e copiati da altri siti e quindi inutili per l’utente.
  2. Un sito con una pochi contenuti di bassa qualità riduce la visibilità anche di tutte le pagine qualitativamente più elevate .

Cosa fare per evitare di essere penalizzati?

Proverò, nelle prossime righe, ad elencare alcuni suggerimenti per migliorare la qualità del vostro sito … vi ricordando che qualsiasi contenuto pensato per il Web deve focalizzarsi sull’utente e non su Google altrimenti avete perso in partenza!!

  1. Utilizzare il meta tag noindex,follow per impedire ai boots di Google e di indicizzare le pagine di minor qualità del vostro sito. Il Tag Noindex,follow serve a dire ai Google boots, o a qualsiasi altro spider, di non indicizzare la pagina corrente ma di utilizzare i link per approfondire la navigazione sul sito. Vi consiglio di utilizzare questo tag per tutte quelle pagine che sono di contorno al vostro sito ma che non portano nessun valore aggiunto all’utente.
  2. Nei siti e blog  è buona abitudine utilizzare dei tag per definire gli argomenti chiave della pagina. Con l’introduzione dell’algoritmo panda è fondamentale ripulire il sito da tutti i tag inutili e mantenere solo quelli rappresentativi del sito e pertinenti con gli argomenti principali del sito.
  3. Individuare e correggere tutti i link errati o non funzionanti del sito. Vi consiglio l’utilizzo del tool xenu per risolvere il problema dei link errati in poco tempo.
  4. Controllare periodicamente gli Strumenti Webmaster di Google ed in particolare i suggerimenti HTML per migliorare la qualità della struttura delle pagine. Per esempio nel mio caso erano indicati dei title duplicati che sto rimuovendo e sistemando.
  5. Modificare il file robots.txt in modo tale da essere sicuri che Google, e tutti gli altri motori di ricerca, indicizzino solo le directory e le pagine web che vogliamo.
  6. Utilizzare i tag nofollow all’interno dei link di pagine sponsorizzate oppure nei banner pubblicitari inseriti nel sito. Proprio l’utilizzo di numerosi banner pubblicitari all’interno del vostro sito sembra essere un ulteriore parametro che potrebbe penalizzare molto il vostro sito… quindi è fondamentale non esagerare con le pagine sponsorizzate e con i banner pubblicitari all’interno della pagina web purchè queste non siano di Google AdWords (non so se mi spiego…).
  7. Valutare l’esperienza utente (UX) all’interno del sito: design, usabilità e valore del brand … è fondamentale un lavoro continuo per migliorare la user experience… come ho sempre detto l’utente prima di tutto.
  8. Controllare la struttura del template e il codice delle vostre pagine web per mantenerlo sempre privo di errori.
  9. Non focalizzare la propria comunicazione solo tramite i motori di ricerca ma curare il valore del brand, e la qualità della comunicazione, anche nei social network, Google Images ecc perchè un parametro di valutazione è la vostra reputazione online nel complesso della vita digitale web e non solo quello dell’indicizzazione.

Con questi suggerimenti molti dei siti ingiustamente penalizzati dall’algoritmo panda sono riusciti a risolvere i loro problemi di ranking ed io sto lavorando sui dettagli del blog per continuare a migliorarmi e farmi trovare pronto all’introduzione della nuova invenzione di bigG.

Ovviamente, e non mi stancherò mai di ripeterlo, tutto quello che fate sul web deve essere pensato per le gli utenti quindi concentratevi sui  contenuti e la loro qualità più che sulla quantità!!L’utente ha bisogno di leggere,capire ed imparare dalla vostra esperienza e non trovare repliche … in più ricordatevi che nelle attività di indicizzazione non esiste solo Google ma ci sono nel web molti altri motori di ricerca!


3 Responses

Leave a Reply