26 marzo 2005
Over-optimization: mito o realtà?

Come sempre, ciò che conta per Google è la 'naturalezza'; la regola aurea è (in teoria) quello di non fare nulla per l'indicizzazione che non si sarebbe fatto se i motori di ricerca non esistessero; una teoria che è certamente di difficile attuazione, ma che ha una logica fondata.
Torniamo dunque ai link. Se è vero che un sito è tanto meglio posizionato quanto più (e meglio) è linkato, è anche vero che questi link non debbono apparire 'artificiali' agli occhi dello spider (di Google o di altri motori di ricerca). Uno dei possibili fattori che può determinare l'artificialità dei link è il timing di linking; se un sito appena nato o comunque appena indicizzato da un motore registra un improvviso aumento dei link in entrata (inbound link), è probabile che questo venga visto come 'attività artificiale'; è infatti improbabile che in un breve range temporale lo stesso sito sia linkato contemporaneamente (e 'naturalmente') da molti siti. Il linking e/o il crosslinking naturali tipicamente richiedono molto tempo perché inizialmente sono pochi i siti disposti a linkare siti che sono nati da poco, che non hanno una storia etc. Un altro fattore di fondamentale importanza è la denominazione degli anchor; la presenza di anchor ripetuti (ovverosia di medesima o simile denominazione dei link) è sicuramente ritenuto un indice di 'artificialità' e quindi depone a sfavore per il sito linkato. Sono infine di fondamentale importanza anche le caratteristiche dei siti di provenienza. Nel caso in cui un sito sia linkato da numerosi siti aventi le medesime caratteristiche (codice html identico o simile, stessa classe di IP o addirittura medesimo IP, etc.), è evidente che un motore di ricerca considererà questi link 'artificiali', anche se attivati in un ampio lasso di tempo e con diversi anchor.

Questa è la situazione attuale (ipotizzata, ovviamente). Possiamo ora chiederci se questa strategia di penalizzazione adottata dai motori di ricerca (e, in primis, da Google) sia corretta.
A nostro parere è corretta solo la penalizzazione nel caso in cui ci sia un eccessivo numero di keyword in una pagina, e per un semplice motivo; se fosse vero che un sito può essere penalizzato da bad-linking (come nei casi succitati), allora vuol dire che chi voglia penalizzare un sito concorrente può farlo tranquillamente e a insaputa del sito che si vuole penalizzare. Poniamo che il sito A sia concorrente del sito B; A potrebbe, da un proprio network di siti già penalizzati e quindi considerati 'cattivi', eseguire un'opera di linking verso il sito B e in questo modo penalizzarlo.
A nostro parere sarebbe più corretto - da parte di un motore di ricerca - 'sospendere il giudizio' sui link che appaiono artificiali e 'tenere per buoni' solo quelli che appaiono essere naturali.

Ancora una volta, appare chiaro come non esista un algoritmo o un insieme di algoritmi perfetto per indicizzare e posizionare un sito. Anche variabili nate con una giustificazione si rivelano essere deboli e possono essere sfruttate per influire sul posizionamento di siti terzi.

I fattori off-page, così tanto osannati e considerati negli ultimi anni, si rivelano dunque ambigui. Di fatto, anche la loro origine non è ben giustificata. Chi dice che un sito che è più linkato sia migliore di un sito che non lo sia? E' come credere che il vestito migliore sia quello che compra più pubblicità, oppure che il politico migliore sia quello più votato, oppure che la persona più intelligente sia quella che intrattiene più relazioni con amici e conoscenti.

A nostro parere, nel futuro dei motori di ricerca dovranno prendere sempre più spazio i fattori on-page. L'utilizzo di fattori off-page non è altro che una 'resa' da parte di un motore di ricerca nella sua capacità di valutare 'in sé' la bontà di un sito. Poniamo che il sito A abbia fatto opera di linking artificiale (acquistandoli oppure costruendo dei siti ad arte per autolinkarsi); questa è sicuramente una strategia "black hat"; ma ciò vuol dire anche che il sito in questione non è di qualità? Assolutamente no. Per questo i fattori on-page rimangono di fatto i più importanti. Probabilmente il passaggio tanto aspirato (da parte non solo di Google, ma anche degli altri player) da una versione lessicale a una versione semantica rappresenterà la possibilità di superare l'impasse qualitativa (di quantità ne abbiamo fin troppa) in cui i motori di ricerca si trovano attualmente.

  Pagina: 1 - 2 | dialer - pay per impression  
  SitoVivo - web marketing  
SEM | e-mail | design | mobile | banner | guerilla | naming | | affiliaton | strategia | miscellanea | e-commerce | chi siamo | contatti
 

Webmarketingstrategico e' un sito di SitoVivo S.r.l. via Filadelfia 162 - Torino - 011-19705358 - fondato da Federico Riva.