Translate

Visualizzazione post con etichetta visite. Mostra tutti i post
Visualizzazione post con etichetta visite. Mostra tutti i post

mercoledì 15 febbraio 2012

Algoritmi

Possiamo definire un algoritmo come un insieme di righe di codice che gli spider dei motori di ricerca interpretano per fornire i risultati di ricerca, una volta che gli utenti inseriscono una determinata parola chiave. Tali algoritmi vengono continuamente modificati, costringendo i webmaster ad aggiornarsi spesso e a sperimentare diverse soluzioni per ottimizzare le posizioni dei siti.

Google basa i propri algoritmi sul PageRank, determinato a sua volta da elementi come la qualità dei testi e le keyword in essi contenuti, e la link popularity.
Un trucco, fino a poco tempo fa molto utilizzato ma oggi da evitare, è quello di inserire parole chiave invisibili scrivendo testo con lo stesso colore dello sfondo oppure fra le righe di commento nel codice HTML.

Ai fini di una corretta indicizzazione si consiglia, invece, di compilare un codice chiaro e pulito, puntando sulla qualità dei temi trattati e allo scambio link con siti affiliati.

Di seguito i fattori principali a cui fanno riferimento gli algoritmi di Google:
  • Parole chiave contenute in title e meta tag, nei testi fra i tag H1 o in grassetto, nella descrizione dei link.
  • Nome e anzianità del dominio.
  • Quantità e qualità di link diretti verso il nome di un sito web.
 Le informazioni o siti (a parità di ricerca effettuata) che Google reputa a suo insindacabile giudizio più interessanti, appaiono nelle prime pagine di ricerca, gli altri vengono relegati nel limbo elettronico delle ultime pagine dove nessuno li consulterà.

Ma cosa è e come funziona l’algoritmo di Google? In effetti nessuno lo sa. Questo è uno dei segreti industriali meglio custoditi al mondo. Un po’ come la ricetta della Coca Cola!

Pur tuttavia esso è stato (in parte) svelato empiricamente attraverso il lavoro e l’esperienza dei professionisti che si occupano di SEO.

Ecco per la vostra curiosità, una lista parziale di quello che può modificare la popolarità di un sito (con tutta l’informazione ad esso associata):
  1. Quantità qualità dei link esterni che puntano al dominio.
  2. Differenziazione delle fonti di link.
  3. Originalità e unicità del contenuto.
  4. Diversità dei link (intesa come numero/varietà di domini unici che linkano a pagine del dominio).
  5. Architettura del sito (struttura gerarchica e chiara).
  6. Freschezza del contenuto (data di creazione della pagina).
  7. Storia della registrazione del dominio (da quanto tempo con stesso proprietario, numero di rinnovi, etc.)
  8. Tempo medio delle visite sulla pagina.
  9. Velocità di caricamento della pagina (Caffeine).
  10. Link non funzionanti.
La lista completa di circa 200 parametri la trovate quì.

Google con i suoi algoritmi reinterpreta in un certo qual modo la rete e lo fa a suo dire per fornire risultati di qualità, ma sarà veramente così?