Translate

Visualizzazione post con etichetta web analytics. Mostra tutti i post
Visualizzazione post con etichetta web analytics. Mostra tutti i post

lunedì 20 giugno 2011

Come cambia il management nel contesto della Web Analytics

Con il rapido sviluppo di internet e dell’IT, un nuovo tipo di aziende sta emergendo. Amazon e Google sono solo alcuni esempi di aziende che stanno cavalcando i vantaggi di internet, con successo.  Ci sono due grandi ragioni perché questo stia avvenendo: primo, le persone spendono sempre più tempo online; secondo, misurare l’efficacia delle campagne di marketing online è molto più accurato e informativo di ogni altro mezzo. Tutto ciò pone al centro dell’attenzione come e cosa misurare, per comprendere la connessione tra le persone, il sito e il business. Come misurare, come collezionare, come analizzare e come comunicare i dati del sito web diventano elementi cruciali delle nuove aziende: la web analytics diventa parte essenziale della business intelligence.
L’analisi dei dati web esiste in realtà già da 15 anni, ma solo negli ultimi anni molte aziende hanno finalmente riconosciuto il valore della web analytics. Nel 2009, la Web Analytics Association definisce la web analytics come misurazione, collezione, analisi e reporting dei dati internet al fine di comprendere e ottimizzare l’experience. Se da un lato la definizione risulta così chiara e interessante, dall’altro però mettere in piedi un sistema di web analytics risulta complesso e molto dispendioso in termini di tempo e quindi di costo.
Cosa significa nel 2010 essere un’azienda che decide di porre la web analytics come parte significante all’interno dell’organizzazione?
Innanzitutto, bisogna partire da un presupposto fondamentale: il successo di una strategia di web analytics non dipende tanto dal tool di analytics implementato o installato (Google Analytics, Omniture SiteCatalyst, WebTrends, CoreMetrics, ecc.) ma dalle persone (Davenport&Harris, 2007). Oggigiorno, avere i dati web raccolti non risulta più un problema, esistono infatti svariati tool, gratuiti o a pagamento, più o meno complessi, che danno accesso a molteplici report. Il problema oggi sta nell’organizzazione, cioè nelle persone e nei processi: l’organizzazione non riesce a stare al passo con l’enorme flusso di dati web. E’ come avere una piscina in casa ma non saper nuotare.
Una soluzione per ridurre o addirittura azzerare il gap tra le persone e i dati è stata sviluppata da Kotter nel 1996. Kotter propone un cambiamento all’interno dell’organizzazione, composto da 8 step:
  • Stabilire un senso di urgenza: Trasmettere urgenza significa motivare le persone, creare interesse
  • Formare un team: Formare un gruppo capace di creare e comunicare la strategia aziendale, eliminare eventuali barriere e stimolare il nuovo modo di lavorare
  • Creare una strategia: La strategia deve essere chiara e facilmente comunicabile per motivare e procurarsi il supporto delle persone
  • Comunicare la strategia: La nuova visione deve essere comunicata in maniera corretta e deve essere supportata dall’intera organizzazione
  • Coinvolgere altri attori: Coinvolgere anche gli stakeholder affinchè la strategia abbracci tutte le aree
  • Pianificare obiettivi di breve termine: Siccome mettere in piedi una nuova strategia richiede molto tempo, può avvenire che in corso d’opera ci siano cali di supporto da parte delle persone, è importante pertanto fissare degli obiettivi di breve termine per ridurre tale rischio
  • Consolidare la nuova strategia: Dopo anni di intenso lavoro, il processo di cambiamento nella cultura aziendale sta finalmente avvenendo, ed è solo adesso che si deve pensare all’integrazione
  • Istituzionalizzare i nuovi approcci: Fare in modo che il management di prossima generazione utilizzi i nuovi approcci.
Per concludere, sviluppare una nuova strategia basata su un sistema di web analytics non è affatto semplice, anzi risulta spesso ostico, e a volte altalenante. I punti chiave da tenere sempre a mente sono: non è il tool che decreta il successo della nuova visione ma le persone, il supporto del management (più in generale dell’intera organizzazione) è fondamentale, non avere fretta perché il processo può essere molto lungo ma fissare sempre obiettivi di breve termine.

lunedì 5 luglio 2010

Le migliori risorse e programmi SEO per l’ottimizzazione nei motori di ricerca



Quali sono i tool SEO e i programmi realmente indispensabili per l’ottimizzazione di un sito web? Quali le fonti di notizie più aggiornate ed attendibili sui motori di ricerca?


Ci sono moltissimi tool utili per le attività di web marketing (spesso gratuiti), ma per lavorare professionalmente sulla visibilità di un sito Internet sono utili solo quelli che permettono di ricavare informazioni attendibili sui seguenti aspetti:
  • sapere come gli utenti cercano i prodotti/servizi di riferimento del sito;
  • capire quali sono i siti autorevoli nel settore di riferimento o in ambiti complementari da cui è utile ottenere link;
  • anticipare le evoluzioni nei risultati delle ricerche seguendo costantemente le novità negli algoritmi dei motori in modo da poter “cavalcare” i nuovi trend di sviluppo prima degli altri;
  • monitorare i risultati ottenuti ed eventuali problematiche del sito e, se necessario, condividerli con i clienti finali.


Per quanto riguarda la selezione delle parole chiave, il migliore strumento in assoluto per capire come gli utenti cercano quello che dobbiamo promuovere è sicuramente il keyword tool di Google Adwords. Grazie a questo notissimo servizio, cercando una serie di parole generiche collegate al settore di interesse e ordinando i risultati prima per attinenza e poi per numerosità delle ricerche si otterrà un quadro piuttosto chiaro (anche se a volte incompleto), delle parole su cui puntare e della loro importanza relativa (si scoprirà immediatamente ad esempio che “hotel + località” è molto più cercato di “albergo + località”, “camping + località” molto più di “campeggio + località”, ecc.).


Per ovviare al problema della individuazione esatta del campo semantico è consigliabile ripetere varie volte query con tutti i sinonimi individuati (e suggeriti dal tool stesso), scremando solo successivamente i doppioni ottenuti attraverso un file Excel di riepilogo con le caratteristiche evidenziate nell’articolo “Fare un’analisi keyword professionale” (articolo a pagamento).
Per quanto riguarda invece l’individuazione di siti rilevanti e tematicamente connessi su cui investire tempo (e denaro) per ottenere un link, esiste un tool automatico molto efficace: SEO Elite (per correttezza specifico che si tratta di un link sponsorizzato, tuttavia ho chiesto l'affiliazione solo perchè lo ritengo un prodotto molto valido).
In attesa che la real time search riduca progressivamente l’importanza dei link in entrata da siti autorevoli e tematicamente collegati (vedi aggiornamento su SEO relazionale di Alessandro sportelli), questo fattore rimane infatti ancora una delle basi fondamentali della visibilità on line (non fosse altro che per il traffico che i collgamenti sono in grado di portare sul sito).
Per quanto riguarda invece l’individuazione di siti rilevanti e tematicamente connessi su cui investire tempo (e denaro) per ottenere un link, esiste un tool automatico molto efficace: SEO Elite (per correttezza specifico che si tratta di un link sponsorizzato, tuttavia ho chiesto l'affiliazione solo perchè lo ritengo un prodotto molto valido).
In attesa che la real time search riduca progressivamente l’importanza dei link in entrata da siti autorevoli e tematicamente collegati (vedi aggiornamento su SEO relazionale di Alessandro sportelli), questo fattore rimane infatti ancora una delle basi fondamentali della visibilità on line (non fosse altro che per il traffico che i collgamenti sono in grado di portare sul sito).
Questo software è in grado di individuare automaticamente tutti i link in entrata comuni ad almeno due dei siti posizionati nelle prime posizioni dei principali motori per le parole chiave selezionate (permettendo così di risparmiare molto tempo rispetto alle numerose query altrimenti necessarie per capire da dove prendono i link i siti ben posizionati per le nostre keyword). SEO Elite è un ottimo strumento anche per capire se ci sono problemi legati ai link in ingresso su un certo sito (che in casi estremi possono anche portare a penalizzazioni).
Per quanto riguarda invece gli aggiornamenti sugli algoritmi dei motori, esistono moltissime fonti di informazione on line. Il problema è che spesso, soprattutto le fonti gratuite, propongono un numero enorme di contenuti di varia origine, tra cui è piuttosto difficile e laborioso trovare notizie verificate e attendibili.
Da questo punto di vista molti servizi americani sono avvantaggiati rispetto a noi, dato che il web italiano è un mercato secondario, in cui le novità arrivano quasi sempre dopo essere state prima testate su mercati più significativi (principalmente USA e UK). Tuttavia ciò comporta il problema diadattare le informazioni alla nostra realtà operativa: molti portali importanti per la visibilità sul nostro mercato non saranno mai infatti neanche nominati in questi report, perché poco utilizzati fuori d’Italia.
A mio parere la newsletter mensile di Planet Ocean, Search Engine News (anche in questo caso si tratta di un link sponsorizzato, che ho inserito esclusivamente data la validità del prodotto) è già da anni la sintesi più precisa ed affidabile sulle evoluzioni del search marketing presente sul mercato statunitense (e quindi probabilmente nel mondo).
Sia la newsletter di Planet Ocean, che SEO Elite, ad un’analisi superficiale sembrano i soliti tool USA stile “guadagna tanti soldi con internet” (gli americani a volte esagerano in questo senso). Si tratta invece nel primo caso di un'eccellente sintesi mensile di novità, osservazioni e test ad uso di esperti SEO e nel secondo di un software davvero utile e ben concepito (soprattutto nelle varie funzioni legate all’analisi della link popularity).
Per quanto riguarda invece il monitoraggio dei risultati delle attività SEOe l’individuazione di eventuali problematiche legate ai siti da promuovere, ci sono molti prodotti validi e sostanzialmente equivalenti. Il problema principale in questo ambito è però la ormai scarsa rappresentatività della sola verifica dei posizionamenti diretti nei motori di ricerca. La crescente rilevanza dei risultati da listing geolocalizzati (mappe) e da real time search (contenuti web 2.0, video, universal search), che linkano il sito solo indirettamente, rendono infatti molto meno utile di qualche tempo fa questa forma di reporting.
Tuttavia un buon monitoraggio della visibilità diretta è ancora indispensabile, soprattutto per capire se si sta lavorando nella direzione giusta e se ci sono eventuali problematiche/penalizzazioni in atto.
Io personalmente uso da molti anni con soddisfazione la suite di Web Ceo (anche questo è un link sponsorizzato), soprattutto perché, oltre ad essere estremamente efficiente e frequentemente aggiornata, offre un sistema di reportistica molto ben fatto, che può essere facilmente condiviso in automatico con i propri clienti. Attraverso un data base centralizzato e un report viewer (scaricato in locale e facilmente personalizzabile) i clienti che hanno l’accesso possono infatti visualizzare ed esportare i molti dati disponibili riorganizzandoli in parecchie viste differenti. Peraltro anche SEO Elite offre una funzionalità di controllo dei posizionamenti, ma non la condivisione dei risultati attraverso un apposito data center.
Inoltre, spesso è decisivo poter fornire ai clienti un grafico semplificato dell’andamento generale della visibilità del proprio sito e Web Ceo da questo punto di vista offre una funzionalità davvero eccellente (vedi immagine seguente), che è immediatamente comprensibile anche da un non addetto ai lavori.

Sempre dal punto di vista del monitoraggio è inoltre indispensabile attivare e analizzare i dati riepilogati nel Web Master Center di Google. Molto importanti risultano in particolare i dati sulla velocità di download delle pagine (più è lento il sito e minori sono le possibilità che si posizioni ai primi posti per parole chiave competitive), sulla presenza di eventuali penalizzazioni, di errori individuati dallo spider (pagine non trovate) o ditag duplicati (i titoli e le description devono sempre essere coerenti con i contenuti di ciascuna pagina).
Infine è sicuramente necessario dotarsi di un buon sistema di web analytics, per poter capire soprattutto quali parole chiave portano più visite (e conversioni) e quali sono i siti di provenienza più efficaci (su cui conviene quindi investire più tempo e/o denaro). Anche eventuali problemi o penalizzazioni potranno inoltre essere immediatamente individuate grazie a statistiche sufficientemente dettagliate.
Dato che la realtà web è sempre in perenne movimento chiedo a tutti di segnalare eventuali altri tool interessanti, anche commentando questo post. Le risorse utili verranno integrate nel testo dell’articolo e nell’ e-book e chi le ha suggerite sarà citato tra le fonti e otterrà almeno un link pulito pulito (promesso ;-).
Se vuoi segnalare risorse utili collegate a questo tema o suggerire modifiche al testo puoi farlo commentando questo post. Sei assolutamente benvenuto.