Translate

Visualizzazione post con etichetta sito. Mostra tutti i post
Visualizzazione post con etichetta sito. Mostra tutti i post

giovedì 1 marzo 2012

Ottimizzare una pagina web

Ottimizzare una pagina web, affinché si posizioni tra i primi risultati per specifiche chiavi di ricerca, è un’attività complessa che può dare grandi soddisfazioni, facendo aumentare visite ed entrate, ma riserva non poche insidie.
L’attività di SEO deve tenere conto di numerosi fattori interni ed esterni al sito web, e richiede quindi competenze piuttosto diversificate, tuttavia un’ottimizzazione di base è quasi alla portata di tutti e, leggendo il molto materiale disponibile in rete potrete con facilità individuare alcuni dei fattori più importanti per effettuarla con buoni risultati.
Esistono però errori molto comuni che possono vanificare il vostro lavoro di ottimizzazione, vediamone rapidamente alcuni, così da prestarvi particolare attenzione.
Ottimizzate la vostra pagina per una sola seywords o key phrases, se volete posizionarvi per più parole chiave create più pagine, inserirle tutte in una sola pagina è un errore comune che vi fa disperdere forze e ranking.
Usate dei buoni anchor text per i vostri link, sia nel caso linkiate pagine del vostro sito, sia nell’attività di link building esterna al sito che è uno degli aspetti più rilevanti nel suo posizionamento.
Linkare le vostre pagine da siti di bassa qualità e con anchor text poco significativi è un errore che non dovete commettere, meglio pochi link con anchor text precisi, in cui indicherete le key con cui volete posizionarvi.
Infine un altro errore molto comune è sottovalutare l’importanza di una pagina veloce, evitate quindi immagini troppo pesanti e orpelli grafici che rallentano la velocità di caricamento del vostro sito, puntate invece ad un codice ben scritto, pulito e veloce, che verrà apprezzato sia dai vostri utenti che dai motori di ricerca.

mercoledì 8 febbraio 2012

Pertinenza di contenuti e keyword density

Per poter fornire il maggior numero di informazioni riguardante una o più parole ricercate, il motore di ricerca valuta il numero di volte in cui queste sono ripetute all’interno dei testi di una pagina (keyword density). Precisiamo che lo spider, detto anche Googlebot, è in grado di leggere e quindi indicizzare i testi in html e non contenuti multimediali quali animazioni flash, video, immagini, ecc...
Logica della Keyword density : e’ normale che se cerco la parola "mela", un sito che al suo interno contiene questa parola ripetuta più volte presumibilmente ne parlerà in maniera più approfondita rispetto ad un altro in cui questa parola è presente una sola volta. Lo stesso vale per ricerche più complesse come per esempio "come coltivare una mela". In questo caso il motore di ricerca eseguirà il match delle 4 parole ricercandole tra le pagine indicizzate e premiando presumibilmente quelle che riportano fra i contenuti la ripetizione delle parole stesse.
Data la semplicità del principio di ripetizione delle parole, Google ha messo in atto una serie di strumenti di prevenzione volti ad evitare che i testi vengano conditi con ripetizioni esagerate al solo scopo di migliorare il posizionamento su listato organico. Vediamone alcuni qui di seguito.
Qualità del testo: per poter avere buone possibilità di uscita sui motori di ricerca, una pagina web deve necessariamente seguire il principio della keyword density, ma deve anche risultare leggibile agli occhi dell’utente finale. Per garantire tale condizione Google valuta oltre alla quantità anche la qualità delle parole contenute nel testo. Pone ad esempio un limite alla keyword density di ogni pagina, oltre il quale reputa la ripetizione di una o più parole come puro escamotage di galleggiamento penalizzandola nel ranking o in casi limite rimuovendola totalmente dall’indice. La percentuale di keyword density oltre il quale un testo rischia di essere penalizzato viene indicato da più esperti SEO nel 5% del totale del testo. Questa soglia non è comunque un valore assoluto ma una stima empirica, né mai esponenti di Google l’hanno confermata o smentita.
Per chiudere l’argomento keyword density, possiamo anche affermare che in caso di ricerche specifiche con match di più parole, la vicinanza di queste all’interno del testo conta molto di più della loro ripetizione in periodi slegati del testo. Per tale motivo in una ricerca del tipo "come coltivare una mela" un testo che contenga il match esatto una sola volta avrà presumibilmente un posizionamento migliore rispetto ad un altro che ne ripete le singole parole più volte ma in frasi diverse.

Bold e colore dei testi
Navigando su internet vi sarà di certo capitato di imbattervi in siti con testi in grassetto. Questo perché, così come per un lettore, l’evidenziazione di una parola ne accentua l’importanza rispetto al resto del testo anche agli occhi dei motori di ricerca. E’ per questo importante per un testo con intenti di indicizzazione enfatizzare le parole per cui si vorrebbe uscire su Google. Ultimamente comunque pare che questo escamotage sia stato "decifrato" dai motori di ricerca che ne hanno mitigato gli effetti positivi e addirittura, testi eccessivamente nerettati potrebbero subire penalizzazioni sul listato.
Un’altra tecnica di SEO "puro" utilizzato in passato era la creazione di testi con lo stesso font dello sfondo pagina con l'obiettivo di renderli invisibili agli occhi dell'utente ma non a quelli dello spider che come sappiamo decodifica l'html. L’utilità di tale escamotage era naturalmente quella di poter inserire testi sovra ottimizzati senza doversi preoccupare della leggibilità. Dopo poco tempo però questo trucco è stato scoperto e pare che i Googlebot analizzino il grado di contrasto dei font pagina/css e del testo penalizzandone l’indicizzazione se ritenuti troppo simili.

Frequenza di rimbalzo e tempo medio sul sito
Per coloro che hanno dimestichezza con il programma di statistiche Google Analytics il termine frequenza di rimbalzo non è un mistero. Si tratta di quella percentuale di visite effettuate da utenti che entrano in una pagina e ne "fuggono" in poco tempo ritenendone i contenuti poco interessanti o non soddisfacenti i termini di ricerca.
L’algoritmo di Google è infatti intelligente ma non infallibile, è quindi plausibile che un sito risulti (involontariamente) ben posizionato per parole chiave le cui argomentazioni ed il cui intento sia diverso da quello degli utenti finali. O ancora può capitare che pagine (volontariamente) sovraottimizzate attraverso escamotage SEO, riescano a superare i parametri di qualità di Google, camuffando magari una pagina con intenti commerciali da pagina informativa. L’utente finale di internet medio, è abituato ormai ad una fruizione dei contenuti rapida e puntuale e difficilmente resta in una pagina i cui contenuti non hanno nulla a che fare con la propria ricerca. A questo punto Google sfrutta il comportamento dell’utente finale per andare a compensare le proprie mancanze e se la frequenza di rimbalzo di una pagina è elevata ed il tempo medio visita molto basso ne penalizza il posizionamento a favore di altre più attinenti.
Peso specifico di una pagina
E’ cosa risaputa che gli spider riescono a leggere un numero limitato di informazioni per pagina attraverso l’interpretazione dell’html. E’ dunque importante fare in modo che la pagina web venga alleggerita e in qualche modo ripulita di contenuti inutili e che il codice sia il più scarno possibile.
Dato che, come già detto lo spider non riesce ad interpretare i contenuti di un immagine o di un video è importante cercare di ridurne il peso il più possibile prima della messa online, esistono svariati software in grado di ottimizzare un’immagine per il web comprimendo la dimensione senza perdere troppo nella risoluzione.
Un sito con pagine leggere, magari appoggiate ad un server veloce e potente, consentirà inoltre una più rapida apertura e visualizzazione sul browser delle pagine stesse. E' infatti noto che l'utilizzatore medio di internet (abituato ad avere tutto e subito!!) sia "poco tollerante" verso i rallentamenti di visualizzazione dei contenuti ed è provato che quasi l'80% degli utenti chiude una pagina se questa non viene correttamente caricata entro 5 secondi!!! Un sito con queste scarse performance rischia dunque di avere un elevatissima frequenza di rimbalzo, con riflessi negativi sul posizionamento.
Altro aspetto importante e data la costante espansione e diffusione negli ultimi anni, oseremmo dire fondamentale, è la navigabilità del sito da telefoni cellulari di nuova generazione e palmari. Tali apparecchiature, non essendo dotate di memorie o applicazioni web performanti faticano a caricare contenuti di dimensioni elevate e una delle ultime modifiche all'algoritmo di Google pare sia stata apportata proprio per "premiare" nel posizionamento quei siti con pagine leggere facilmente navigabili o dotati di apposita interfaccia di navigazione per palmari.

I meta tag
I meta tag sono dati inseriti nel linguaggio html e non visibili dall’utente se non proprio attraverso la visualizzazione della sorgente della pagina. Si trovano nel campo Head (all’inizio del metalinguaggio della pagina) e servono prevalentemente a fornire informazioni ai motori di ricerca. Si suddividono in 3 segmenti Title (titolo), Description (descrizione) e keywords (parole chiave) e la loro importanza è da sempre oggetto di discussione fra i web master e gli esperti SEO.
In effetti in passato, dato l’elevato numero di siti in flash e le performance limitate degli spider, i meta tag erano davvero fondamentali ai fini dell’indicizzazione.
Ad oggi la loro importanza è decisamente inferiore per tre motivi:
La cattiva abitudine di alcuni web master di sovraccaricare di informazioni i meta dati, con titoli lunghissimi e/o elenchi di parole chiave infiniti con inserimento anche di parole non del tutto pertinenti con il contenuto della pagina stessa. Ad oggi tali operazioni rischiano in realtà di risultare controproducenti in quanto i motori di ricerca possono ritenerle come semplici escamotage di galleggiamento.
Il miglioramento delle prestazioni degli algoritmi di ricerca che riescono ad indicizzare molti più contenuti e a valutare ogni pagina non solo secondo i suoi contenuti ma anche sulla base di altri criteri quali la credibilità e popolarità del sito che la contiene (più avanti parleremo anche di Page Rank e Link Popularity)
La sempre maggiore importanza di siti dinamici quali blog, social network e forum in cui l’utente genera nuove pagine agendo direttamente su front-end senza interagire con il metalinguaggio e senza la necessità che ne conosca lo sviluppo.
Ma adesso valutiamo i meta tag uno per uno:

Title - il titolo è senza dubbio il più importante dei tre. Definisce in maniera inequivocabile l’argomento che viene trattato all’interno della pagina e viene visualizzato come prima riga linkabile sul listato organico del motore di ricerca. Dal punto di vista dell’indicizzazione è importante che ogni pagina di un sito abbia il proprio titolo basato sul focus.
Data l’importanza di questo elemento molti webmaster tendono a creare titoli molto lunghi ed in carattere maiuscolo. C’è da precisare a tal proposito che non abbiamo elementi per affermare che un titolo in maiuscolo sia meglio indicizzato di un altro in carattere minuscolo, possiamo però consigliare di evitare congiunzioni, virgole o parole inutili all’interno del titolo che deve rappresentare davvero una semplice anticipazione dell’argomento trattato.

Lunghezza massima consigliata: 60 battute compresi gli spazi

Description - Come dice la parola stessa, la descrizione pagina è un piccolo riassunto delle argomentazioni presenti nella pagina. Come per gli altri meta tag, ai fini dell’indicizzazione è importante che ogni pagina del sito sia dotata di descrizione propria e puntuale. Il suo sviluppo deve assolutamente essere coerente con i testi presenti nella pagina sia nella misura della quantità che della qualità delle parole da utilizzare.
Lunghezza massima consigliata: 160 battute compresi gli spazi
Keywords - le parole chiave sono oggetto di enormi discussioni. Si tratta di un elenco di parole o match di parole separate da una virgola. In passato (e ancora oggi per i webmaster meno esperti) si tendeva a "caricare" questo elenco con tutte quelle parole per cui si desiderava essere presenti sui motori di ricerca.
Se effettivamente in passato potevano giocare un ruolo rilevante nel posizionamento di un sito, da ormai svariati anni il campo keyword, se mal ponderato può rappresentare più un danno che un vantaggio. Così come per la description, consigliamo dunque di inserire un numero di parole chiave coerente con i testi sia per quantità che per qualità evitando la ripetizione esagerata di uno stesso termine.

Link popularity
Uno dei più importanti criteri di valutazione dei siti web ai fini del posizionamento nelle serp e che ha rappresentato un punto di forza per Google è la link popularity, ossia il numero di link presenti nel web che rimandano ad un determinato sito internet. Scandagliando migliaia di pagine al giorno, i Googlebot sono in grado di riconoscere e memorizzare anche il numero esatto di link attivi preseti su internet ed il loro percorso fino a quella che viene definita "landing page" (pagina di atterraggio) cui i link in questione rimandano.
Un po’ come nella vita reale avere una certa reputazione rende più semplice e automatica la visibilità, allo stesso modo se un sito viene menzionato spesso su altri siti presumibilmente significa che i suoi contenuti vengono considerati attendibili ed interessanti. Per i neofiti di internet segnaliamo che esistono parecchi siti o network di siti che offrono la vendita e/o lo scambio gratuito di link (pratica forse più "democratica"), volti a rendere maggiore la reputazione online.
Come spesso accade però, ogni volta che un meccanismo di valutazione di Google viene decifrato dagli esperti SEO, questi alza "l’asticella" di difficoltà o meglio ancora lavora su sé stesso per rendere i risultati su listato organico il meno influenzabili possibile da operazioni di ottimizzazione.
A tal proposito Google è oggi in grado di valutare non solo la quantità di link in entrata in un sito ma anche e soprattutto la loro qualità. Se infatti il solo numero fosse sufficiente a guadagnare posizioni su Google sarebbe abbastanza semplice acquistare e scambiare un numero elevato di link. E’ invece molto più importante avere link "mirati" magari da siti o portali settoriali che trattano argomenti simili alla landing page. La coerenza tra il sito di partenza e quello di destinazione è estremamente importante ed il beneficio che si può ottenere, soprattutto da un link testuale può fare la differenza. Per link testuale si intende un link formato da una parola cliccabile che riassume il contenuto di quella che sarà la landing page del sito di destinazione; per fare un esempio pratico possiamo riferirci nuovamente ad una pagina che tratta il tema: "Come coltivare una mela". In questo caso sarebbe assolutamente meglio avere un link nominato come coltivare una mela su un portale tematico sull’agricoltura che 20 link generici su siti che trattano argomenti che nulla hanno a che fare con la coltivazione delle mele.
Oltre alla pertinenza dei temi trattati è importante che il sito da cui "parte" il link sia in possesso di un buon Page Rank (concetto che verrà spiegato di seguito). Tanto maggiore è il Page Rank della pagina fonte quanto maggiore è il "peso specifico" che Google attribuisce al link. Un po’ come per il mondo giornalistico, la credibilità della fonte rappresenta una sorta di garanzia sull’attendibilità e sulla veridicità delle informazioni veicolate.
Soprattutto per siti di nuova costruzione, la presenza di un numero elevato di link in ingresso (magari poco coerenti con i contenuti delle pagine) può essere valutato da Google come un mero trucco di galleggiamento con il serio rischio di rimozione dall’indice del sito.

Prima di passare all’analisi del Page Rank, desideriamo fare una breve considerazione sui link interni ad un sito. Così come per i links da altri siti web, anche il collegamento con links testuali fra 2 o più pagine di uno stesso sito può aiutare a "veicolare" lo spider verso notizie nuove o di maggiore interesse. Dato che la Home Page è in genere la pagina più anziana di un sito e con il maggiore Page rank, ogni volta che viene aperta o aggiornata una nuova sezione è buona regola linkarla proprio in Home.

Google PageRank
Strettamente legato al concetto di link popularity è quello di  PageRank (letteralmente rango della pagina) termine la cui proprietà intellettuale appartiene a Google.
Il PageRank è un algoritmo di analisi delle pagine web che consente di stabilirne l’importanza da un punto di vista oggettivo, sulla base di una verifica quantitativa e qualitativa dei link verso di essa.
A seguito di tale analisi l’algoritmo definisce ed assegna ad ogni pagina un voto da 0 a 10, anche se solo pochissimi siti al mondo riescono ad ottenere 10/10 (Facebook è da poco tra questi).
Acquisire PageRank significa migliorare la propria reputazione online ed aumentare sensibilmente la possibilità di uscita fra le prime posizioni delle serp. Purtroppo non esistono tecniche per il miglioramento di tale valore in tempi rapidi, soprattutto per siti di nuova costruzione (a meno di rari casi di successo.. vedi Facebook), la scalata al PageRank deve essere graduale e soprattutto basata su un vero e proprio lavoro di qualità dei contenuti. L’acquisto o lo scambio di links può essere utile in tal senso, soprattutto se questi provengono da siti già con elevato PageRank, ma la differenza significativa sta nel riuscire a fornire, attraverso il proprio sito, informazioni e/o servizi davvero interessanti per il maggior numero di utenti possibili, la migliore pubblicità (come sempre) a quel punto sarà il passaparola. Infine, l’inserimento di un elevato numero di link in ingresso per un nuovo sito può risultare controproducente.

sabato 28 maggio 2011

Facebook:No SSL? No Party

Se hai un'applicazione, o semplicemente una pagina fan personalizzata, devi leggere questo articolo. 

Se vuoi continuare a lavorare con applicazioni e tab su Facebook, DEVI dotare il tuo sito di certificato SSL entro Ottobre 2011!

Che succede?

Qualche tempo fa la nota trasmissione Report ha gridato "al lupo al lupo" facendo intendere che su Facebook la propria privacy è a rischio perchè gli estranei possono sapere chi sei e cosa fai. Vero, ma sarebbe stato anche corretto dire che ognuno può facilmente decidere a chi far visualizzare i propri dati. 

In quei giorni si è scatenata la corsa alla navigazione di facebook utilizzando il protocollo HTTPS (leggi, importante).... che ha poco a che fare con i dati che rendi visibili su facebook (ma questa è un'altra storia :-)  ).

In breve l'utilizzo dell'HTTPS ti permette di scambiare dati con il server (Facebook in questo caso) utilizzando un "canale protetto". In questo modo i dati comunicati potranno esser difficilmente intercettati dall'esterno.

Effettivamente l'uso dell'HTTPS potrebbe ridurre i rischi ma di certo non li elimina. Nel caso in cui tu ad esempio prenda un virus tramite mail, chiunque potrà accedere ai file del tuo computer ed ai tuoi account social, a prescindere da Facebook.

Quello che interessa a chi fa marketing su Facebook è che sempre più gente navigherà Facebook in HTTPS e sempre meno gente potrà utilizzare le nostre applicazioni e visualizzare le tab personalizzate della nostra pagina fan, se non dotate anch'esse di "protezione".

Facoltativo? NO, OBBLIGATORIO da Ottobre 2011

Martedì 10 Maggio 2011, Facebook annuncia:

"...Today, we are announcing an update to our Developer Roadmap that outlines a plan requiring all sites and apps to migrate to OAuth 2.0, process the signed_request parameter, and obtain an SSL certificate by October 1...

...October 1: All Canvas apps must process signed_request (fb_sig will be removed) and obtain an SSL certificate (unless you are in Sandbox mode). This will ensure that users browsing Facebook over HTTPS will have a great experience over a secure connection..."

All'inizio di Marzo ti comunicai che, al fine di personalizzare le pagine fan, non era più possibile utilizzare l'applicazione FBML di Facebook. Da qualche tempo, per creare tab personalizzati, è infatti necessario creare applicazioni iframe. Proprio per questo motivo siamo stati costretti ad aggiornare il tutorial tecnico che fa parte del sistema SALG.

Se le pagine personalizzate necessitano la creazione di applicazioni iframe, e da ottobre tutte le applicazioni dovranno utilizzare il protocollo https, vuol dire che entro ottobre devi dotare il tuo sito di un certificato SSL, e modificare le applicazioni già in uso.

Se non sei pratico di hosting e programmazione ti suggerisco di chiedere supporto al tuo webmaster e/o a chi ha personalizzato la tua pagina fan.

sabato 30 aprile 2011

Intercettare clienti su Facebook grazie a Google (e viceversa)

La domanda più frequente in giro per il web, sulla nostra pagina facebook, e sul sito che stai consultando in questo momento è: come faccio a "promuovere" la mia pagina fan?

Ecco la domanda giusta da porsi:" Come faccio ad intercettare su Facebook gente potenzialmente interessata a ciò che IO ho da offrire/dare/dire? ".

Se vuoi fare marketing su Facebook (l'ho detto spesso, non me ne volere) devi necessariamente capire perchè ha successo il marketing sui motori di ricerca. Il search marketing ci ha insegnato che se intercettiamo persone che stanno cercando proprio noi ed i nostri prodotti è più facile diventino nostri clienti. Ben diverso è se siamo noi a proporci. Quindi il motore di ricerca favorisce l'incontro tra domanda ed l'offerta nel momento stesso in cui la domanda/desiderio/necessità viene "espressa".

Cosa impariamo dai motori di ricerca? Impariamo che conta la qualità e non la quantità dei visitatori del nostro sito. Se al nostro sito accede gente interessata probabilmente acquisterà. Se al nostro sito accede gente disinteressata tutto diventa più difficile.

Quando pensi alla tua strategia su Facebook devi ricordare ciò che abbiamo fin qui detto. NON conta il numero di fan della tua pagina... la cosa importante è che diventi fan della pagina chi è potenzialmente interessato a ciò che fai.

Da qui nasce un'altra domanda frequente: "ho 10000 fan e fino ad ora non ho venduto nulla!"

Di solito rispondo a questa domanda con un'altra domanda:"Come hai intercettato quei 10000 fan? Chi diavolo sono? Hai posto in essere una strategia ragionata o sono stati acquistati con i saldi primaverili su ebay? :-)".

La colpa è di chi continua a fare informazione dando valore al numero totale di iscritti a Facebook. Bene,il fatto che su Facebook ci siano 19 milioni di Italiani a me ed a te non frega nulla.

Del resto anche su Google gli italiani effettuano milioni di ricerche al giorno, ma a te interessa intercettare solo quelle che riguardano la tua attività. Perchè sprecare tempo e denaro per posizionarsi per la parola "mozzarelle" se vendi "sedie"?

Non ha senso giusto? Questo lo sanno ormai (quasi) tutti.

Perchè invece sprecare tempo e denaro per intercettare su Facebook centinaia di migliaia di persone non interessate a ciò che facciamo? ... su questo aspetto c'è invece ancora da lavorare.

Ed è proprio questo l'aspetto approfondito nel modulo 5 del corso di marketing su Facebook(Strategie). Tra le differenti strategie spiegate nel modulo 5, l'integrazione ragionata ricopre certamente un ruolo fondamentale (per chi già opera online e possiede un sito web visibile e visitato).

In molti casi il sito web si rivela una vera e propria RISORSA per la strategia di marketing su Facebook.

Se il tuo sito web è ben posizionato sui motori di ricerca per le parole correlate ai tuoi prodotti e servizi, vuol dire che intercetti gente potenzialmente INTERESSATA.

La gente che atterra sul tuo sito può compiere delle azioni (dette anche conversioni) o semplicemente abbandonarlo.

Se invece integri sul tuo sito alcuni tool di Facebook in maniera "ragionata" (e non scopiazzando ciò che fanno gli altri) offrirai ai visitatori la possibilità di compiere un'azione opzionale che, NOTA BENE, non inciderà sulle conversioni del tuo sito.

Nella peggiore delle ipotesi potresti guadagnare un "fan" che in alternativa avrebbe potuto abbandonare il sito (e non tornarci). Potresti quindi stabilire una connessione con qualcuno che probabilmente non avrebbe mai più visitato il tuo sito.

Ma non si tratta di un fan come tanti altri!

Si tratta di una persona che ha cercato su Google i tuoi prodotti, è atterrato sul tuo sito, ed ha deciso di non acquistare (in quel momento...) ed allo stesso tempo diventare fan della tua pagina.

Quindi, un potenziale cliente è diventato fan. Come sai questa azione innesca passaparola automatico. In altre parole alcuni amici potrebbero interessarsi alla pagina ed a loro volta connettersi.

Stai trasformando un "abbandono" del tuo sito web in una (o più di una)  "connessione", quindi uno dei principi su cui si fonda il sistema SALG. La connessione alla tua pagina fan (seppur debole) può portare l'utente a rivisitare il tuo sito in seguito alla prima visita (se gestisci efficacemente la comunicazione/interazione sulla tua pagina), proprio perchè ha mostrato interesse cercando i tuoi prodotti/servizi su Google.

Nel modulo 6 del corso abbiamo invece trattato i metodi di "misurazione" della strategia su Facebook. Sai quindi che uno degli effetti delle azioni su Facebook potrebbe essere l'incremento di ricerche su Google di un certo nome/brand.

Sono questi i motivi che devono spingerti a considerare il marketing su Facebook come parte integrante di un più ampio piano di (web) marketing.

Se riesci ad alimentare la pagina fan intercettando all'esterno di Facebook (es. sul tuo sito web) utenti potenzialmente interessati, la tua strategia potrà portare maggiori benefici e breve e medio/lungo termine. 

lunedì 28 marzo 2011

5 peggiori nemici nel posizionamento su Google

Ed eccomi, come promesso la scorsa settimana, ad intrattenervi su quello che non si deve MAI fare per non adirare il nostro motore di ricerca preferito. Elencherò le 4 cose valutate su Seomoz come "top negative ranking factor" e poi ne aggiungerò una che considero altrettanto importante.
Cloaking malevolo
Per chi non lo sapesse (male, molto male) il cloaking è quella pratica di far vedere ai motori di ricerca un contenuto differente da quello proposto agli utenti. Per esempio, al motore mostro una pagina di testo tutta curata e piena di keywords e poi un redirect in javascript mi porta gli utenti ad una pagina piena di banner e zozzerie varie.
Non sempre il cloaking è cattivo, pensiamo ad esempio ad un redirect automatico in base alla lingua dell'utente.
Concordo con questo punto, se (o meglio, quando) Google ci scopre sono "dolori".
Acquisto di link da noti "venditori di link"
Chiaro: se il page rank di basa sui voti, espressi come link", è ovvio che Google si arrabbi. Però io penso che più che penalizzare non conti il link e accenda una spia di alert. Perché altrimenti sarebbe troppo semplice far scomparire un concorrente, basterebbe acquistare un link a suo nome.
Link dalle nostre pagine verso siti spam
Ovvio. Cosa aggiungere? Ah sì, che Google non considera (solitamente) come spam i link inseriti in commenti dei blog. D’altro canto non li conta nemmeno come voti. Possiamo dire che li ignora. Quindi se vi siete dimenticati di moderare i commenti su wordpress non disperate.
Server con frequenti down e conseguente inacessibilità del sito
Ebbene sì, le prestazioni sono sempre importanti! Curate i vostri siti e fate in modo che rispondano sempre velocemente e non vadano offline. Risparmiare 50 Euro annui in hosting non è proprio la cosa migliore che si possa fare.
Eccessiva ripetizione della stessa anchor in un’alta percentuale di link esterni verso di noi
Questa tecnica non penalizza il sito di per se, ma non comparirete mai più (e quando dico mai più intendo mesi se non anni) con quella keyword!


mercoledì 23 febbraio 2011

Le pagine del tuo sito nel motore di ricerca di facebook

...Come, perchè, quando?

 

Già da diversi mesi Facebook testa delle modifiche al proprio motore di ricerca interno. Sembra che la divisione dei risultati in categorie (Pagine, Gruppi, Link condivisi, applicazioni, Persone, etc.) sia definitivamente attiva per tutti gli utenti.

Qui a sinistra visualizzi uno screenshot di esempio (potremmo chiamarlo Facebook Suggest?).

Provando tu stesso ad utilizzare il motore di ricerca di Facebook ti accorgerai che l’ordine delle categorie di risultati non è sempre lo stesso.

Di conseguenza i link condivisi (ad esempio) non sono sempre posizionati prima delle pagine e dopo i gruppi. Quest’ordine cambia in base alla “pertinenza” dei risultati al tuo profilo privato (ciò accade già per i risultati della tua home).
Perché ci interessa tutto ciò? Ci interessano in particolare i “Link condivisi”.

Qualche mese fa scrissi che le ricerche su Facebook sono personalizzate a tal punto da ripropormi (quando cerco qualcosa di correlato) i contenuti “esterni a facebook” per i quali avevo espresso gradimento in precedenza. Lo scrivevo qui ad ottobre 2010.

I link condivisi che vedrò nel motore di ricerca non rappresentano però solo le pagine per cui ho espresso gradimento. Tra questi link visualizzerò infatti pagine che non ho mai visitato prima.
Come può Repubblica fare in maniera tale da esser presente con i propri contenuti nel motore di ricerca di Facebook? Repubblica utilizza le Open Graph Page, come definite da Facebook in questo articolo.

In poche parole è possibile, per mezzo dell’inserimento di alcuni codici nelle tue pagine (leggi qui per sapere come), trasformare le proprie pagine web in OGGETTI che entrano a far parte del “grafo sociale” di Facebook, così come ad esempio i profili, le pagine, le applicazioni, etc.

Questo è il motivo per cui, quando Facebook ritiene che una “Open Graph Page” presenta contenuto pertinente alla tua ricerca (ed è anche “gradita” da altri tuoi amici…), la mostra tra i (tuoi) risultati.

Se non sei capace di implementare le Open Graph Page nel tuo sito puoi chiedere supporto alle aziende presenti su Facebookstrategy.

domenica 6 febbraio 2011

White hat SEO

Un white hat seo è un posizionatore che utilizza tecniche lecite per scalare le serp.

Le tecniche pulite del seo (white hat seo)


Parliamo di quali tecniche lecite utilizza un seo per migliorare il posizionamento di un sito.

  • Buon utilizzo del codice: l’uso di una struttura semantica permette sia agli utenti che ai motori di ricerca di capire meglio e valorizzare una pagina web.
  • Contenuti di qualità: “content is king“, il contenuto di un sito è importante e fondamentale. Un sito è informazione e senza testi di qualità non si fa informazione.
  • Quantità dei contenuti: non è sufficiente scrivere poche pagine su un argomento. L’argomento di un sito va ampliato producendo testi informativi che ne rafforzeranno la tematica.
  • Keyword density: dosare bene le parole chiave all’interno del testo. Un buon testo deve contenere la giusta dose di parole chiave attinenti al tema del sito.
  • Link building: ricercare ed ottenere backlink attraverso l’inserimento del sito nelle directory, l’utilizzo dell’article marketing, lo scambio link.
Questi concetti saranno spiegati ed ampliati in seguito.

Segreti per lo Spam, SEO, Twitter e trucchi per Google

Ogni volta, nelle prime battute del mese di gennaio, si leggono post dai siti che trattano il tema del SEO i buoni propositi per l’anno nuovo: creazione di una to-do list delle attività migliori, quelli che sono i trends da seguire, negli ultimi periodi anche la direzione da prendere in materia di social media e di mobile.
Tutte belle parole e buoni propositi, che però ancora oggi nel 2010, si devono scontrare con un tema molto controverso, personalmente oserei dire leggendario: lo spam.
Ma… cos’è lo spam?
L’evoluzione della specie fà si che un essere vivente per adattarsi alle condizioni dell’ambiente in cui vive muta, suo malgrado. Muta per ragioni di sopravvivenza, per portare avanti la propria esistenza e quella dei propri figli passandogli, pian piano, delle caratteristiche che viste in un periodo più ampio hanno una connotazione più marcata.
Ma non mi sto riferendo allo spam, adesso, ma a chi ha fatto del SEO una passione e/o un lavoro, o almeno parte di esso.
Ecco che definire lo spam diventa una pratica assai più sottile, tanto più lo si cerca di definire in un determinato periodo storico della tecnologia come quello attuale, gennaio 2011. E’ un insieme di tecniche? E’ uno stile di vita? E’ un modo di essere? E’ tutto o niente?
Sembra che l’accezione più diffusa e condivisa del concetto di SPAM sia quello di “un qualcosa di non desiderato, forzato e privo di interesse”. Almeno da quello che rilevo guardandomi attorno. Ma credo che questa considerazione debba abbracciare come minimo la definizione di piattaforma su cui si attua, perchè da questo ne possono derivare una serie di ramificazioni, ed altrettante accezioni, che sono ormai all’ordine del giorno.
Mi è capitato, lavorando su un progetto di comunicazione atraverso il social media, di avere a che fare con una pagina fan da popolare di contenuti. Bene, parliamo con la redazione, stabiliamo una linea condivisa, decidiamo cosa fare quando un utente ci chiede qualcosa, quali risorse segnalare, cosa valorizzare del sito ad essa collegata e quali contenuti condividere.
Ecco che, per una serie di motivi tra cui alcuni anche legittimi, ti ritrovi con un feed automatico e poco più di una proposta “invitiamo i nostri amici, e poi gli amici degli amici e facciamo circolare la cosa”.
Beh allora ecco che una strategia sbagliata su una pagina fan di facebook si tramuta da opportunità a SPAM: notizie pompate, indesiderate, impersonali sono spam!
Ti lanci su Twitter: follow friday, follow back, buongiorno, buona sera, condividi immagini, post, commenti gli ultimi trending topic o quello che passa offline, becchi consigli e consigli tramite la ricerca di twitter, aggiungi nuovi amici e approfondisci con l’interazione.
Bene, feed automatico. Altro spam.
Ne cito un’altra: apri un blog, come questo ad esempio, lo tiri su con link, cerchi contenuti interessanti da ripubblicare, aggiungere punti di vista, lavorare sulla sua popolarità su altri siti e sui social networks, cerchi di farti un nome… e poi? Ti ritrovi 900 commenti automatici tra cui alcuni che risaltano particolarmente all’occhio, e che ti danno il “La” per scriverci su.
Trovi che delle vecchie dicerie sono vere, e non sono poi così vecchie, ti trovi un elenco di commenti che fanno capo a siti più o meno popolari, ma con testo ottimizzato, email verosimili. E ti chiedi “perchè lo fai?”
Lo fanno, lo si fà, lo si continuerà a fare perchè c’è qualcuno che te lo permette. Ancora una volta non conta partire e proseguire bene, ma tirare la corda ed evidentemente si è capito che questa corda è d’acciaio e non si romperà facilemente, pena -evidentemente- la rottura del giocattolo globale: Google -e ora, bannami-. Perchè te lo puoi permettere dove lo strumento è meno personale, più automatico, ovvero su un motore di ricerca, mica su un social netowork: e qui che entra in gioco il doppiogioco -cacofonia voluta-.
Vi mostro ora un’immagine che ritrae i commenti di spam simil-vero che ho ricevuto. Voglio prima fare alcune precisazioni:
1- non guadagno niente dalla pubblicazione di questo post, anzi decreterà soltanto ulteriore impopolarità per chi come me lavora con olio di gomito e suda ogni giorno ogni centesimo
2- non ce l’ho con nessuno in particolare, se non col fatto che ancora una volta il lavoro pulito NON paga
3- se te la senti, puoi usare questa tecnica, ho visto blogger che ci sono cascati e hanno regalato links a questi SEO che sono persone come noi, in mezzo a noi
4- nonostante tutto mi ostino a continuare sulla strada buona per una scelta personale e professionale. Il mio marchio è la mia passione e se anche ora sono molto stanco e moralmente a terra, non riesco ad esimersi dall’appassionarmi e dal continuare a fare le cose con onestà, soprattutto sui social dove qualcuno che ha voglia di social-izzare ancora c’è…
Ecco la lista, crocifiggetemi:
Ai proprietari dei siti elencati, che ritengo sicuramente in buona fede al 100%, consiglio di trovare altre stragie/collaboratori perchè questo se anche possa portare ad un certo posizionamento non giova all’immagine. Ho omesso gli indirizzi IP per motivi di privacy, il resto però lo lascio… tanto è solo SPAM.
Per cui, tornando al tema principale, quanti di voi iniettano vecchi blog, wordpress fallati, commenti, forum e quant’altro con links al fine di posizionare il proprio sito o quello dei propri clienti?
Tanto di cappello a chi ci sta riuscendo, avete capito che Google è dalla vostra parte, a differenza mia, e che forse è un valore aggiunto che altri player del settore stanno cercando di abbattere. Non fosse altro che esiste Blekko, che ha spopolato con questo intento, e che ormai si avvicendano sempre più spesso articoli autorevoli sullo spam nelle SERP e che in definitiva non se ne può proprio più!
A quanto pare lo SPAM fà massa critica, genera materiale per creare differenza, genera lavoro per contrastarlo ma anche per generarlo.
E non dite che “con un buon piano di web marketing non c’è bisogno di usare altre vie” ammettetelo, ammettiamolo, siamo umani e ci piace vincere facile!