Translate

martedì 21 febbraio 2012

5 programmi per SEO: tools online per monitorare il proprio sito web

  1. Determinare la popolarità dei collegamenti
    Usare le keyword primarie (le keyword principali a cui mirate attraverso il vostro sito) preleva i tre siti più quotati nella vostra nicchia di mercato. Attraverso quest'informazione potete controllare la popolarità dei link attraverso marketleap.com.
  2. Eseguire una ricerca delle keyword
    Prendete le keyword principali che state utilizzando nelle vostre pagine e usate un tool per i suggerimenti dei termini di ricerca come inventory.overture.com per analizzare queste keyword e i loro cambiamenti. In questo modo potrete vedere il volumen di ricerca totale per queste keyword e quanta competizione sussiste per il loro utilizzo.
    Vi ricordiamo che state cercando keyword che vengono abbastana ricercate ma che al tempo stesso hanno un tasso di competizione piuttosto basso. Usate anche altri tool come Google keyword (gratuito) e keyworddiscovery.com (a pagamento). Una volta che avete selezionato un gruppo di keyword potete aggiungere delle pagine al vostro sito che punta a queste keyword.
  3. Determinare i siti bersaglio
    Questo è il modo in cui trovare siti per richiedere collegamenti. Per fare ciò vi basterà usare Google digitando nel form di ricerca "allinanchor:vostrakeyword". Vi ricordiamo che vostrakeyword costituisce la keyword principale su cui state puntando. In questo modo otterrete tutti i collegamenti che puntano ad un sito che usa una particolare serie di parole. Inoltre potete combinare questa ricerca con allintitle: che mostra le keyword usate nei titoli delle pagine.
  4. Analizzare Digg
    E' interessante come i siti di social bookmarking siano esplosi sulla scena di internet e come ora stiano giocando un ruolo fondamentale in molte strategie di marketing. Proprio per questo motivo tali servizi possono offrirvi tutta una serie di informazioni riguardanti i vostri concorrenti e il vostro mercato di riferimento. Digg è uno dei principali servizi di social bookmarking ma ovviamente non è l'unico.
  5. Visitare i siti della concorrenza
    Dovreste visitare i siti dei vostri concorrenti per vedere cosa stanno facendo, quali tipi di contenuto forniscono e come espandono il proprio sito. Tutte queste informazioni andranno ad influenzare il modo in cui verrò concepito il design e il contenuto del vostro sito. Ma non fermatevi qui: iscrivetevi alle newsletter dei vostri concorrenti e scoprite le loro strategie di marketing: in questo modo potrete osservare se voi potete far meglio, cosa loro possono aver tralasciato a vostro favore e via discorrendo.

Ottimizzazione

"Ottimizzare" i contenuti di un sito significa favorire la sua indicizzazione nei database dei motori e incoraggiare il suo ranking all'interno dei risultati di ricerca.
Un SEO Specialist si occupa quindi di valorizzare i contenuti delle pagine web a partire dal codice attraverso il quale queste sono offerte online, curando ogni aspetto tecnico in grado di incidere sulla valutazione che gli algoritmi dei motori di ricerca faranno dei vari documenti proposti da un sito.
Uno dei primi approcci utili, da questo punto di vista, e' attenersi ai piu' recenti standard per il web codificati dal W3 Consortium, che e' l'organizzazione internazionale che si occupa di realizzare e promuovere "tecnologie che garantiscano l'interoperabilita' (specifiche, linee-guida, software e applicazioni)" con lo scopo di "guidare il World Wide Web fino al massimo del suo potenziale".
In senso lato il W3C si occupa di promuovere Internet come canale principale per lo scambio di informazioni, favorendo, direttamente o indirettamente, il suo ruolo economico nel sistema produttivo come veicolo commerciale per il reperimento di beni e servizi.
Ottimizzare i contenuti di una pagina web non si riduce, comunque, al semplice rispetto formale degli standard web internazionali.
Una cura editoriale complessiva deve coinvolgere i contenuti e la struttura del sito stesso.
In questo senso un webmaster esperto di Search Engine Optimization non puo' sottovalutare i benefici derivanti da alcuni accorgimenti formali apparentemente scontati, alcune di quelle "buone norme" arcinote che, nonostante tutto, vengono spesso accantonate da programmatori e grafici al momento della realizzazione di un sito web.
Un'opportuna formattazione dei testi delle pagine e l'utilizzo di tag che rendano esplicito il loro peso gerarchico all'interno del documento, per esempio.
Lacostruzione di una "struttura" che sia in grado di organizzare le varie pagine di un sito e di valorizzarne le principali sezioni, ordinando i vari documenti e curando nel dettaglio i link che formano la stuttura di navigazione interna.
In ultimo un approccio SEO non puo' non contemplare la stessa redazione dei testi di un sito, e ormai anche il copywriting orientato ai motori di ricerca e' uno degli accorgimenti tra quelli che spesso fanno la differenza tra un sito qualsiasi e un sito di successo.

Ottimizzare contenuti e codice di un sito internet e' una delle principali mansioni di cui puo' occuparsi un SEO specialist ed uno dei fattori da cui non puo' prescindere una seria campagna di posizionamento sui motori di ricerca.

Search Engine Marketing
Parallelamente a questi fattori "on page" esistono altri elementi che infuiscono direttamente sul posizionamento di un sito internet nelle Serp (Search engine report pages), elementi altrettanto fondamentali da cui e' ormai impossibile prescindere.
Fare search engine marketing(S.E.M.) significa incidere su questi fattori "off page", contribuendo in maniera significativa alla visibilita' di un sito internet.

Visibilità' e Link Popularity
Costruire una buona link popularity significa curare la quantita' e la qualita' dei collegamenti ipertestuali che puntano al dominio che si intende promuovere. Questa "pubblicita' attraverso i link" e' fondamentale per stimolare, direttamente o indirettamente, quei flussi di traffico web che sono uno degli obiettivi di una campagna di marketing online rivolta al posizionamento nei motori di ricerca.

Internet Advertising

Oltre alla costruzione di link popularity una delle operazioni di search engine marketing piu' diffuse utilizza canali promozionali a pagamento, come l'acquisto di link Pay Per Click (P.P.C.) attraverso i canali pubblicitari degli stessi motori di ricerca ( come Google Adwords, per esempio) o dei più importanti social network mondiali (come nel caso dei Facebook Ads).
Diverse forme di advertisingpossono contribuire a migliorare il traffico web di un sito, garantendo dosi di visibilita' alternative e complementari a quelle legate alla posizione "organica" dello stesso sito all'interno delle pagine dei risultati delle ricerche.
In questo senso l'Internet Advertising ha frontiere sconfinate, e il mercato e' in continua evoluzione.
Nel campo dei motori di ricerca solo il continuo aggiornamento puo' garantire risultati e successo, dato che quello che andava bene Ieri non e' detto che sia il "non-plus-ultra" dell'Oggi e probabilmente non funzionera' piu' Domani.

Social Media Marketing

Il cosiddetto Web 2.0 ha aperto un ulteriore canale di lavoro per chi si occupa di SEO e di SEM.
I Social Media sono diventati degli enormi bacini di traffico, spesso del tutto alternativi rispetto ai tradizionali motori di ricerca basati su indici ordinati di documenti per lo piu' testuali.
Sfruttare il "web a partecipazione collettiva" per traghettare fette qualificate di questo traffico verso un determinato sito web e' lo scopo di quell'insieme di operazioni di social media marketing che sono ormai parte delle attivita' quotidiane di qualsiasi webmaster.
In questo senso l'ottimizzazione della presenza del brand di un sito all'interno dei principali Social Media e' diventata una mansione del tutto originale, e la S.M.O.(Social Media Optimization) e' la frontiera piu' interessante del web marketing presente e futuro.

L'attitudine al copywriting e la capacita' di intessere pubbliche relazioni sono sempre piu' bagaglio comune tra i professionisti del settore, e il web marketing ha assorbito questo tipo di competenze come requisiti del tutto complementari e paralleli a quelli propriamente tecnici, che rimangono, comunque, di fondamentale importanza da un punto di vista generale.

Fare posizionamento sui motori di ricerca e operare nel web marketing significa tenere conto di tutti i fattori che possono favorire il successo di un sito web e richiede un ampio ventaglio di competenze diverse.
Il continuo sviluppo del media "internet" favorisce lo scambio dei saperi e impone un ininterrotto confronto scientifico a tutti i livelli. In un contesto cosi' orientato al cambiamento le definizioni sfumano sotto il peso delle novità, e anche i confini del linguaggio sono, in qualche modo, oggetto di continue manipolazioni.
I concetti vengono plasmati per aderire alle incessanti riformulazioni teoriche che seguono, di volta in volta, i perentori "cambi di modello" delle forme della comunicazione; sembra che non si arrivera' mai a veri "standard definitivi", e tutto lascia pensare che la 'rivoluzione digitale' sia tutt'altro che conclusa, ma semmai appena cominciata.

mercoledì 15 febbraio 2012

Algoritmi

Possiamo definire un algoritmo come un insieme di righe di codice che gli spider dei motori di ricerca interpretano per fornire i risultati di ricerca, una volta che gli utenti inseriscono una determinata parola chiave. Tali algoritmi vengono continuamente modificati, costringendo i webmaster ad aggiornarsi spesso e a sperimentare diverse soluzioni per ottimizzare le posizioni dei siti.

Google basa i propri algoritmi sul PageRank, determinato a sua volta da elementi come la qualità dei testi e le keyword in essi contenuti, e la link popularity.
Un trucco, fino a poco tempo fa molto utilizzato ma oggi da evitare, è quello di inserire parole chiave invisibili scrivendo testo con lo stesso colore dello sfondo oppure fra le righe di commento nel codice HTML.

Ai fini di una corretta indicizzazione si consiglia, invece, di compilare un codice chiaro e pulito, puntando sulla qualità dei temi trattati e allo scambio link con siti affiliati.

Di seguito i fattori principali a cui fanno riferimento gli algoritmi di Google:
  • Parole chiave contenute in title e meta tag, nei testi fra i tag H1 o in grassetto, nella descrizione dei link.
  • Nome e anzianità del dominio.
  • Quantità e qualità di link diretti verso il nome di un sito web.
 Le informazioni o siti (a parità di ricerca effettuata) che Google reputa a suo insindacabile giudizio più interessanti, appaiono nelle prime pagine di ricerca, gli altri vengono relegati nel limbo elettronico delle ultime pagine dove nessuno li consulterà.

Ma cosa è e come funziona l’algoritmo di Google? In effetti nessuno lo sa. Questo è uno dei segreti industriali meglio custoditi al mondo. Un po’ come la ricetta della Coca Cola!

Pur tuttavia esso è stato (in parte) svelato empiricamente attraverso il lavoro e l’esperienza dei professionisti che si occupano di SEO.

Ecco per la vostra curiosità, una lista parziale di quello che può modificare la popolarità di un sito (con tutta l’informazione ad esso associata):
  1. Quantità qualità dei link esterni che puntano al dominio.
  2. Differenziazione delle fonti di link.
  3. Originalità e unicità del contenuto.
  4. Diversità dei link (intesa come numero/varietà di domini unici che linkano a pagine del dominio).
  5. Architettura del sito (struttura gerarchica e chiara).
  6. Freschezza del contenuto (data di creazione della pagina).
  7. Storia della registrazione del dominio (da quanto tempo con stesso proprietario, numero di rinnovi, etc.)
  8. Tempo medio delle visite sulla pagina.
  9. Velocità di caricamento della pagina (Caffeine).
  10. Link non funzionanti.
La lista completa di circa 200 parametri la trovate quì.

Google con i suoi algoritmi reinterpreta in un certo qual modo la rete e lo fa a suo dire per fornire risultati di qualità, ma sarà veramente così?

mercoledì 8 febbraio 2012

Pertinenza di contenuti e keyword density

Per poter fornire il maggior numero di informazioni riguardante una o più parole ricercate, il motore di ricerca valuta il numero di volte in cui queste sono ripetute all’interno dei testi di una pagina (keyword density). Precisiamo che lo spider, detto anche Googlebot, è in grado di leggere e quindi indicizzare i testi in html e non contenuti multimediali quali animazioni flash, video, immagini, ecc...
Logica della Keyword density : e’ normale che se cerco la parola "mela", un sito che al suo interno contiene questa parola ripetuta più volte presumibilmente ne parlerà in maniera più approfondita rispetto ad un altro in cui questa parola è presente una sola volta. Lo stesso vale per ricerche più complesse come per esempio "come coltivare una mela". In questo caso il motore di ricerca eseguirà il match delle 4 parole ricercandole tra le pagine indicizzate e premiando presumibilmente quelle che riportano fra i contenuti la ripetizione delle parole stesse.
Data la semplicità del principio di ripetizione delle parole, Google ha messo in atto una serie di strumenti di prevenzione volti ad evitare che i testi vengano conditi con ripetizioni esagerate al solo scopo di migliorare il posizionamento su listato organico. Vediamone alcuni qui di seguito.
Qualità del testo: per poter avere buone possibilità di uscita sui motori di ricerca, una pagina web deve necessariamente seguire il principio della keyword density, ma deve anche risultare leggibile agli occhi dell’utente finale. Per garantire tale condizione Google valuta oltre alla quantità anche la qualità delle parole contenute nel testo. Pone ad esempio un limite alla keyword density di ogni pagina, oltre il quale reputa la ripetizione di una o più parole come puro escamotage di galleggiamento penalizzandola nel ranking o in casi limite rimuovendola totalmente dall’indice. La percentuale di keyword density oltre il quale un testo rischia di essere penalizzato viene indicato da più esperti SEO nel 5% del totale del testo. Questa soglia non è comunque un valore assoluto ma una stima empirica, né mai esponenti di Google l’hanno confermata o smentita.
Per chiudere l’argomento keyword density, possiamo anche affermare che in caso di ricerche specifiche con match di più parole, la vicinanza di queste all’interno del testo conta molto di più della loro ripetizione in periodi slegati del testo. Per tale motivo in una ricerca del tipo "come coltivare una mela" un testo che contenga il match esatto una sola volta avrà presumibilmente un posizionamento migliore rispetto ad un altro che ne ripete le singole parole più volte ma in frasi diverse.

Bold e colore dei testi
Navigando su internet vi sarà di certo capitato di imbattervi in siti con testi in grassetto. Questo perché, così come per un lettore, l’evidenziazione di una parola ne accentua l’importanza rispetto al resto del testo anche agli occhi dei motori di ricerca. E’ per questo importante per un testo con intenti di indicizzazione enfatizzare le parole per cui si vorrebbe uscire su Google. Ultimamente comunque pare che questo escamotage sia stato "decifrato" dai motori di ricerca che ne hanno mitigato gli effetti positivi e addirittura, testi eccessivamente nerettati potrebbero subire penalizzazioni sul listato.
Un’altra tecnica di SEO "puro" utilizzato in passato era la creazione di testi con lo stesso font dello sfondo pagina con l'obiettivo di renderli invisibili agli occhi dell'utente ma non a quelli dello spider che come sappiamo decodifica l'html. L’utilità di tale escamotage era naturalmente quella di poter inserire testi sovra ottimizzati senza doversi preoccupare della leggibilità. Dopo poco tempo però questo trucco è stato scoperto e pare che i Googlebot analizzino il grado di contrasto dei font pagina/css e del testo penalizzandone l’indicizzazione se ritenuti troppo simili.

Frequenza di rimbalzo e tempo medio sul sito
Per coloro che hanno dimestichezza con il programma di statistiche Google Analytics il termine frequenza di rimbalzo non è un mistero. Si tratta di quella percentuale di visite effettuate da utenti che entrano in una pagina e ne "fuggono" in poco tempo ritenendone i contenuti poco interessanti o non soddisfacenti i termini di ricerca.
L’algoritmo di Google è infatti intelligente ma non infallibile, è quindi plausibile che un sito risulti (involontariamente) ben posizionato per parole chiave le cui argomentazioni ed il cui intento sia diverso da quello degli utenti finali. O ancora può capitare che pagine (volontariamente) sovraottimizzate attraverso escamotage SEO, riescano a superare i parametri di qualità di Google, camuffando magari una pagina con intenti commerciali da pagina informativa. L’utente finale di internet medio, è abituato ormai ad una fruizione dei contenuti rapida e puntuale e difficilmente resta in una pagina i cui contenuti non hanno nulla a che fare con la propria ricerca. A questo punto Google sfrutta il comportamento dell’utente finale per andare a compensare le proprie mancanze e se la frequenza di rimbalzo di una pagina è elevata ed il tempo medio visita molto basso ne penalizza il posizionamento a favore di altre più attinenti.
Peso specifico di una pagina
E’ cosa risaputa che gli spider riescono a leggere un numero limitato di informazioni per pagina attraverso l’interpretazione dell’html. E’ dunque importante fare in modo che la pagina web venga alleggerita e in qualche modo ripulita di contenuti inutili e che il codice sia il più scarno possibile.
Dato che, come già detto lo spider non riesce ad interpretare i contenuti di un immagine o di un video è importante cercare di ridurne il peso il più possibile prima della messa online, esistono svariati software in grado di ottimizzare un’immagine per il web comprimendo la dimensione senza perdere troppo nella risoluzione.
Un sito con pagine leggere, magari appoggiate ad un server veloce e potente, consentirà inoltre una più rapida apertura e visualizzazione sul browser delle pagine stesse. E' infatti noto che l'utilizzatore medio di internet (abituato ad avere tutto e subito!!) sia "poco tollerante" verso i rallentamenti di visualizzazione dei contenuti ed è provato che quasi l'80% degli utenti chiude una pagina se questa non viene correttamente caricata entro 5 secondi!!! Un sito con queste scarse performance rischia dunque di avere un elevatissima frequenza di rimbalzo, con riflessi negativi sul posizionamento.
Altro aspetto importante e data la costante espansione e diffusione negli ultimi anni, oseremmo dire fondamentale, è la navigabilità del sito da telefoni cellulari di nuova generazione e palmari. Tali apparecchiature, non essendo dotate di memorie o applicazioni web performanti faticano a caricare contenuti di dimensioni elevate e una delle ultime modifiche all'algoritmo di Google pare sia stata apportata proprio per "premiare" nel posizionamento quei siti con pagine leggere facilmente navigabili o dotati di apposita interfaccia di navigazione per palmari.

I meta tag
I meta tag sono dati inseriti nel linguaggio html e non visibili dall’utente se non proprio attraverso la visualizzazione della sorgente della pagina. Si trovano nel campo Head (all’inizio del metalinguaggio della pagina) e servono prevalentemente a fornire informazioni ai motori di ricerca. Si suddividono in 3 segmenti Title (titolo), Description (descrizione) e keywords (parole chiave) e la loro importanza è da sempre oggetto di discussione fra i web master e gli esperti SEO.
In effetti in passato, dato l’elevato numero di siti in flash e le performance limitate degli spider, i meta tag erano davvero fondamentali ai fini dell’indicizzazione.
Ad oggi la loro importanza è decisamente inferiore per tre motivi:
La cattiva abitudine di alcuni web master di sovraccaricare di informazioni i meta dati, con titoli lunghissimi e/o elenchi di parole chiave infiniti con inserimento anche di parole non del tutto pertinenti con il contenuto della pagina stessa. Ad oggi tali operazioni rischiano in realtà di risultare controproducenti in quanto i motori di ricerca possono ritenerle come semplici escamotage di galleggiamento.
Il miglioramento delle prestazioni degli algoritmi di ricerca che riescono ad indicizzare molti più contenuti e a valutare ogni pagina non solo secondo i suoi contenuti ma anche sulla base di altri criteri quali la credibilità e popolarità del sito che la contiene (più avanti parleremo anche di Page Rank e Link Popularity)
La sempre maggiore importanza di siti dinamici quali blog, social network e forum in cui l’utente genera nuove pagine agendo direttamente su front-end senza interagire con il metalinguaggio e senza la necessità che ne conosca lo sviluppo.
Ma adesso valutiamo i meta tag uno per uno:

Title - il titolo è senza dubbio il più importante dei tre. Definisce in maniera inequivocabile l’argomento che viene trattato all’interno della pagina e viene visualizzato come prima riga linkabile sul listato organico del motore di ricerca. Dal punto di vista dell’indicizzazione è importante che ogni pagina di un sito abbia il proprio titolo basato sul focus.
Data l’importanza di questo elemento molti webmaster tendono a creare titoli molto lunghi ed in carattere maiuscolo. C’è da precisare a tal proposito che non abbiamo elementi per affermare che un titolo in maiuscolo sia meglio indicizzato di un altro in carattere minuscolo, possiamo però consigliare di evitare congiunzioni, virgole o parole inutili all’interno del titolo che deve rappresentare davvero una semplice anticipazione dell’argomento trattato.

Lunghezza massima consigliata: 60 battute compresi gli spazi

Description - Come dice la parola stessa, la descrizione pagina è un piccolo riassunto delle argomentazioni presenti nella pagina. Come per gli altri meta tag, ai fini dell’indicizzazione è importante che ogni pagina del sito sia dotata di descrizione propria e puntuale. Il suo sviluppo deve assolutamente essere coerente con i testi presenti nella pagina sia nella misura della quantità che della qualità delle parole da utilizzare.
Lunghezza massima consigliata: 160 battute compresi gli spazi
Keywords - le parole chiave sono oggetto di enormi discussioni. Si tratta di un elenco di parole o match di parole separate da una virgola. In passato (e ancora oggi per i webmaster meno esperti) si tendeva a "caricare" questo elenco con tutte quelle parole per cui si desiderava essere presenti sui motori di ricerca.
Se effettivamente in passato potevano giocare un ruolo rilevante nel posizionamento di un sito, da ormai svariati anni il campo keyword, se mal ponderato può rappresentare più un danno che un vantaggio. Così come per la description, consigliamo dunque di inserire un numero di parole chiave coerente con i testi sia per quantità che per qualità evitando la ripetizione esagerata di uno stesso termine.

Link popularity
Uno dei più importanti criteri di valutazione dei siti web ai fini del posizionamento nelle serp e che ha rappresentato un punto di forza per Google è la link popularity, ossia il numero di link presenti nel web che rimandano ad un determinato sito internet. Scandagliando migliaia di pagine al giorno, i Googlebot sono in grado di riconoscere e memorizzare anche il numero esatto di link attivi preseti su internet ed il loro percorso fino a quella che viene definita "landing page" (pagina di atterraggio) cui i link in questione rimandano.
Un po’ come nella vita reale avere una certa reputazione rende più semplice e automatica la visibilità, allo stesso modo se un sito viene menzionato spesso su altri siti presumibilmente significa che i suoi contenuti vengono considerati attendibili ed interessanti. Per i neofiti di internet segnaliamo che esistono parecchi siti o network di siti che offrono la vendita e/o lo scambio gratuito di link (pratica forse più "democratica"), volti a rendere maggiore la reputazione online.
Come spesso accade però, ogni volta che un meccanismo di valutazione di Google viene decifrato dagli esperti SEO, questi alza "l’asticella" di difficoltà o meglio ancora lavora su sé stesso per rendere i risultati su listato organico il meno influenzabili possibile da operazioni di ottimizzazione.
A tal proposito Google è oggi in grado di valutare non solo la quantità di link in entrata in un sito ma anche e soprattutto la loro qualità. Se infatti il solo numero fosse sufficiente a guadagnare posizioni su Google sarebbe abbastanza semplice acquistare e scambiare un numero elevato di link. E’ invece molto più importante avere link "mirati" magari da siti o portali settoriali che trattano argomenti simili alla landing page. La coerenza tra il sito di partenza e quello di destinazione è estremamente importante ed il beneficio che si può ottenere, soprattutto da un link testuale può fare la differenza. Per link testuale si intende un link formato da una parola cliccabile che riassume il contenuto di quella che sarà la landing page del sito di destinazione; per fare un esempio pratico possiamo riferirci nuovamente ad una pagina che tratta il tema: "Come coltivare una mela". In questo caso sarebbe assolutamente meglio avere un link nominato come coltivare una mela su un portale tematico sull’agricoltura che 20 link generici su siti che trattano argomenti che nulla hanno a che fare con la coltivazione delle mele.
Oltre alla pertinenza dei temi trattati è importante che il sito da cui "parte" il link sia in possesso di un buon Page Rank (concetto che verrà spiegato di seguito). Tanto maggiore è il Page Rank della pagina fonte quanto maggiore è il "peso specifico" che Google attribuisce al link. Un po’ come per il mondo giornalistico, la credibilità della fonte rappresenta una sorta di garanzia sull’attendibilità e sulla veridicità delle informazioni veicolate.
Soprattutto per siti di nuova costruzione, la presenza di un numero elevato di link in ingresso (magari poco coerenti con i contenuti delle pagine) può essere valutato da Google come un mero trucco di galleggiamento con il serio rischio di rimozione dall’indice del sito.

Prima di passare all’analisi del Page Rank, desideriamo fare una breve considerazione sui link interni ad un sito. Così come per i links da altri siti web, anche il collegamento con links testuali fra 2 o più pagine di uno stesso sito può aiutare a "veicolare" lo spider verso notizie nuove o di maggiore interesse. Dato che la Home Page è in genere la pagina più anziana di un sito e con il maggiore Page rank, ogni volta che viene aperta o aggiornata una nuova sezione è buona regola linkarla proprio in Home.

Google PageRank
Strettamente legato al concetto di link popularity è quello di  PageRank (letteralmente rango della pagina) termine la cui proprietà intellettuale appartiene a Google.
Il PageRank è un algoritmo di analisi delle pagine web che consente di stabilirne l’importanza da un punto di vista oggettivo, sulla base di una verifica quantitativa e qualitativa dei link verso di essa.
A seguito di tale analisi l’algoritmo definisce ed assegna ad ogni pagina un voto da 0 a 10, anche se solo pochissimi siti al mondo riescono ad ottenere 10/10 (Facebook è da poco tra questi).
Acquisire PageRank significa migliorare la propria reputazione online ed aumentare sensibilmente la possibilità di uscita fra le prime posizioni delle serp. Purtroppo non esistono tecniche per il miglioramento di tale valore in tempi rapidi, soprattutto per siti di nuova costruzione (a meno di rari casi di successo.. vedi Facebook), la scalata al PageRank deve essere graduale e soprattutto basata su un vero e proprio lavoro di qualità dei contenuti. L’acquisto o lo scambio di links può essere utile in tal senso, soprattutto se questi provengono da siti già con elevato PageRank, ma la differenza significativa sta nel riuscire a fornire, attraverso il proprio sito, informazioni e/o servizi davvero interessanti per il maggior numero di utenti possibili, la migliore pubblicità (come sempre) a quel punto sarà il passaparola. Infine, l’inserimento di un elevato numero di link in ingresso per un nuovo sito può risultare controproducente.

Permalink in WordPress 3.2.1

Il permalink è l’indirizzo univoco che viene assegnato ad ogni singolo post, pagina, categoria, tag e attachments. Per struttura dei permalink intendo dire come è composto il permalink, ad esempio /categoria/nome-post/ oppure /anno/mese/nome-post/ e così via. Non sembra ma la struttura di un permalink è davvero importante in ottica SEO, ovvero per l’ottimizzazione per i motori di ricerca.
Di default WordPress 3.2.1 utilizza la seguente struttura: /anno/mese/giorno/nome-post/ ma Google dà più importanza ai termini vicini all’inizio dell’URL. E' necessario cambiare la struttura dei post senza perdere il posizionamento nei motori di ricerca dei vecchi post.

Per cambiare la struttura dei permalink in WordPress basta andare in Impostazioni > Permalink e qui scegliere quella desiderata.
Puoi usare vari parametri come:
  • %postname%   – equivale al titolo del post
  • %postname%.html  – equivale al titolo del post con estensione .html, solitamente è utilizzato da chi aveva un blog su blogger.
  • %post_id%       – equivale al ID del post
  • %year%           – equivale all’anno in cui è stato scritto il post
  • %monthnum%  – equivale al mese in cui è stato scritto il post
  • %day%            – equivale al giorno in cui è stato scritto il post
  • %category%     – equivale alla categoria assegnata al post (nel caso di più categorie assegnate, ne viene scelta solo una)
Poi li concateni tra di loro formando la struttura voluta, separando i parametri con lo ‘/’ e impostando come primo e ultimo carattere sempre uno ‘/’.
Ecco come ti suggerisco di impostare la struttura dei tuoi permalink:
/%category%/%postname%/
In questo modo viene mostrata la categoria associata al post ed il titolo del post stesso, senza aggiungere altri termini che allungherebbero inutilmente il permalink.

Purtroppo se si cambia la struttura del permalink, si perdono tutti i “mi piace” che sono stati fatti sui vari post, questo perchè facebook mantiene nei suoi database l’URL della pagina con le varie informazioni tipo i mi piace in una riga (entry). Se cambi permalink (quindi URL), facebook creerà una nuova entry e avrai zero mi piace invece con la vecchia struttura, ricompariranno tutti i mi piace.

Il plugin Advanced Permalinks mantiene il posizionamento acquisito. E' sufficiente impostare un redirect 301 dalla vecchia alla nuova struttura. Installa il plugin, ora in Impostazioni > Permalink è comparso un menù:
menu advanced permalinkClicca su Migration e inserisci la vecchia struttura del blog, nell’esempio la vecchia struttura è /%year%/%monthnum%/%day%/%postname%/ , poi premi il pulsante Add.
Ora che hai aggiunto la vecchia struttura, tutti i post precedentemente creati avranno la nuova struttura e in più non avranno perso il posizionamento nei motori di ricerca, complimenti!
Una funzione molto interessante è che cliccando su Posts, puoi assegnare una struttura solo ad un range di post (basandosi sull’ID del post).

domenica 29 gennaio 2012

Copyright e Facebook... che fine fanno i tuoi contenuti?

L'avvocato Geti, risponde alla domanda di un fan FBStrategy, inerente la "proprietà" e relativi diritti di un qualsiasi contenuto pubblicato su Facebook.
Di chi sono le immagini? Degli utenti? Di facebook? Dell’amministratore della pagina?

Il rapporto tra Copyright e Facebook è da sempre stato estremamente complicato e contestato. Probabilmente, l’orientamento iniziale del network, estremamente social e improntato sulla condivisione, non aveva mai sollevato quei problemi di riservatezza e diritto alla proprietà che ci si trova ad affrontare oggi, anche in seguito all’aumento esponenziale degli utenti privati, ma anche professionali (liberi professionisti, artisti, scrittori, fotografi…) ed imprenditoriali (brand e multinazionali). Di conseguenza sono state sollevate numerose problematiche in ordine alla titolarità dei diritti di proprietà intellettuale dei materiali (immagini, video, musica, testi…) che gli utenti possono caricare sulla piattaforma, che hanno portato alla modifica delle condizioni di utilizzo del servizio.

Secondo la legislazione vigente (legge 22 aprile 1941, n. 633) sono oggetto di tutela le opere dell’ingegno di carattere creativo, che appartengano alla letteratura, alla musica, alle arti figurative, all’architettura, al teatro, al cinema. Tale tutela consiste in una serie di diritti esclusivi di utilizzazione economica dell’opera (diritti patrimoniali dell’autore) e di diritti morali a tutela della personalità dell’autore, che nel loro complesso costituiscono il c.d. “diritto d’autore”.



L’attuale versione dello “Statement of Rights and Responsabilities“, che definisce diritti, doveri e responsabilità degli utenti e della Società che offre il servizio, è stata revisionata il 26 aprile 2011 e, in ordine alla condivisione delle informazioni e contenuti, prevede:


2. Sharing Your Content and Information


You own all of the content and information you post on Facebook, and you can control how it is shared through your privacy and application settings. In addition: For content that is covered by intellectual property rights, like photos and videos (IP content), you specifically give us the following permission, subject to your privacy and application settings: you grant us a non-exclusive, transferable, sub-licensable, royalty-free, worldwide license to use any IP content that you post on or in connection with Facebook (IP License). This IP License ends when you delete your IP content or your account unless your content has been shared with others, and they have not deleted it.



When you delete IP content, it is deleted in a manner similar to emptying the recycle bin on a computer. However, you understand that removed content may persist in backup copies for a reasonable period of time (but will not be available to others). When you use an application, your content and information is shared with the application. We require applications to respect your privacy, and your agreement with that application will control how the application can use, store, and transfer that content and information. (To learn more about Platform, read our Privacy Policy and Platform Page.)



When you publish content or information using the Public setting, it means that you are allowing everyone, including people off of Facebook, to access and use that information, and to associate it with you (i.e., your name and profile picture). We always appreciate your feedback or other suggestions about Facebook, but you understand that we may use them without any obligation to compensate you for them (just as you have no obligation to offer them).


Di conseguenza viene esplicitamente riconosciuta all’utente la titolarità di qualsiasi diritto sui contenuti che immette nel sistema, sia attraverso la pubblicazione sul proprio profilo che su pagine proprie o di terzi.



È bene precisare che, con l’inserimento nel social network, l’utente concede a Facebook il diritto di utilizzare il materiale, detenerlo, copiarlo ed effettuare ogni altra operazione che sia necessitata per il buon funzionamento del sistema (es. copie di backup, trasferimento di server...).



A tal fine, per ogni contenuto che possa essere soggetto a forme di copyright viene richiesta una licenza di uso degli stessi espressamente definita come “non-exclusive, transferable, sub-licensable, royalty-free, worldwide”.



Evidentemente, se le estensioni “worldwide” (quindi: estesa in tutto il mondo) e “royalty-free” (vale a dire: priva di qualsiasi diritto economico da parte di Facebook) possono essere comprensibili, qualche dubbio non può che sorgere con riferimento alle possibilità di “trasferimento” e concessione di una “sub-licenza” per l’uso degli stessi contenuti. Ed invero, attraverso tali clausole Facebook si riserva il diritto dicoinvolgere altri soggetti nel rapporto con i propri utenti, sia pure al solo fine di offrire un servizio migliore di archiviazione ovvero di visualizzazione (es. rivolgendosi ad un’azienda terza – magari creata ad hoc – per l’archiviazione dei video).



Le recenti modifiche dei termini di privacy di Facebook hanno comportato l’introduzione di un’utile specificazione, secondo cui “allorquando vengano pubblicati contenuti ovvero informazioni utilizzando l’impostazione “Pubblico”, si autorizza chiunque, inclusi soggetti al di fuori del network, ad accedere ed utilizzare le informazioni, nonché associarle a sé stessi (es. il nome e l’immagine del profilo)”.


Evidentemente, tale impostazione non tocca in alcun modo il copyright, quanto piuttosto la diffusione dei contenuti, al tempo stesso escludendo ogni coinvolgimento di Facebook per eventuali utilizzi illeciti da parte dei terzi venuti in possesso dei contenuti coperti dal diritto d’autore condivisi in modalità “pubblica”.



Analogamente, ai sensi del “Facebook Pages Terms“ aggiornati al 29 novembre 2011:


2. Content posted to Pages is public information and is available to everyone.


Ancora una volta, si deve correttamente ritenere che la qualificazione di “informazione pubblica e disponibile a chiunque” afferisca alle modalità di diffusione della stessa, senza riguardare in alcun modo la titolarità dei diritti sugli stessi contenuti. A tal fine, è espressamente previsto che:


3. If you collect information from users, you will obtain their consent, make it clear you (and not Facebook) are the one collecting their information, and post a privacy policy explaining what information you collect and how you will use it.


Ne consegue che la pubblicazione di un’immagine, un testo ovvero un video rappresenta un mezzo per la diffusione del contenuto stesso, senza modificare in alcun modo i diritti ed i doveri del soggetto (utente del social network) che voglia condividerli. 



Viceversa, l’amministratore di una Pagina e/o di un sito che richieda, per raccoglierli ovvero pubblicarli su un sito, contenuti provenienti dagli utenti ne sarà il solo ed unico responsabile per eventuali utilizzi contrari a termini di legge ovvero dei servizi offerti da Facebook, chiarendo sin da subito che è lui e non Facebook a raccogliere le informazioni ed i contenuti, indicandone contestualmente le finalità della raccolta.



In tal senso si muovono altresì le “Promotions Guidelines“, per le quali Facebook non è altro che il mezzo attraverso il quale veicolare l’informazione ovvero amministrare una promozione (es. un contest relativo a foto, immagini o racconti), escludendo ogni responsabilità per le violazioni eventualmente commesse dall’Amministratore della Pagina.


If you use Facebook to communicate about or administer a promotion, you are responsible for the lawful operation of that promotion, including the official rules, offer terms and eligibility requirements (e.g., age and residency restrictions), and compliance with regulations governing the promotion and all prizes offered in connection with the promotion (e.g., registration and obtaining necessary regulatory approvals). Please note that compliance with these Guidelines does not constitute the lawfulness of a promotion. Promotions are subject to many regulations and if you are not certain that your promotion complies with applicable law, please consult with an expert.


In conclusione, in base ai vigenti termini d'uso della piattaforma sociale, l'utente che pubblichi suFacebook un determinato contenuto, ne sarà il solo ed unico responsabile, detenendone ogni diritto, nonostante la condivisione in forma pubblica (su profilo ovvero su Pagina), la quale costituisce solo una modalità di fruizione senza alcuna cessione dei diritti a terzi (amministratori della Pagina ovvero Facebook).



Restano comunque aperti numerosi dubbi in ordine alla effettiva possibilità di operare una cancellazione completa dei contenuti (per lo meno dalla Piattaforma) atteso che, sebbene non più disponibili online, potrebbero permanere presso copie di backup del sistema (almeno fino alla loro completa cancellazione/sovrascrittura).




Avvocato 

Dottore di ricerca in "Giustizia costituzionale e diritti fondamentali"



Disclaimer: il contenuto ha scopo meramente illustrativo, non se ne garantisce nè l'accuratezza nè l'aggiornamento, anzi il lettore è espressamente invitato a controllare la data di pubblicazione e, più in generale, ogni informazione ed avvertito che ogni eventuale utilizzo di quanto segue è a suo esclusivo rischio e pericolo e che le informazioni qui contenute non possono, in nessun caso, sostituire un consulente legale. 

Pagina Fan e/o Aggiornamenti Profili: il Dilemma (e le novità…)!

Cresce l’importanza degli “aggiornamenti”… 


Qualche giorno fa parlammo del (presunto) crollo della visibilità delle pagine fan. Tale crollo può esser dovuto agli upgrade effettuati alle home page (+ o – ottobre 2011), oppure all’incremento di connessioni tra utenti e pagine (costante nel tempo), oppure alla volontà di Facebook di render un po’ meno visibili le pagine al fine di spingere la vendita delle inserzioni. Potrebbero esserci altri motivi a noi ignoti ma non è di questo che parliamo oggi.



In un altro articolo abbiamo invece segnalato il lancio del nuovo tasto “subscribe” (ricevi gli aggiornamenti). La funzione principale di questo tasto è permettere a chi consulta un sito (ad esempio un giornale online) di iscriversi agli aggiornamenti del singolo giornalista. Tale azione non è alternativa all’iscrizione alla pagina fan del giornale per tramite ad esempio di un like box. 



La domanda sorge spontanea: la funzione “subscribe” può incrementare la visibilità della pagina fan (e di un sito) o sopperire al suo inesorabile crollo?



La risposta è: probabilmente si, ma non in tutti i casi. Tra le aziende più agevolate da questo punto di vista troviamo i giornali online (e le case editrici).



Accade infatti che i giornalisti tramite il proprio profilo privato pubblichino gli articoli del giornale per cui lavorano oppure condividano le notizie della pagina fan del giornale. Tutto ciò ha effettivamente una sua logica. Potrei esser molto interessato a ciò che scrive un giornalista che seguo abitualmente e poco interessato a tutti gli articoli pubblicati da un certo giornale.



E’ questo il motivo per cui il Washington Post invita i lettori a sottoscrivere gli aggiornamenti dei singoli giornalisti (su consiglio forse dello stesso Facebook)?






















Il secondo motivo può essere l’interessante numero di persone che “segue” alcuni giornalisti in particolare.























Il terzo motivo può essere la maggior interazione prodotta da un profilo privato rispetto ad una pagina fan che presenta un simile numero di connessioni.



Quindi mi chiedo… per portare visibilità ad un sito è meglio pubblicare su 10 profili con 10mila subscribers o su una pagina con 100mila fan?



A questa ricetta vanno aggiunti due importanti nuovi ingredienti:



1. E’ possibile iscriversi agli aggiornamenti degli amministratori delle pagine fan (quando scegli di renderli visibili) direttamente dalla pagina fan stessa:
















2. Già da tempo Facebook, con il supporto di Bing, traduce in automatico i contenuti delle pagine fan quando la lingua del lettore è differente dalla lingua in cui è stato pubblicato il contenuto. In altre parole, chi nel proprio profilo ha inserito l’italiano come lingua principale e visita una pagina fan con contenuti in inglese, vedrà un link “visualizza traduzione” subito sotto i post. 



Sembra esser recentissima l’introduzione della funzione “traduzione” anche per i post dei profili. Se quindi mi iscrivo agli aggiornamenti di persone che non parlano la mia lingua, avrò la possibilità di comprendere al meglio i contenuti pubblicati.


























Questa rappresenta una opportunità aggiuntiva per chi intende incrementare il numero degli iscritti ai propri “aggiornamenti”. Questo scenario potrebbe effettivamente generare un po’ di confusione ma allo stesso tempo presentare nuove opportunità per chi intende ritagliarsi uno spazio di crescente visibilità in un Facebook ormai prossimo alla “saturazione”.