ANALISI SEO – GUIDA DEFINITIVA Analisi SEO checklist

di | 26 Gennaio 2013

Questa vuole essere una guida definitiva per tutti coloro che stanno per mettere online un nuovo sito internet, per analizzare la concorrenza o ottimizzare un sito per ottenere dei posizionamenti soddisfacenti con una campagna SEO (Search Engine Optiomization, cioé Ottimizzazione per i Motori di Ricerca).

Report automatici SEO

report-seo-motori di ricerca

La soluzione più facile è quella degli strumenti automatici di reportistica SEO che possano restituire report SEO, analizzando il valore SEO del sito che avete deciso di analizzare. Ecco una lista di tool gratuiti più o meno validi:

http://marketing.grader.com/
http://www.seoworkers.com/tools/analyzer.html
http://www.cubestat.com/
http://www.jonasjohn.de/test-tool/
http://spydermate.com/ (l’app per Android e iPhone è gratuita)

marketing-grader-tool seo

Comunque, l’obiettivo di questa guida è quello di imparare ad organizzare una propria analisi SEO.

Il primo step è arrivare a capire che tipo di sito dovete analizzare. Se avete accesso alle statistiche del sito, siamo già un passo avanti. Altrimenti le cose cambiano: potrete sempre stabilire il tipo di sito, la sua struttura e anche il suo possibile ranking ed il traffico generato, vediamo come.

Verifica indicizzabilità del Sito a mezzo spider

Iniziamo il nostro progetto SEO indicizzando il sito che dobbiamo analizzare. Ci sono tantissimi strumenti disponibili. Alcuni dei più famosi sono: Screaming Frog SEO Spider Tool (http://www.screamingfrog.co.uk/seo-spider/) e IIS SEO Toolkit (http://www.iis.net/download/seotoolkit). Uno degli strumenti che più apprezzo è Xenu Link Sleuth (http://home.snafu.de/tilman/xenulink.html). Per concludere la lista testerei anche Crawl Test di Seomoz (http://pro.seomoz.org/tools/crawl-test). Seomoz offre diversi strumenti SEO, anche se occorre pagare per utilizzarlo.

Dovete controllare i seguenti fattori SEO “on-page” (sulle pagine):

L’architettura web. Un sito con un’architettura piatta è migliore di un sito con livelli profondi di navigazione. Approfondite pure questo argomento con un post sul blog di SEO Moz. http://www.seomoz.org/blog/site-architecture-for-seo.

Link equity (equità dei link). Accertatevi che ogni pagina del sito contenga un discreto numero di link entranti e che non ci siano differenze rilevanti per numero di link entranti dalle pagine del sito stesso (link equity). Google raggiunge facilmente il 4° livello di profondità in un sito web, ma ogni pagina del sito deve essere raggiungibile in non più di 4 click. Se questo non è il caso del vostro sito, considerate di riadattare la struttura del sito.

Errori di link.

Verificate che non abbiate link rotti. Se una pagina linkata restituisce come risposta un errore, parliamo di link rotto (errori sono: 500,400,404 …)

Verifica indicizzazione del Sito

Verificate lo stato di indicizzazione del sito sul motore di ricerca di Google.

Dovete verificare questi importanti fattori SEO:

Verifica sulla Home Page. Ricercate in Google le esatte parole che avete nel title della Home Page o la prima parte del testo del title. Se il sito non compare nelle prime posizioni della SERP (Search Engine Results Pages, cioè Pagine dei Risultati del Motore di Ricerca) avete sicuramente un problema SEO nel sito. La verifica in Home Page è utilissima poiché i motori di ricerca indicizzano i siti a partire proprio dalla Home. La Home Page è quindi la pagina del sito basilare per i motori di ricerca. Se non riuscirete a posizionarvi bene con la Home Page, è alquanto improbabile che riusciate ad ottenere risultati soddisfacenti con pagine interne.

Pagine indicizzate obsolete. Se vengono riscontrate pagine obsolete in Google, dovete redirigerle in modo permanente alle nuove pagine del sito. Potete anche rimuoverle usando Google Webmaster Tools, ma in questo caso la risorsa obsoleta dovrà restituire un errore del tipo 404 (risorsa non trovata).

Verifica del contenuto

Controllate questi fattori SEO “on-page” (sulle pagine):

Contenuti Duplicati. Se potete accedere alle statistiche web del sito tutto è più facile, altrimenti potrete usare Webmaster Tools di Google o Seomoz per accertarvi se il sito abbia o meno contenuti duplicati. Se ancora non disponete di questi strumenti (potrebbe essere il caso in cui viene analizzato un concorrente), dovrete verificare la situazione per mezzo di una serie di query su Google in merito ai servizi e/o prodotti più importanti offerti dal sito. Ci sono tantissimi strumenti utili per rendere meno faticoso questo lavoro, controllate questi strumenti a questo link: http://slodive.com/web-development/10-top-tools-checking-duplicate-content/

Problemi di Canonizzazione. Verifichiamo se il tag rel=”canonical” è dovuto oppure no. La questione riguarda sovente la Home Page, dove la stessa potrebbe rispondere come: domain.tld/ domain.tld/index.php domain.tld/index.html or domain.tld/index.asp. Dovreste avere una sola ed univoca Home Page. Se non potete redirigere, per esempio, index.asp allo slash della root del dominio: / allora in questo caso occorre la canonizzazione della Home Page, inserendo questo codice nei tag header, come segue:
<link rel=”canonical” href=”http://www.domain.tld/”/>

Problemi di Paginazione. Se il vostro sito contiene tantissimi prodotti o servizi è quasi certo che denoterà qualche sorta di paginazione dei prodotti/servizi. Oltretutto è anche probabile che il sito abbia pagine con contenuto duplicato oppure poco diverstificato (magari col medesimo title di pagina). In questo caso dovrete giocare con i tag rel=”prev” and rel=”prev”. Potrete approfondite l’argomento qui : http://googlewebmastercentral.blogspot.it/2011/09/pagination-with-relnext-and-relprev.html

Title di Pagina Duplicati. I title di Pagina duplicati sono visti sotto una pessima luce da parte di Google e dagli altri motori di ricerca. Per verificare se avete Title di Pagina “duplicati” potete utilizzare: Google Webmaster Tools, Seomoz o Xenu Link Sleuth. Anche se Xenu è stato pensato per piattaforme Windows, funziona bene pure su Linux tramite wine. Indicizzato il sito tramite Xenu, dovrete soltanto ordinare le pagine per “title” e vedrete quindi se ci sono pagine con lo stesso Title di Pagina.

Verifica Extra SEO

Un fattore importantissimo non propriamente SEO ma ad esso correlato, è relativo all’Audience. Per stimare l’audience di un sito potete adoperare questi strumenti:

Google Adwords (free) https://adwords.google.com
Google Trends (free) http://www.google.com/trends/
Alexa (free) http://www.alexa.com
Quantcast (free) http://www.quantcast.com
Compete (da 199$ al mese) http://www.compete.com

report-compete-audience sito

Questi tools restituiscono dei dati sulla demografia dei visitatori di un particolare sito internet, le parole chiave più popolari (keywords) con cui gli utenti hanno raggiunto il sito internet e molti altri dati che vi consentono di scegliere, aggiornare o cambiare le keyword da posizionare nelle prime posizioni con il sito stesso.

Determinata la struttura del sito, la sua indicizzazione nei motori di ricerca (importantissimo Google), la possibile presenza di problemi di navigazione e l’audience del sito, possiamo passare al gradino successivo della Analisi SEO.

Fattori SEO On-Page relativi al Dominio

Età. Un dominio più anziano offre migliori possibilità di ottenere le prime posizioni nei motori di ricerca.

Rappresentatività delle parole chiave. Il dominio dovrebbe contenere le parole chiave del sito, almeno quelle rappresentative. Il nome dominio dovrebbe essere breve per essere ricordato e non dovrebbe contenere caratteri speciali e simboli grafici tipo underscore, o altri caratteri strani.

Fattori SEO “Off-Page” (fuori dalle pagine)

Page Rank. E’ il valore con cui Google valuta ogni singola pagina di un sito. Il Page Rank della root del dominio viene considerato rappresentativo del valore del dominio stesso. 

Alexa Global Rank. Il rank di Alexa viene calcolato interpolando una combinazione di visitatori medi giornalieri del sito con il numero di pagine viste nell’arco degli ultimi tre mesi. Il sito con la più alta combinazione di visitatori e pagine viste è il sito più importante. E’ consigliato valutare questo rank confrontando il punteggio ottenuto con quello di siti concorrenti. (http://www.alexa.com)

Compete Rank offre una stima del traffico del sito e rappresenta questo valore come Compete Rank (http://siteanalytics.compete.com/ )

MozRank, Page Authority e Domain Authority. Il mozrank di dominio (domain mozrank) è una misura della popolarità globale a livello di link di un sito, calcolata un po’ come la Page Rank di Google, su una scala logaritmica da 1 a 10. L’Autorità della Pagina (Page Authority) e l’Autorità del Dominio (Domain Authority) sono due valori calcolati attraverso Open Site Explorer di SeoMoz. Queste misure sono rappresentate su una scala logaritmica da 1 a 100.

Link esterni entranti (External Backlinks). Potete ricorrere a Majestic SEO http://www.majesticseo.com/ per calcolare i link entranti al sito. Dovreste fare attenzione a questi dati: External Backlinks (link esterni)
Referring Domains (domini di riferimento)
Referring IP addresses (indirizzi IP di riferimento)
Class C subnets (sottoreti della Classe C)

Se avete centinaia di link entranti ma vengono tutti da un poche sottoreti della classe C, è probabile che tutti i domini che linkano il vostro sito sono vostri, quindi il valore dei link entranti diventa è bassissimo. Potreste anche verificare la voce “Followed Linking Root Domains”, cioè il numero di domini con almeno un link entrante, che non abbia rel=nofollow, ad una pagina del sito (dovreste usare seomoz.org per ottenere il dato significativo).
Potreste anche utilizzare il dato di Alexa alla voce “Sites Linking In” come fattore di ranking da analizzare. La query di Google: “link:domain.tld” non è più un eccellente riferimento SEO, in quanto non fornisce tutti i link entranti ad un sito, ma soltanto parte di essi.

Presenza su Dmoz. Uno dei primi step che si compiva anni fa in ambito SEO era la sottomissione del sito nella directory di Dmoz. La presenza di un sito in DMOZ è ancora oggi considerata un fattore SEO rilevante.

Referenze sui Social Network. Potreste creare una check list con i Social Network di riferimento. Per ogni social network dovreste verificare se il sito in oggetto è presente nonché il numero di menzioni, il numero di fans/followers ed il numero di condivisioni dei contenuti presenti sul sito. Ecco una lista oggi significativa di Social Network:
– Facebook
– Twitter
– Google Plus
– Linkedin
– Pinterest
– Stumbleupon

social-network-analysis-seo


Fattori SEO “On-Page” 

URL. La url di ogni pagina deve assolutamente essere “search engine friendly” cioè amichevole per i motori di ricerca, dovrebbe inoltre essere composta dalle keyword più importanti per la pagina.

Title tag. Il title deve contenere le parole chiave che promuoviamo nella singola pagina in modo discorsivo, non potendo essere composto da una semplice lista di keyword. Come Google indica in “Google SEO Report Card”: “Un title ed un meta tag description descrittivi possono aiutare il sito ad una migliore visibilità nella ricerca degli utenti.”

La referenza è: http://www.google.com/webmasters/docs/google-seo-report-card.pdf

Meta tag Description. Questo meta tag dovrebbe essere descrittivo e contenere le parole chiave promosse nella pagina. Lo standard attuale stabilisce che la descrizione dovrebbe essere non più lunga di 156 caratteri, compresi spazi e virgole.

Tag H1, H2 e H3. Ogni pagina del sito dovrebbe avere questi tag e questi tag dovrebbero presentarsi in ordine (h1,h2,h3) ed al loro interno dovrebbero esserci le keywords della pagina stessa.

Keyword density (Densità Parole Chiave) nel corpo della pagina. Un buon ranking è dovuto sicuramente da una buona densità (di solito tra il 5 ed il 20% di tutte le parole nel body della pagina).

Bold Keywords e Strong Keywords. Una parola chiave in un tag <strong> o <b> è una parola chiave più pesante, più visibile ai motori di ricerca.

Keyword prominence (Prominenza della Parola Chiave). Una parola chiave posizionata nella parte in alto a sinistra della pagina ha un peso maggiore della stessa parola chiave posizionata in basso a destra. La prominenza è quanto prima una keyword viene posta nella pagina.

Anchor text (testo di ancoraggio). L’anchor text o testo di ancoraggio dovrebbe essere rappresentativo delle parole chiave. Se avete un link alla sezione SEO del sito, l’anchor text dovrebbe essere “sezione SEO” o più semplicemente “SEO”.

Title di Link. Il title di Link deve essere anch’esso rappresentativo delle parole chiave. Date un’occhiata a questo link per capirne di più:
http://www.seomoz.org/ugc/link-tilte-attribute-and-its-seo-benefit

Alt e Title di Immagine. Il testo dell’alt di immagine è un’informazione alternativa visibile a coloro che hanno disabilitato la visione delle immagini dai loro browser o che non possono vedere le immagini. Dovrebbe descrivere cosa rappresenta l’immagine ed interessare i visitatori a vedere la foto. Il testo alt di immagine contribuisce al posizionamento nella ricerca in Google Images, diventando quindi un ottimo fattore SEO. Il title di immagine dovrebbe dare informazioni addizionali, dovrebbe essere importante, breve, attraente, conciso ed aiutare a promuovere le parole chiave della pagina. Attenzione: il suo uso improprio potrebbe anche essere considerato alla stregua dello spam. Quando la descrizione non ha nulla a che vedere con l’immagine è spam, invece quando il numero di keyword inserite è in esubero si parla di kewyord stuffing, cioè “imbottitura di parole chiave”. Questa pratica è penalizzata da Google a seguito dell’aggiornamento del suo algoritmo.

Potete testare questi fattori SEO visitando questo link:
http://www.seocentro.com/tools/search-engines/metatag-analyzer.html

L’ultimo passaggio dell’analisi SEO oserei dire avanzato fa riferimento ad aspetti che consentiranno di migliorare il ranking di un sito, cioè il suo posizionamento nei motori di ricerca.

Usabilità (Usability)

Website Usability Review (Controllo usabilità). Verificare che il vostro sito sia usabile, cioè che possa essere navigato facilmente anche con javascript disabilitato.

Form Usability (Usabilità dei Form). Ogni form del sito deve essere processabile anche con javascript disabilitato.

Navigation Analysis (Analisi navigabilità). Ogni sezione del sito dovrebbe essere raggiungibile in non più di 4 click. Altrimenti abbiamo un pesante problema di navigabilità.

Abilità di Indicizzazione (Crawl Ability)

Robots.txt Nella root del dominio dovreste aver inserito un file che si chiama robots.txt. Questo file è utile in quanto consente ai motori di ricerca di sapere quali pagine possono indicizzare e quali pagine non indicizzare. Il contenuto potrebbe essere di questo tipo:User-Agent: *
Disallow:
Sitemap:

Sitemap. La sitemap (mappa del sito) aiuta il motore di ricerca a sapere quali sono le url che chiediamo essere indicizzate. Molti sono i motori di ricerca che consentono la sottomissione di sitemap, ecco i principali siti di riferimento:
Google – https://www.google.com/webmasters/tools/
Bing – http://www.bing.com/toolbox/webmaster/

Crawl verification (verifica indicizzabilità). Potete verificare come è navigabile il sito usando un browser testuale (Lynx) o utilizzando un browser javascript online tipo questo: http://www.domaintools.com/seo-browser/ Dovrete capire quali testi e link possa visualizzare lo spider di un motore di ricerca.

Qualità del Testo

Per verificare la qualità dei vostri testi si possono utilizzare degli strumenti automatici. Qui abbiamo due unità di misura: la Lexical Density (densità lessicale) e l’indice Gunning Fog. L’indice Gunning-Fog varia da 4 (testo facile) a 20 (testo difficile da leggersi), invece l’indice di densità lessicale è il fattore di Complessità del testo e il suo valore è misurato in una percentuale (solitamente da 20 a 60%).

Velocità di Caricamento della Pagina

Qui lo strumento è Page Speed di Google https://developers.google.com/pagespeed/

I punti salienti sono:

Browser caching. Inserisci una data di scadenza negli HTTP headers affinchè i browser carichino dal disco fisso locale le risorse statiche già scaricate, evitando in tal modo inutili chiamate alle risorse online.

Compressione delle risorse. Comprimere le risorse con gzip o deflate riduce il numero di bytes trasmessi dalla rete.

Immagini Compresse. Formattare e comprimere le immagini farà risparmiare tanti bytes di dati. Ogni immagine dovrebbe essere compressa e per ogni immagine dovreste specificare altezza e larghezza (heigh, width). Fissare le dimensioni delle immagini farà risparmiare tanti bytes di dati.

Sprite CSS. E’ consigliato combinare le immagini nel minor numero possibile di files: utilizzando la tecnica “CSS sprites” ridurrete il numero di passaggi e il ritardo nello scaricare altre risorse. Gli sprites CSS sono un ottimo metodo per combinare insieme delle immagini, ottimizzando il caricamento della pagina riducendo il numero di richieste HTTP al server.

Minimizza e Differisci Javascript. Mediante la compressione del codice JavaScript potrete salvare tanti bytes di dati e migliorare la velocità di downloading, parsing ed il tempo di esecuzione. Differendo il parsing di codice Javascript non necessario fino a che non sia eseguito, ridurrete l’iniziale tempo di loading della vostra pagina (basterà spostare, dove possibile, il codice javascript prima della chiusura del tag body).

Risorse asincrone. Gestendo le risorse in modo asincrono eviterete che le risorse blocchino il load della pagina (codice statistico javascript in, widget di facebook, twitter ecc..).

URL consistenti. E’ fondamentale offrire una risorsa attraverso un’unica URL per evitare duplicazioni inutili di download e chiamate inutili e ripetute alle risorse.

Minimizza l’HTML (Minify HTML). Comprimendo il codice HTML, compreso il codice JavaScript e CSS contenuto, salverete tanti bytes di dati ed aumenterete la velocità di download, il parsing, ed il tempo d’esecuzione.

Ottimizza l’ordine dei fogli di stile e degli script. Ordinando correttamente i fogli di stile esterni e gli script nella pagina migliorerete la parallelizzazione dei download e aumenterete la velocità di rendering del browser.

Specificate una validazione della cache. Specificando una validità della cache – tipo Last-Modified o ETag header – vi assicurerete che la validità delle risorse in cache sia determinata.

Minimizza i css. Comprimendo il codice CSS salverete tanti bytes di dati ed aumenterete la velocità di download, il parsing, e migliorerete il tempo d’esecuzione.

Specificare subito il Charset. Specificare un set di caratteri subito nei propri documenti HTML consente al browser di iniziare ad eseguire gli script immediatamente.

Specificare un header “vary accept encoding”. Le risorse comprimibili e pubblicamente memorizzabili nella cache devono avere un’intestazione “Vary: Accept-Encoding”. Istruirete in tal modo i server proxy ad avere due versioni della risorsa: una compressa ed una non evitando questioni con i proxy pubblici che non individuano la presenza di un header Content-Encoding in modo preciso.

Velocizzare il caricamento delle risorse. Potrete migliorare il caricamento di una pagina rendendo disponibili le risorse statiche da più sottodomini attraverso un sistema conosciuto come “fake CDN” dove CDN è l’acronimo di “content delivery network” rete di distribuzione del contenuto. Un browser può scaricare in parallelo fino a due risorse per hostname. Aumentando il numero di hostname aumenteranno anche le risorse che simultaneamente il browser può scaricare. Attenzione a non duplicare i contenuti per cui ogni sottodominio deve fornire una sola risorsa statica.

Una volta eseguiti tutti questi passaggi, conoscerete i punti di forza e di debolezza del vostro sito o del sito del vostro concorrente e dovreste essere in grado di competere per le prime posizioni.

Se avete delle osservazioni o consigli potete commentare.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.