SEO Audit: cos’è e come farla da professionista in 10 punti

La SEO Audit è un’analisi volta a conoscere lo stato dell’attuale sito internet, le sue performance e tutti i parametri SEO  On-Page e Off-Page fondamentali (struttura, tipologie di contenuti, duplicazioni, tag, sistemi di linking, aree e categorie, popolarità e backlink) per conoscere eventuali punti di forza e criticità.

I punti che ti andrò ad elencare e spiegare brevemente rappresentano il mio Framework, la mia metodologia di lavoro quando faccio una SEO Audit o mi accingo a fare un preventivo SEO per un cliente importante (sì, per clienti e realtà piccole il processo può essere molto più semplice)

Nello specifico verranno analizzati:

  1. Struttura 
  2. Layout HTML
  3. Crawl Budget
  4. Speed performance
  5. Dati strutturati
  6. Contenuti
  7. Stato dell’indicizzazione
  8. Analisi SEO mercato di riferimento
  9. Analisi SEO competitor
  10. Profilo Backlink

Solitamente dalle analisi emergono situazioni diverse, aspetti e criticità sulle quali poter andare a lavorare subito per ottimizzare il tutto lato SEO.

1. Struttura

La struttura di un sito internet è fondamentale sia per gli utenti che per Googlebot.

I livelli di navigazione, pagine gateway che fungono da hub, bisogna sempre cercare di ottimizzare secondo “la regola dei 3 click”, in cui ogni contenuto del sito dovrebbe essere raggiungibile dalla home page con al massimo 3 click.

La struttura di un sito è determinante lato SEO. I “livelli”, la distanza cioè dalla home page di una risorsa web, sono fondamentali per far capire a Google l’importanza della risorsa linkata.

Più aumentano il numero delle pagine web del sito, più questo aspetto diventa determinante.

2. Layout HTML

Oltre ad effettuare un analisi del codice (quindi rivedere meta, headings, ecc ), ricordiamo che Google è una macchina che legge codice, il layout HTML che un sito utilizza determina quella che viene chiamata esperienza di navigazione dell’utente. Dall’introduzione del concetto di Mobile First Indexing a marzo 2018, https://webmasters.googleblog.com/2018/03/rolling-out-mobile-first-indexing.html, e con un occhio di riguardo anche alle speed performance, possiamo analizzare il template andando ad identificare criticità o migliorie evidenti.

3. Crawl Budget

Nonostante non se ne parli con grande frequenza, è un parametro molto importante che nel tempo ha avuto sempre più peso, soprattutto per siti di determinate dimensioni. Più aumenta il numero di pagine da scansionare  e indicizzare, più aumenta il numero di risorse che GoogleBot deve utilizzare. Il concetto di Crawl Budget può essere visto attraverso i due parametri Crawl Limit e Crawl Demand

Crawl Rate Limit

Indica il limite di connessioni simultanee che Googlebot può usare per fare la scansione del sito, ma rappresenta anche il tempo che aspetterà tra una scansione e l’altra. Esprime quella che viene chiamata capacità di Crawling: se un sito risponde davvero velocemente alle visite da parte del bot, allora automaticamente il “Crawl Limit” sarà spostato verso l’alto. Se invece il sito rallenta o si verificano errori lato server, il limite si abbassa e il bot farà meno scansioni.

Crawl Demand

Indica l’esigenza di scansione, ovvero quanto il bot percepisca come obsoleto il contenuto di certe URL. In occasione di eventi speciali che riguardano l’intero sito come le migrazioni, il cambio di template, il Crawl Demand cresce in quanto c’è necessità di indicizzare un sito sotto nuove URL.

“E se il crawler di Google passa spesso in pagine che non ci portano traffico? E se il numero delle pagine da indicizzare aumenta ma possediamo una quantità limitata di risorse disponibili?“

L’analisi del Crawl Budget

Innanzitutto, oltre ai parametri di Seozoom che esprimono delle metriche a parte, bisogna  capire qual è la frequenza e la profondità di scansione da parte di GoogleBot. GSC fornisce delle metriche da poter considerare come KPI ma per capire precisamente i dati vanno analizzati i log del server tramite tool lato server come Apache Logs Viewer o software come Log File Analyzer.

4. Speed performance

Per andare a ottimizzare questo punto va fatta analisi specifica con Google Lighthouse e seguendo le sue indicazioni punto per punto, come appena visto in ottica Crawl Budget e peso di una pagina web.

La maggior parte delle indicazioni di Lighthouse richiederanno di intervenire sul codice stesso del portale e del layout. 

Il peso di una pagina web e di conseguenza tempi di risposta e di caricamento sappiamo quanto influiscono non solo come fattori di ranking ma come fattori di conversione.

Per siti di grandi dimensioni, interventi volti ad ottimizzare i tempi di caricamento di una singola pagina si ripercuotono a livello macro in quella attività di ottimizzazione del Crawl Budget visto al punto 1.3.  Più una pagina è leggera e si carica velocemente, meno GoogleBot spenderà risorse, più risorse avrà disponibili quindi per scansionare altre pagine del sito, aumentando di conseguenza la capacità di crawling.

Qui uno studio specifico sulla percezione delle performance di caricamento: https://hpbn.co/primer-on-web-performance/#speed-performance-and-human-perception

Qui i dati Kissmetrics

https://www.insidemarketing.eu/cdn/wp-content/uploads/2016/06/tasso-di-abbandono-velocit%C3%A0-di-upload.jpg

DoubleClick di Google dice che il 53%  dei visitatori da mobile abbandona il sito se la pagina richiede più di 3 secondi di caricamento. https://developers.google.com/web/fundamentals/performance/why-performance-matters/

  1. 53% of visits are likely to be abandoned if pages take longer than 3 seconds to load6
  2. One out of two people expect a page to load in less than 2 seconds
  3. 46% of people say that waiting for pages to load is what they dislike the most when browsing the web on mobile devices

https://www.blog.google/products/admanager/the-need-for-mobile-speed/

Dati Febbraio 2018

https://www.thinkwithgoogle.com/marketing-resources/data-measurement/mobile-page-speed-new-industry-benchmarks/

4. Dati strutturati

I dati strutturati, in inglese Structured Data, sono meta-informazioni inserite manualmente nel codice HTML di una pagina per fornire dati aggiuntivi sui siti e sulle pagine e per consentire ai motori di ricerca semantici di classificare meglio il loro contenuto. È un formato standard che consente a Google e agli altri search engine di navigare meglio un sito, di capire le relazioni delle pagine e di ottenere informazioni per comprenderlo e valutarlo meglio.

I microformati vengono definiti da Google stesso come “annotazioni del codice HTML che aggiungono informazioni semantiche”.

Al momento Google utilizza i dati strutturati per query legate ad esempio a eventi (mostrando i protagonisti, la data, la location e la possibilità di acquistare biglietti), ricette (immagini, procedimenti di cottura, tempo richiesto, recensioni degli utenti), articoli, libri, serie TV, e di recente ha introdotto nuovi markup per le FAQ e la pagine How-To.

In sintesi, dunque, i motori di ricerca utilizzano i dati strutturati per tre scopi principali: riconoscere le entity presenti nella pagina, comprendere le relazioni tra queste entità e, in definitiva, restituire all’utente la risposta ritenuta migliore alla query desiderata. 

In genere, Googlebot riesce a riconoscere comunque le entità presenti all’interno delle pagine Web, ma l’utilizzo di dati strutturati garantisce la sicurezza che le informazioni sono prese, interpretare e catalogate nel modo più preciso. 

Tipologie di dati strutturati

Uno dei primi linguaggi impiegati per schematizzare i dati strutturati si chiama RDF (Resource Description Framework), che consente di implementare la conoscenza in proprietà, descrizioni ed entità; il secondo si chiama microdati, che impiega tag e attributi HTML e permette di associare le proprietà degli oggetti nel documento alle entities, così da risalire alla natura e alle caratteristiche degli oggetti. L’utilizzo di entrambi è calato dopo l’introduzione del linguaggio script JSON-LD, che utilizza un oggetto JavaScript nella pagina HTML ed p preferito anche da Google per flessibilità e facilità di utilizzo, visto che si può inserire direttamente nella sezione Head del documento Html.

Da tutto quanto sopra emerge l’estrema importanza di comunicare a Googlebot nel modo migliore attraverso l’utilizzo dei dati strutturati. 

Sante J. Achille, uno dei SEO più famosi nel panorama internazionale, li chiama “steroids metadata”, metadati con gli steroidi :).

Analisi dei dati strutturati

Google mette a disposizione diverse risorse e guide sull’utilizzo dei dati strutturati: tra questi il rich snippet testing tools, https://search.google.com/structured-data/testing-tool

6. Contenuti

L’obiettivo generale è “control what you can control”.

Tramite le strategie di seguito descritte si andrà ad eseguire un’ulteriore fase di ottimizzazione in maniera clinica su tutto quanto c’è online lato gateway. 

Capire perchè una pagina non riesce a salire bene, o non è stabile, e cercare di fare quanto in nostro potere per dare quei segnali che servono a Google per rankarla meglio.

Implementazione canonical e/o noindex 

Sappiamo quanto sia difficile ottimizzare il punto 4 relativa alla velocità di caricamento. Detto questo, quello che possiamo fare per cercare di ottimizzare il punto 3 sul Crawl Budget è cercare di limitare il numero di pagine che non fanno visite in cui il bot si perde nel processo di crawling.

Ottimizzazione Search Intent Gap

Quando si progetta un contenuto e si ottimizza a livello SEO si possono ipotizzare un parco di keywords correlate attinenti. Questo viene fatto inizialmente in fase progettuale con la keywords research e la pianificazione per gli autori.

Tra quello che si può ipotizzare e quello che avviene in realtà c’è differenza ed oggi strumenti come SeoZoom ci vengono in aiuto. Revisionare i contenuti per trovare l’intent gap vuol dire:

  1. analizzare ogni singola pagina
  2. rilevare quali query di ricerca dell’utente che possono essere ottimizzate in base ai contenuti
  3. revisionare il testo in modo naturale per introdurre le nuove chiavi ricerca

Inoltre considerando che ogni giorno vengono effettuate il 15% di nuove query che Google non conosce (fonte: https://searchengineland.com/google-reaffirms-15-searches-new-never-searched-273786) e considerando che vengono fatte 5 miliardi di ricerche al giorno (fonte:https://seotribunal.com/blog/google-stats-and-facts), l’enorme forza di SeoZoom è proprio insita nel funzionamento stesso: spesso Google posiziona la nostra pagina per query che non sono presenti nel testo e che “compaiono” in SeoZoom (si ricorda che SeoZoom monitora solo dalla 51° esima posizione in su).

Ottimizzazione link interni

Non mi soffermo a ribadire quanto la struttura dei link interni e soprattutto quelli che si definiscono  link contestuali sono fondamentali nella SEO di oggi (https://www.link-assistant.com/news/ranking-factors-2020.html,) come confermato anche dallo stesso John Mueller durante un’hangout dei Webmasters Central, https://www.youtube.com/watch?v=oCNi7dTircw&feature=youtu.be&t=2882 

I link interni servono a Google per contestualizzare un contenuto, sia quello linkante che quello che riceve il link.

Con una corretta strategia di link interni possiamo dare ulteriori segnali a Google sul contenuto delle nostre pagine per far si che che le pagine si posizionino meglio per le query di ricerca pertinenti.

7. Stato dell’indicizzazione

In questa voce faccio solitamente rientrare tutto ciò che può vedere Googlebot, quindi si procederà ad un analisi dello stato di indicizzazione del dominio (terzi livelli, cartelle, contenuti, ecc).

La navigazione da dispositivi portatili sta diventando sempre più la forma primaria di accesso a Internet e solo offrendo siti mobile friendly, con strutture responsive o adaptive, contenuti adeguati e risorse facilmente caricabili anche con connettività bassa si può pensare di intercettare traffico.

Le best practice attuali consigliano sempre di concepire siti e web app in ottica Mobile First e responsivi, in grado cioè di adattarsi in maniera ottimale al dispositivo che le richiede.

A seguito di analisi specifiche sullo stato attuale di indicizzazione dei contenuti del dominio, avremo dati sufficienti in ottica ottimizzazione Crawl Budget, si potrà capire come ottimizzare il tutto con la gestione dei canonical e noindex e risolvere eventuali problemi di cannibalizzazione (si parla di cannibalizzazione quando due pagine web diverse competono per le stesse keywords.)

8. Analisi SEO mercato di riferimento

Analisi volta a conoscere lo stato attuale del settore  e dei principali player per poi conoscere eventuali punti di forza e criticità. Individuazione di 10 competitor, diretti e indiretti. 

Individuazione del mercato in base alla definizione di 3-5  topic generici riguardante il settore di attività, da definire insieme al cliente.

Di ogni topic verrà analizzato:

– SERP di riferimento con keywords corrispondente da cui evidenziare i big player del settore (competitor diretti)

– Analisi delle keywords correlate più importanti in base ai volumi di ricerca per individuare nicchie di mercato e definire i competitor diretti di ogni topic.

9. Analisi SEO competitor

esempio: https://docs.google.com/spreadsheets/d/1wU2srPftyPl57I83duGB5QGcbGs2C6uXgo0hHoW55pM/edit#gid=0

  1. Definizione KPI:  SEO oriented e non (es.tipologia sito (ecommerce, editoriale, ecc))
  2. SEO: Quick Audit Performance per ciascun player individuato
  3. Keywords Research: individuazione delle keywords dei competitor

10. Analisi Profilo Backlink

Per conoscere effettivamente tutto ciò che riguarda un sito web, dopo aver analizzato i fattori on page, bisogna effettuare una analisi approfondita del profilo backlink.

Il profilo backlink è uno dei fattori di ranking più importanti ed è quello che determina il Trust di un sito internet. Deve essere verosimilmente naturale, e ci sono diverse strategie per fare questo, ( ricordo che è contro le linee guida di Google acquistare backlink per cercare di aumentare il ranking del sito) e deve essere corredato di importanti fattori esterni come le ricerche branded e le citazioni.

La link building è cambiata enormemente negli ultimi anni: dal primo Penguin all’incorporamento dello stesso everfluxx negli algoritmi di ranking (sì, prima veniva lanciato on demand e per settore), alla nascita della Negative SEO, il tutto ha portato ad un controllo maniacale del proprio profilo backlink.