Google Page Experience

Era nell’aria nella community seo internazionale che i nuovi Core Web Vitals diventassero fattore di ranking, ma dalle teorie alla ufficialità il passo è grande.

Oggi Google in un articolo del suo blog annuncia “Page Experience Update“, “Evaluating page experience for a better web“, e indica i nuovi Core Web Vitals, presentati ad inizi Maggio e già visibili in beta in alcuni account Search Console, come fattori di ranking a partire dal 2021.

Che la velocità di caricamento e la user experience (UX) di una risorsa web fossero già fattori di ranking, è roba vecchia, lo Speed Update, Using page speed in mobile search ranking è di Gennaio 2018, con la facile intuizione che all’aumentare dei tempi di caricamento di una risorsa, aumenta lo stato d’insoddisfazione dell’utente che sta a li ad aspettare, e se i tempi di caricamento diventano biblici, l’utente abbandona.

We encourage developers to think broadly about how performance affects a user’s experience of their page and to consider a variety of user experience metrics. Although there is no tool that directly indicates whether a page is affected by this new ranking factor, here are some resources that can be used to evaluate a page’s performance.

Chrome User Experience Report, a public dataset of key user experience metrics for popular destinations on the web, as experienced by Chrome users under real-world conditions

Lighthouse, an automated tool and a part of Chrome Developer Tools for auditing the quality (performance, accessibility, and more) of web pages

PageSpeed Insights, a tool that indicates how well a page performs on the Chrome UX Report and suggests performance optimizations

La Page Experience

Ma veniamo alla Page Experience, valutare l’esperienza di navigazione e fruizione di una risorsa web, che renderà i nuovi Core Web Vitals come fattore di ranking, un set di metriche relative alla velocità, alla interattività e alla stabilità visuale.

Come vediamo anche sulla documentazione di Google, Understanding page experience in Google Search results, https://developers.google.com/search/docs/guides/page-experience, il “Page Experience Update” si baserà su:

  • Core Web Vitals
  • Mobile Friendly
  • Navigazione sicura
  • HTTPS
  • Pubblicità intrusiva invadente

Facciamo un attimo una carrellata dal secondo per poi approfondire i Core Web Vitals. Ormai il Mobile Friendly è diventato uno standard di sviluppo; all’epoca della sua nascita si parlò di un vero e proprio Mobilegeddon, era aprile 2015 e Google lanciava Mobile Friendly Update. La navigazione sicura è sempre stato un pallino da parte di Google, partita con l’introduzione dell’utilizzo di HTTPS come fattore di ranking. A riguardo della pubblicità invasiva invadente, era Gennaio 2017 in cui Google lanciò Intrusive Interstitial Update, la penalizzazione per l’utilizzo di pubblicità interstiziale invadente per dispositivi mobili.

Mentre i tradizionali fattori di ranking di Google erano originariamente concentrati sul valore informativo delle pagine e sui segnali di fiducia come i profili di backlink, l’esperienza della pagina è ancora un altro passo che Google sta compiendo per misurare come gli utenti sperimentano effettivamente le pagine che vengono mostrate nelle SERP.

Google vuole fornire ai suoi utenti che navigano nelle SERP la migliore esperienza possibile. L’esperienza della pagina verrà introdotta come fattore di ranking nel 2021 per garantire che i siti di alta qualità, a caricamento rapido e ottimizzati per i dispositivi mobili siano promossi per raggiungere più utenti.

Aggiungendo l’esperienza della pagina alle centinaia di segnali che Google prende in considerazione quando classifica i risultati di ricerca, miriamo ad aiutare le persone ad accedere più facilmente alle informazioni e alle pagine web che stanno cercando e supportare i proprietari dei siti nel fornire un’esperienza che gli utenti apprezzano.

Una cosa importante da notare è che la qualità dei contenuti e la pertinenza delle query degli utenti saranno ancora cruciali per le classifiche.

Una pagina con contenuti di bassa qualità che si carica velocemente non sarà necessariamente posizionata più in alto di una pagina con contenuti pertinenti e di alta qualità.

Vediamo direttamente ciò che scrive Google nella sua documentazione su quelli che sono i segnali di esperienza di pagina, cioè quei parametri che verranno utilizzati dal prossimo Search Experience Update

Core Web Vitals: le metriche

Come dicevamo sopra i Core Web Vitals sono un set di metriche relative alla velocità, alla interattività e alla stabilità visuale. Web Vitals è un’iniziativa di Google per fornire una guida unificata per segnali di qualità essenziali per offrire un’ottima esperienza utente sul Web.

  1. LCP: Largest Contentful Paint, Disegno del primo blocco più grande
  2. FID: First Input Delay, Ritardo della Prima Interazione
  3. CLS: Cumulative Layout Shift, Variazione Cumulativa del Layout

Il Largest Contentful Paint (LCP), Disegno del primo blocco più grande, misura l’intervallo di tempo tra l’inizio del caricamento di una pagina e il rendering completo dell’immagine o del blocco di testo più grande nella visualizzazione di un utente. E’ la metrica relativa alle prestazioni di caricamento.
La metrica First Input Delay (FID), in italiano Ritardo della Prima Interazione, misura il tempo necessario affinché una pagina sia pronta per l’interattività dell’utente, a rispondere a clic, scroll o input da tastiera. E’ la metrica relativa all’interattività.
Il Cumulative Layout Shift (CLS), Variazione Cumulativa del Layout è la metrica che misura la stabilità visuale di una risorsa web relativa alla manipolazione del DOM o alla mancanza di attributi di dimensione per i principali elementi multimediali, che, durante il caricamento, fanno si che il contenuto si “sposti” fastidiosamente.

Ognuna di queste metriche, come si vede sopra dalle indicazioni in tabella dalla documentazione ufficiale, ha dei valori di riferimento:

Per ciascuna delle metriche di cui sopra, per assicurarti di raggiungere l’obiettivo consigliato per la maggior parte dei tuoi utenti, una buona soglia da misurare è il 75 ° percentile di caricamenti di pagina, segmentato su dispositivi mobili e desktop.

Gli strumenti che valutano la conformità di Core Web Vitals devono considerare il passaggio di una pagina se soddisfa gli obiettivi consigliati al 75 ° percentile per tutte le tre metriche precedenti.

Core Web Vitals Tools per la misurazione

Per la misurazione dei paramenti web essenziali ad oggi sono disponibili diversi tools:

Questi strumenti si basano su dati raccolti dalla Chrome User Experience, un set di dati pubblici e metriche sull’esperienza utente provenienti dagli utenti che utilizzano Chrome in condizioni reali.

SEO Audit: cos’è e come farla da professionista in 10 punti

La SEO Audit è un’analisi volta a conoscere lo stato dell’attuale sito internet, le sue performance e tutti i parametri SEO  On-Page e Off-Page fondamentali (struttura, tipologie di contenuti, duplicazioni, tag, sistemi di linking, aree e categorie, popolarità e backlink) per conoscere eventuali punti di forza e criticità.

I punti che ti andrò ad elencare e spiegare brevemente rappresentano il mio Framework, la mia metodologia di lavoro quando faccio una SEO Audit o mi accingo a fare un preventivo SEO per un cliente importante (sì, per clienti e realtà piccole il processo può essere molto più semplice)

Nello specifico verranno analizzati:

  1. Struttura 
  2. Layout HTML
  3. Crawl Budget
  4. Speed performance
  5. Dati strutturati
  6. Contenuti
  7. Stato dell’indicizzazione
  8. Analisi SEO mercato di riferimento
  9. Analisi SEO competitor
  10. Profilo Backlink

Solitamente dalle analisi emergono situazioni diverse, aspetti e criticità sulle quali poter andare a lavorare subito per ottimizzare il tutto lato SEO.

1. Struttura

La struttura di un sito internet è fondamentale sia per gli utenti che per Googlebot.

I livelli di navigazione, pagine gateway che fungono da hub, bisogna sempre cercare di ottimizzare secondo “la regola dei 3 click”, in cui ogni contenuto del sito dovrebbe essere raggiungibile dalla home page con al massimo 3 click.

La struttura di un sito è determinante lato SEO. I “livelli”, la distanza cioè dalla home page di una risorsa web, sono fondamentali per far capire a Google l’importanza della risorsa linkata.

Più aumentano il numero delle pagine web del sito, più questo aspetto diventa determinante.

2. Layout HTML

Oltre ad effettuare un analisi del codice (quindi rivedere meta, headings, ecc ), ricordiamo che Google è una macchina che legge codice, il layout HTML che un sito utilizza determina quella che viene chiamata esperienza di navigazione dell’utente. Dall’introduzione del concetto di Mobile First Indexing a marzo 2018, https://webmasters.googleblog.com/2018/03/rolling-out-mobile-first-indexing.html, e con un occhio di riguardo anche alle speed performance, possiamo analizzare il template andando ad identificare criticità o migliorie evidenti.

3. Crawl Budget

Nonostante non se ne parli con grande frequenza, è un parametro molto importante che nel tempo ha avuto sempre più peso, soprattutto per siti di determinate dimensioni. Più aumenta il numero di pagine da scansionare  e indicizzare, più aumenta il numero di risorse che GoogleBot deve utilizzare. Il concetto di Crawl Budget può essere visto attraverso i due parametri Crawl Limit e Crawl Demand

Crawl Rate Limit

Indica il limite di connessioni simultanee che Googlebot può usare per fare la scansione del sito, ma rappresenta anche il tempo che aspetterà tra una scansione e l’altra. Esprime quella che viene chiamata capacità di Crawling: se un sito risponde davvero velocemente alle visite da parte del bot, allora automaticamente il “Crawl Limit” sarà spostato verso l’alto. Se invece il sito rallenta o si verificano errori lato server, il limite si abbassa e il bot farà meno scansioni.

Crawl Demand

Indica l’esigenza di scansione, ovvero quanto il bot percepisca come obsoleto il contenuto di certe URL. In occasione di eventi speciali che riguardano l’intero sito come le migrazioni, il cambio di template, il Crawl Demand cresce in quanto c’è necessità di indicizzare un sito sotto nuove URL.

“E se il crawler di Google passa spesso in pagine che non ci portano traffico? E se il numero delle pagine da indicizzare aumenta ma possediamo una quantità limitata di risorse disponibili?“

L’analisi del Crawl Budget

Innanzitutto, oltre ai parametri di Seozoom che esprimono delle metriche a parte, bisogna  capire qual è la frequenza e la profondità di scansione da parte di GoogleBot. GSC fornisce delle metriche da poter considerare come KPI ma per capire precisamente i dati vanno analizzati i log del server tramite tool lato server come Apache Logs Viewer o software come Log File Analyzer.

4. Speed performance

Per andare a ottimizzare questo punto va fatta analisi specifica con Google Lighthouse e seguendo le sue indicazioni punto per punto, come appena visto in ottica Crawl Budget e peso di una pagina web.

La maggior parte delle indicazioni di Lighthouse richiederanno di intervenire sul codice stesso del portale e del layout. 

Il peso di una pagina web e di conseguenza tempi di risposta e di caricamento sappiamo quanto influiscono non solo come fattori di ranking ma come fattori di conversione.

Per siti di grandi dimensioni, interventi volti ad ottimizzare i tempi di caricamento di una singola pagina si ripercuotono a livello macro in quella attività di ottimizzazione del Crawl Budget visto al punto 1.3.  Più una pagina è leggera e si carica velocemente, meno GoogleBot spenderà risorse, più risorse avrà disponibili quindi per scansionare altre pagine del sito, aumentando di conseguenza la capacità di crawling.

Qui uno studio specifico sulla percezione delle performance di caricamento: https://hpbn.co/primer-on-web-performance/#speed-performance-and-human-perception

Qui i dati Kissmetrics

https://www.insidemarketing.eu/cdn/wp-content/uploads/2016/06/tasso-di-abbandono-velocit%C3%A0-di-upload.jpg

DoubleClick di Google dice che il 53%  dei visitatori da mobile abbandona il sito se la pagina richiede più di 3 secondi di caricamento. https://developers.google.com/web/fundamentals/performance/why-performance-matters/

  1. 53% of visits are likely to be abandoned if pages take longer than 3 seconds to load6
  2. One out of two people expect a page to load in less than 2 seconds
  3. 46% of people say that waiting for pages to load is what they dislike the most when browsing the web on mobile devices

https://www.blog.google/products/admanager/the-need-for-mobile-speed/

Dati Febbraio 2018

https://www.thinkwithgoogle.com/marketing-resources/data-measurement/mobile-page-speed-new-industry-benchmarks/

4. Dati strutturati

I dati strutturati, in inglese Structured Data, sono meta-informazioni inserite manualmente nel codice HTML di una pagina per fornire dati aggiuntivi sui siti e sulle pagine e per consentire ai motori di ricerca semantici di classificare meglio il loro contenuto. È un formato standard che consente a Google e agli altri search engine di navigare meglio un sito, di capire le relazioni delle pagine e di ottenere informazioni per comprenderlo e valutarlo meglio.

I microformati vengono definiti da Google stesso come “annotazioni del codice HTML che aggiungono informazioni semantiche”.

Al momento Google utilizza i dati strutturati per query legate ad esempio a eventi (mostrando i protagonisti, la data, la location e la possibilità di acquistare biglietti), ricette (immagini, procedimenti di cottura, tempo richiesto, recensioni degli utenti), articoli, libri, serie TV, e di recente ha introdotto nuovi markup per le FAQ e la pagine How-To.

In sintesi, dunque, i motori di ricerca utilizzano i dati strutturati per tre scopi principali: riconoscere le entity presenti nella pagina, comprendere le relazioni tra queste entità e, in definitiva, restituire all’utente la risposta ritenuta migliore alla query desiderata. 

In genere, Googlebot riesce a riconoscere comunque le entità presenti all’interno delle pagine Web, ma l’utilizzo di dati strutturati garantisce la sicurezza che le informazioni sono prese, interpretare e catalogate nel modo più preciso. 

Tipologie di dati strutturati

Uno dei primi linguaggi impiegati per schematizzare i dati strutturati si chiama RDF (Resource Description Framework), che consente di implementare la conoscenza in proprietà, descrizioni ed entità; il secondo si chiama microdati, che impiega tag e attributi HTML e permette di associare le proprietà degli oggetti nel documento alle entities, così da risalire alla natura e alle caratteristiche degli oggetti. L’utilizzo di entrambi è calato dopo l’introduzione del linguaggio script JSON-LD, che utilizza un oggetto JavaScript nella pagina HTML ed p preferito anche da Google per flessibilità e facilità di utilizzo, visto che si può inserire direttamente nella sezione Head del documento Html.

Da tutto quanto sopra emerge l’estrema importanza di comunicare a Googlebot nel modo migliore attraverso l’utilizzo dei dati strutturati. 

Sante J. Achille, uno dei SEO più famosi nel panorama internazionale, li chiama “steroids metadata”, metadati con gli steroidi :).

Analisi dei dati strutturati

Google mette a disposizione diverse risorse e guide sull’utilizzo dei dati strutturati: tra questi il rich snippet testing tools, https://search.google.com/structured-data/testing-tool

6. Contenuti

L’obiettivo generale è “control what you can control”.

Tramite le strategie di seguito descritte si andrà ad eseguire un’ulteriore fase di ottimizzazione in maniera clinica su tutto quanto c’è online lato gateway. 

Capire perchè una pagina non riesce a salire bene, o non è stabile, e cercare di fare quanto in nostro potere per dare quei segnali che servono a Google per rankarla meglio.

Implementazione canonical e/o noindex 

Sappiamo quanto sia difficile ottimizzare il punto 4 relativa alla velocità di caricamento. Detto questo, quello che possiamo fare per cercare di ottimizzare il punto 3 sul Crawl Budget è cercare di limitare il numero di pagine che non fanno visite in cui il bot si perde nel processo di crawling.

Ottimizzazione Search Intent Gap

Quando si progetta un contenuto e si ottimizza a livello SEO si possono ipotizzare un parco di keywords correlate attinenti. Questo viene fatto inizialmente in fase progettuale con la keywords research e la pianificazione per gli autori.

Tra quello che si può ipotizzare e quello che avviene in realtà c’è differenza ed oggi strumenti come SeoZoom ci vengono in aiuto. Revisionare i contenuti per trovare l’intent gap vuol dire:

  1. analizzare ogni singola pagina
  2. rilevare quali query di ricerca dell’utente che possono essere ottimizzate in base ai contenuti
  3. revisionare il testo in modo naturale per introdurre le nuove chiavi ricerca

Inoltre considerando che ogni giorno vengono effettuate il 15% di nuove query che Google non conosce (fonte: https://searchengineland.com/google-reaffirms-15-searches-new-never-searched-273786) e considerando che vengono fatte 5 miliardi di ricerche al giorno (fonte:https://seotribunal.com/blog/google-stats-and-facts), l’enorme forza di SeoZoom è proprio insita nel funzionamento stesso: spesso Google posiziona la nostra pagina per query che non sono presenti nel testo e che “compaiono” in SeoZoom (si ricorda che SeoZoom monitora solo dalla 51° esima posizione in su).

Ottimizzazione link interni

Non mi soffermo a ribadire quanto la struttura dei link interni e soprattutto quelli che si definiscono  link contestuali sono fondamentali nella SEO di oggi (https://www.link-assistant.com/news/ranking-factors-2020.html,) come confermato anche dallo stesso John Mueller durante un’hangout dei Webmasters Central, https://www.youtube.com/watch?v=oCNi7dTircw&feature=youtu.be&t=2882 

I link interni servono a Google per contestualizzare un contenuto, sia quello linkante che quello che riceve il link.

Con una corretta strategia di link interni possiamo dare ulteriori segnali a Google sul contenuto delle nostre pagine per far si che che le pagine si posizionino meglio per le query di ricerca pertinenti.

7. Stato dell’indicizzazione

In questa voce faccio solitamente rientrare tutto ciò che può vedere Googlebot, quindi si procederà ad un analisi dello stato di indicizzazione del dominio (terzi livelli, cartelle, contenuti, ecc).

La navigazione da dispositivi portatili sta diventando sempre più la forma primaria di accesso a Internet e solo offrendo siti mobile friendly, con strutture responsive o adaptive, contenuti adeguati e risorse facilmente caricabili anche con connettività bassa si può pensare di intercettare traffico.

Le best practice attuali consigliano sempre di concepire siti e web app in ottica Mobile First e responsivi, in grado cioè di adattarsi in maniera ottimale al dispositivo che le richiede.

A seguito di analisi specifiche sullo stato attuale di indicizzazione dei contenuti del dominio, avremo dati sufficienti in ottica ottimizzazione Crawl Budget, si potrà capire come ottimizzare il tutto con la gestione dei canonical e noindex e risolvere eventuali problemi di cannibalizzazione (si parla di cannibalizzazione quando due pagine web diverse competono per le stesse keywords.)

8. Analisi SEO mercato di riferimento

Analisi volta a conoscere lo stato attuale del settore  e dei principali player per poi conoscere eventuali punti di forza e criticità. Individuazione di 10 competitor, diretti e indiretti. 

Individuazione del mercato in base alla definizione di 3-5  topic generici riguardante il settore di attività, da definire insieme al cliente.

Di ogni topic verrà analizzato:

– SERP di riferimento con keywords corrispondente da cui evidenziare i big player del settore (competitor diretti)

– Analisi delle keywords correlate più importanti in base ai volumi di ricerca per individuare nicchie di mercato e definire i competitor diretti di ogni topic.

9. Analisi SEO competitor

esempio: https://docs.google.com/spreadsheets/d/1wU2srPftyPl57I83duGB5QGcbGs2C6uXgo0hHoW55pM/edit#gid=0

  1. Definizione KPI:  SEO oriented e non (es.tipologia sito (ecommerce, editoriale, ecc))
  2. SEO: Quick Audit Performance per ciascun player individuato
  3. Keywords Research: individuazione delle keywords dei competitor

10. Analisi Profilo Backlink

Per conoscere effettivamente tutto ciò che riguarda un sito web, dopo aver analizzato i fattori on page, bisogna effettuare una analisi approfondita del profilo backlink.

Il profilo backlink è uno dei fattori di ranking più importanti ed è quello che determina il Trust di un sito internet. Deve essere verosimilmente naturale, e ci sono diverse strategie per fare questo, ( ricordo che è contro le linee guida di Google acquistare backlink per cercare di aumentare il ranking del sito) e deve essere corredato di importanti fattori esterni come le ricerche branded e le citazioni.

La link building è cambiata enormemente negli ultimi anni: dal primo Penguin all’incorporamento dello stesso everfluxx negli algoritmi di ranking (sì, prima veniva lanciato on demand e per settore), alla nascita della Negative SEO, il tutto ha portato ad un controllo maniacale del proprio profilo backlink.