Google Page Experience

Era nell’aria nella community seo internazionale che i nuovi Core Web Vitals diventassero fattore di ranking, ma dalle teorie alla ufficialità il passo è grande.

Oggi Google in un articolo del suo blog annuncia “Page Experience Update“, “Evaluating page experience for a better web“, e indica i nuovi Core Web Vitals, presentati ad inizi Maggio e già visibili in beta in alcuni account Search Console, come fattori di ranking a partire dal 2021.

Che la velocità di caricamento e la user experience (UX) di una risorsa web fossero già fattori di ranking, è roba vecchia, lo Speed Update, Using page speed in mobile search ranking è di Gennaio 2018, con la facile intuizione che all’aumentare dei tempi di caricamento di una risorsa, aumenta lo stato d’insoddisfazione dell’utente che sta a li ad aspettare, e se i tempi di caricamento diventano biblici, l’utente abbandona.

We encourage developers to think broadly about how performance affects a user’s experience of their page and to consider a variety of user experience metrics. Although there is no tool that directly indicates whether a page is affected by this new ranking factor, here are some resources that can be used to evaluate a page’s performance.

Chrome User Experience Report, a public dataset of key user experience metrics for popular destinations on the web, as experienced by Chrome users under real-world conditions

Lighthouse, an automated tool and a part of Chrome Developer Tools for auditing the quality (performance, accessibility, and more) of web pages

PageSpeed Insights, a tool that indicates how well a page performs on the Chrome UX Report and suggests performance optimizations

La Page Experience

Ma veniamo alla Page Experience, valutare l’esperienza di navigazione e fruizione di una risorsa web, che renderà i nuovi Core Web Vitals come fattore di ranking, un set di metriche relative alla velocità, alla interattività e alla stabilità visuale.

Come vediamo anche sulla documentazione di Google, Understanding page experience in Google Search results, https://developers.google.com/search/docs/guides/page-experience, il “Page Experience Update” si baserà su:

  • Core Web Vitals
  • Mobile Friendly
  • Navigazione sicura
  • HTTPS
  • Pubblicità intrusiva invadente

Facciamo un attimo una carrellata dal secondo per poi approfondire i Core Web Vitals. Ormai il Mobile Friendly è diventato uno standard di sviluppo; all’epoca della sua nascita si parlò di un vero e proprio Mobilegeddon, era aprile 2015 e Google lanciava Mobile Friendly Update. La navigazione sicura è sempre stato un pallino da parte di Google, partita con l’introduzione dell’utilizzo di HTTPS come fattore di ranking. A riguardo della pubblicità invasiva invadente, era Gennaio 2017 in cui Google lanciò Intrusive Interstitial Update, la penalizzazione per l’utilizzo di pubblicità interstiziale invadente per dispositivi mobili.

Mentre i tradizionali fattori di ranking di Google erano originariamente concentrati sul valore informativo delle pagine e sui segnali di fiducia come i profili di backlink, l’esperienza della pagina è ancora un altro passo che Google sta compiendo per misurare come gli utenti sperimentano effettivamente le pagine che vengono mostrate nelle SERP.

Google vuole fornire ai suoi utenti che navigano nelle SERP la migliore esperienza possibile. L’esperienza della pagina verrà introdotta come fattore di ranking nel 2021 per garantire che i siti di alta qualità, a caricamento rapido e ottimizzati per i dispositivi mobili siano promossi per raggiungere più utenti.

Aggiungendo l’esperienza della pagina alle centinaia di segnali che Google prende in considerazione quando classifica i risultati di ricerca, miriamo ad aiutare le persone ad accedere più facilmente alle informazioni e alle pagine web che stanno cercando e supportare i proprietari dei siti nel fornire un’esperienza che gli utenti apprezzano.

Una cosa importante da notare è che la qualità dei contenuti e la pertinenza delle query degli utenti saranno ancora cruciali per le classifiche.

Una pagina con contenuti di bassa qualità che si carica velocemente non sarà necessariamente posizionata più in alto di una pagina con contenuti pertinenti e di alta qualità.

Vediamo direttamente ciò che scrive Google nella sua documentazione su quelli che sono i segnali di esperienza di pagina, cioè quei parametri che verranno utilizzati dal prossimo Search Experience Update

Core Web Vitals: le metriche

Come dicevamo sopra i Core Web Vitals sono un set di metriche relative alla velocità, alla interattività e alla stabilità visuale. Web Vitals è un’iniziativa di Google per fornire una guida unificata per segnali di qualità essenziali per offrire un’ottima esperienza utente sul Web.

  1. LCP: Largest Contentful Paint, Disegno del primo blocco più grande
  2. FID: First Input Delay, Ritardo della Prima Interazione
  3. CLS: Cumulative Layout Shift, Variazione Cumulativa del Layout

Il Largest Contentful Paint (LCP), Disegno del primo blocco più grande, misura l’intervallo di tempo tra l’inizio del caricamento di una pagina e il rendering completo dell’immagine o del blocco di testo più grande nella visualizzazione di un utente. E’ la metrica relativa alle prestazioni di caricamento.
La metrica First Input Delay (FID), in italiano Ritardo della Prima Interazione, misura il tempo necessario affinché una pagina sia pronta per l’interattività dell’utente, a rispondere a clic, scroll o input da tastiera. E’ la metrica relativa all’interattività.
Il Cumulative Layout Shift (CLS), Variazione Cumulativa del Layout è la metrica che misura la stabilità visuale di una risorsa web relativa alla manipolazione del DOM o alla mancanza di attributi di dimensione per i principali elementi multimediali, che, durante il caricamento, fanno si che il contenuto si “sposti” fastidiosamente.

Ognuna di queste metriche, come si vede sopra dalle indicazioni in tabella dalla documentazione ufficiale, ha dei valori di riferimento:

Per ciascuna delle metriche di cui sopra, per assicurarti di raggiungere l’obiettivo consigliato per la maggior parte dei tuoi utenti, una buona soglia da misurare è il 75 ° percentile di caricamenti di pagina, segmentato su dispositivi mobili e desktop.

Gli strumenti che valutano la conformità di Core Web Vitals devono considerare il passaggio di una pagina se soddisfa gli obiettivi consigliati al 75 ° percentile per tutte le tre metriche precedenti.

Core Web Vitals Tools per la misurazione

Per la misurazione dei paramenti web essenziali ad oggi sono disponibili diversi tools:

Questi strumenti si basano su dati raccolti dalla Chrome User Experience, un set di dati pubblici e metriche sull’esperienza utente provenienti dagli utenti che utilizzano Chrome in condizioni reali.

SEO Audit: cos’è e come farla da professionista in 10 punti

La SEO Audit è un’analisi volta a conoscere lo stato dell’attuale sito internet, le sue performance e tutti i parametri SEO  On-Page e Off-Page fondamentali (struttura, tipologie di contenuti, duplicazioni, tag, sistemi di linking, aree e categorie, popolarità e backlink) per conoscere eventuali punti di forza e criticità.

I punti che ti andrò ad elencare e spiegare brevemente rappresentano il mio Framework, la mia metodologia di lavoro quando faccio una SEO Audit o mi accingo a fare un preventivo SEO per un cliente importante (sì, per clienti e realtà piccole il processo può essere molto più semplice)

Nello specifico verranno analizzati:

  1. Struttura 
  2. Layout HTML
  3. Crawl Budget
  4. Speed performance
  5. Dati strutturati
  6. Contenuti
  7. Stato dell’indicizzazione
  8. Analisi SEO mercato di riferimento
  9. Analisi SEO competitor
  10. Profilo Backlink

Solitamente dalle analisi emergono situazioni diverse, aspetti e criticità sulle quali poter andare a lavorare subito per ottimizzare il tutto lato SEO.

1. Struttura

La struttura di un sito internet è fondamentale sia per gli utenti che per Googlebot.

I livelli di navigazione, pagine gateway che fungono da hub, bisogna sempre cercare di ottimizzare secondo “la regola dei 3 click”, in cui ogni contenuto del sito dovrebbe essere raggiungibile dalla home page con al massimo 3 click.

La struttura di un sito è determinante lato SEO. I “livelli”, la distanza cioè dalla home page di una risorsa web, sono fondamentali per far capire a Google l’importanza della risorsa linkata.

Più aumentano il numero delle pagine web del sito, più questo aspetto diventa determinante.

2. Layout HTML

Oltre ad effettuare un analisi del codice (quindi rivedere meta, headings, ecc ), ricordiamo che Google è una macchina che legge codice, il layout HTML che un sito utilizza determina quella che viene chiamata esperienza di navigazione dell’utente. Dall’introduzione del concetto di Mobile First Indexing a marzo 2018, https://webmasters.googleblog.com/2018/03/rolling-out-mobile-first-indexing.html, e con un occhio di riguardo anche alle speed performance, possiamo analizzare il template andando ad identificare criticità o migliorie evidenti.

3. Crawl Budget

Nonostante non se ne parli con grande frequenza, è un parametro molto importante che nel tempo ha avuto sempre più peso, soprattutto per siti di determinate dimensioni. Più aumenta il numero di pagine da scansionare  e indicizzare, più aumenta il numero di risorse che GoogleBot deve utilizzare. Il concetto di Crawl Budget può essere visto attraverso i due parametri Crawl Limit e Crawl Demand

Crawl Rate Limit

Indica il limite di connessioni simultanee che Googlebot può usare per fare la scansione del sito, ma rappresenta anche il tempo che aspetterà tra una scansione e l’altra. Esprime quella che viene chiamata capacità di Crawling: se un sito risponde davvero velocemente alle visite da parte del bot, allora automaticamente il “Crawl Limit” sarà spostato verso l’alto. Se invece il sito rallenta o si verificano errori lato server, il limite si abbassa e il bot farà meno scansioni.

Crawl Demand

Indica l’esigenza di scansione, ovvero quanto il bot percepisca come obsoleto il contenuto di certe URL. In occasione di eventi speciali che riguardano l’intero sito come le migrazioni, il cambio di template, il Crawl Demand cresce in quanto c’è necessità di indicizzare un sito sotto nuove URL.

“E se il crawler di Google passa spesso in pagine che non ci portano traffico? E se il numero delle pagine da indicizzare aumenta ma possediamo una quantità limitata di risorse disponibili?“

L’analisi del Crawl Budget

Innanzitutto, oltre ai parametri di Seozoom che esprimono delle metriche a parte, bisogna  capire qual è la frequenza e la profondità di scansione da parte di GoogleBot. GSC fornisce delle metriche da poter considerare come KPI ma per capire precisamente i dati vanno analizzati i log del server tramite tool lato server come Apache Logs Viewer o software come Log File Analyzer.

4. Speed performance

Per andare a ottimizzare questo punto va fatta analisi specifica con Google Lighthouse e seguendo le sue indicazioni punto per punto, come appena visto in ottica Crawl Budget e peso di una pagina web.

La maggior parte delle indicazioni di Lighthouse richiederanno di intervenire sul codice stesso del portale e del layout. 

Il peso di una pagina web e di conseguenza tempi di risposta e di caricamento sappiamo quanto influiscono non solo come fattori di ranking ma come fattori di conversione.

Per siti di grandi dimensioni, interventi volti ad ottimizzare i tempi di caricamento di una singola pagina si ripercuotono a livello macro in quella attività di ottimizzazione del Crawl Budget visto al punto 1.3.  Più una pagina è leggera e si carica velocemente, meno GoogleBot spenderà risorse, più risorse avrà disponibili quindi per scansionare altre pagine del sito, aumentando di conseguenza la capacità di crawling.

Qui uno studio specifico sulla percezione delle performance di caricamento: https://hpbn.co/primer-on-web-performance/#speed-performance-and-human-perception

Qui i dati Kissmetrics

https://www.insidemarketing.eu/cdn/wp-content/uploads/2016/06/tasso-di-abbandono-velocit%C3%A0-di-upload.jpg

DoubleClick di Google dice che il 53%  dei visitatori da mobile abbandona il sito se la pagina richiede più di 3 secondi di caricamento. https://developers.google.com/web/fundamentals/performance/why-performance-matters/

  1. 53% of visits are likely to be abandoned if pages take longer than 3 seconds to load6
  2. One out of two people expect a page to load in less than 2 seconds
  3. 46% of people say that waiting for pages to load is what they dislike the most when browsing the web on mobile devices

https://www.blog.google/products/admanager/the-need-for-mobile-speed/

Dati Febbraio 2018

https://www.thinkwithgoogle.com/marketing-resources/data-measurement/mobile-page-speed-new-industry-benchmarks/

4. Dati strutturati

I dati strutturati, in inglese Structured Data, sono meta-informazioni inserite manualmente nel codice HTML di una pagina per fornire dati aggiuntivi sui siti e sulle pagine e per consentire ai motori di ricerca semantici di classificare meglio il loro contenuto. È un formato standard che consente a Google e agli altri search engine di navigare meglio un sito, di capire le relazioni delle pagine e di ottenere informazioni per comprenderlo e valutarlo meglio.

I microformati vengono definiti da Google stesso come “annotazioni del codice HTML che aggiungono informazioni semantiche”.

Al momento Google utilizza i dati strutturati per query legate ad esempio a eventi (mostrando i protagonisti, la data, la location e la possibilità di acquistare biglietti), ricette (immagini, procedimenti di cottura, tempo richiesto, recensioni degli utenti), articoli, libri, serie TV, e di recente ha introdotto nuovi markup per le FAQ e la pagine How-To.

In sintesi, dunque, i motori di ricerca utilizzano i dati strutturati per tre scopi principali: riconoscere le entity presenti nella pagina, comprendere le relazioni tra queste entità e, in definitiva, restituire all’utente la risposta ritenuta migliore alla query desiderata. 

In genere, Googlebot riesce a riconoscere comunque le entità presenti all’interno delle pagine Web, ma l’utilizzo di dati strutturati garantisce la sicurezza che le informazioni sono prese, interpretare e catalogate nel modo più preciso. 

Tipologie di dati strutturati

Uno dei primi linguaggi impiegati per schematizzare i dati strutturati si chiama RDF (Resource Description Framework), che consente di implementare la conoscenza in proprietà, descrizioni ed entità; il secondo si chiama microdati, che impiega tag e attributi HTML e permette di associare le proprietà degli oggetti nel documento alle entities, così da risalire alla natura e alle caratteristiche degli oggetti. L’utilizzo di entrambi è calato dopo l’introduzione del linguaggio script JSON-LD, che utilizza un oggetto JavaScript nella pagina HTML ed p preferito anche da Google per flessibilità e facilità di utilizzo, visto che si può inserire direttamente nella sezione Head del documento Html.

Da tutto quanto sopra emerge l’estrema importanza di comunicare a Googlebot nel modo migliore attraverso l’utilizzo dei dati strutturati. 

Sante J. Achille, uno dei SEO più famosi nel panorama internazionale, li chiama “steroids metadata”, metadati con gli steroidi :).

Analisi dei dati strutturati

Google mette a disposizione diverse risorse e guide sull’utilizzo dei dati strutturati: tra questi il rich snippet testing tools, https://search.google.com/structured-data/testing-tool

6. Contenuti

L’obiettivo generale è “control what you can control”.

Tramite le strategie di seguito descritte si andrà ad eseguire un’ulteriore fase di ottimizzazione in maniera clinica su tutto quanto c’è online lato gateway. 

Capire perchè una pagina non riesce a salire bene, o non è stabile, e cercare di fare quanto in nostro potere per dare quei segnali che servono a Google per rankarla meglio.

Implementazione canonical e/o noindex 

Sappiamo quanto sia difficile ottimizzare il punto 4 relativa alla velocità di caricamento. Detto questo, quello che possiamo fare per cercare di ottimizzare il punto 3 sul Crawl Budget è cercare di limitare il numero di pagine che non fanno visite in cui il bot si perde nel processo di crawling.

Ottimizzazione Search Intent Gap

Quando si progetta un contenuto e si ottimizza a livello SEO si possono ipotizzare un parco di keywords correlate attinenti. Questo viene fatto inizialmente in fase progettuale con la keywords research e la pianificazione per gli autori.

Tra quello che si può ipotizzare e quello che avviene in realtà c’è differenza ed oggi strumenti come SeoZoom ci vengono in aiuto. Revisionare i contenuti per trovare l’intent gap vuol dire:

  1. analizzare ogni singola pagina
  2. rilevare quali query di ricerca dell’utente che possono essere ottimizzate in base ai contenuti
  3. revisionare il testo in modo naturale per introdurre le nuove chiavi ricerca

Inoltre considerando che ogni giorno vengono effettuate il 15% di nuove query che Google non conosce (fonte: https://searchengineland.com/google-reaffirms-15-searches-new-never-searched-273786) e considerando che vengono fatte 5 miliardi di ricerche al giorno (fonte:https://seotribunal.com/blog/google-stats-and-facts), l’enorme forza di SeoZoom è proprio insita nel funzionamento stesso: spesso Google posiziona la nostra pagina per query che non sono presenti nel testo e che “compaiono” in SeoZoom (si ricorda che SeoZoom monitora solo dalla 51° esima posizione in su).

Ottimizzazione link interni

Non mi soffermo a ribadire quanto la struttura dei link interni e soprattutto quelli che si definiscono  link contestuali sono fondamentali nella SEO di oggi (https://www.link-assistant.com/news/ranking-factors-2020.html,) come confermato anche dallo stesso John Mueller durante un’hangout dei Webmasters Central, https://www.youtube.com/watch?v=oCNi7dTircw&feature=youtu.be&t=2882 

I link interni servono a Google per contestualizzare un contenuto, sia quello linkante che quello che riceve il link.

Con una corretta strategia di link interni possiamo dare ulteriori segnali a Google sul contenuto delle nostre pagine per far si che che le pagine si posizionino meglio per le query di ricerca pertinenti.

7. Stato dell’indicizzazione

In questa voce faccio solitamente rientrare tutto ciò che può vedere Googlebot, quindi si procederà ad un analisi dello stato di indicizzazione del dominio (terzi livelli, cartelle, contenuti, ecc).

La navigazione da dispositivi portatili sta diventando sempre più la forma primaria di accesso a Internet e solo offrendo siti mobile friendly, con strutture responsive o adaptive, contenuti adeguati e risorse facilmente caricabili anche con connettività bassa si può pensare di intercettare traffico.

Le best practice attuali consigliano sempre di concepire siti e web app in ottica Mobile First e responsivi, in grado cioè di adattarsi in maniera ottimale al dispositivo che le richiede.

A seguito di analisi specifiche sullo stato attuale di indicizzazione dei contenuti del dominio, avremo dati sufficienti in ottica ottimizzazione Crawl Budget, si potrà capire come ottimizzare il tutto con la gestione dei canonical e noindex e risolvere eventuali problemi di cannibalizzazione (si parla di cannibalizzazione quando due pagine web diverse competono per le stesse keywords.)

8. Analisi SEO mercato di riferimento

Analisi volta a conoscere lo stato attuale del settore  e dei principali player per poi conoscere eventuali punti di forza e criticità. Individuazione di 10 competitor, diretti e indiretti. 

Individuazione del mercato in base alla definizione di 3-5  topic generici riguardante il settore di attività, da definire insieme al cliente.

Di ogni topic verrà analizzato:

– SERP di riferimento con keywords corrispondente da cui evidenziare i big player del settore (competitor diretti)

– Analisi delle keywords correlate più importanti in base ai volumi di ricerca per individuare nicchie di mercato e definire i competitor diretti di ogni topic.

9. Analisi SEO competitor

esempio: https://docs.google.com/spreadsheets/d/1wU2srPftyPl57I83duGB5QGcbGs2C6uXgo0hHoW55pM/edit#gid=0

  1. Definizione KPI:  SEO oriented e non (es.tipologia sito (ecommerce, editoriale, ecc))
  2. SEO: Quick Audit Performance per ciascun player individuato
  3. Keywords Research: individuazione delle keywords dei competitor

10. Analisi Profilo Backlink

Per conoscere effettivamente tutto ciò che riguarda un sito web, dopo aver analizzato i fattori on page, bisogna effettuare una analisi approfondita del profilo backlink.

Il profilo backlink è uno dei fattori di ranking più importanti ed è quello che determina il Trust di un sito internet. Deve essere verosimilmente naturale, e ci sono diverse strategie per fare questo, ( ricordo che è contro le linee guida di Google acquistare backlink per cercare di aumentare il ranking del sito) e deve essere corredato di importanti fattori esterni come le ricerche branded e le citazioni.

La link building è cambiata enormemente negli ultimi anni: dal primo Penguin all’incorporamento dello stesso everfluxx negli algoritmi di ranking (sì, prima veniva lanciato on demand e per settore), alla nascita della Negative SEO, il tutto ha portato ad un controllo maniacale del proprio profilo backlink. 

Google Search Engine Ranking Factors 2011

Seomoz, qualche anno luce fa (2005), introdusse il concetto di “Search Engine Ranking Factors“, ma questo ormai lo sappiamo tutti.

Volendo esaminare come sta cambiando, e come cambierà in futuro il modo di fare SEO, vediamo da dove siamo partiti secondo Seomoz:

2005

  1. Uso della keyword nel Tag Title
  2. Anchor text dei backlinks
  3. Uso della keyword nel documento
  4. Accessibilità del documento
  5. Link che il documento riceve, e anchor, dall’interno del sito

2007

  1. Uso della keyword nel Tag Title
  2. Link popularity globale del sito
  3. Anchor text dei backlinks
  4. Link Popularity e struttura di linking del sito
  5. Anzianità del dominio

2009

  1. Anchor text dei backlinks
  2. Uso della keyword nel Tag Title
  3. Link Popularity
  4. Diversità dei domini da cui provengono i backlink
  5. Parola chiave usata nei nomi a dominio

Ma davvero siamo ancora fermi a questo punto?

Diamo un’occhiata alla rete e vediamo se troviamo qualcosa di più interessante. Tra i primi 2 risultati della query “Search Engine Ranking Factors 2011” su Google.com troviamo Searchenginewatch e Seroundtable

Searchenginewatch ci parla di:

Deeplinking – spero bene che sia uno “strumento” acquisito

CTR nelle Serp – e anche questo spero sia un fattore acquisito, visto che se ne parlava nell’ormai centenario brevetto sui dati storici – sezione comportamento utenti 

“il motore di ricerca può monitorare il numero delle volte che un documento è selezionato da un insieme di risultati di una ricerca e/o la quantità di tempo che uno o più utenti spendono accedendo al documento”

Posizionamento organico e Local Business –  chi non si è ancora accorto dell’importanza della presenza, e quindi dell’ottimizzazione, dei Local Business e della sua integrazione con la serp organica dovrebbe quantomeno preoccuparsi 🙂

Leggendo Search Engine Land troviamo poi:

Social Ranking: già tempo fa Danny Sullivan aveva scritto un articolo riguardante l’importanza della presenza sui Social Network e sull’autorevolezza dei profili sociali. Qualunque SEO con un pò di buon senso e un po di esperienza aveva già capito che anche se i link dai Social Network uscissero in nofollow, una certa autorevolezza aiutava comunque il ranking sull’organico (e quindi i nofollow venivano in un certo qualsenso considerati follow). Sempre in una intervista di quache mese fa di Danny Sullivan a Google e Bing, apparsa su Seomoz, c’è la conferma ufficiale di come Twitter e Facebook possano aiutare il posizionamento organico.

E non dimentichiamo di aggiungere Google stesso come fonte ufficiale:

Speed Ranking: c’è sempre stato il segnale che molti ma non tutti erano pronti a recepire e cioè che la velocità di risposta del server e del caricamento della pagina potesse influenzare il ranking sull’organico. Ne aveva parlato Matt Cutts ad aprile dello scorso anno dopodichè  Google stesso ne diede conferma.

Personalmente poi introdurrei un fattore vecchio che ritengo sarà veramente determinante in futuro, visto anche gli ultimi sviluppi relativi a Panda Update, e cioè l’autorevolezza del dominio, e quindi i backlink da siti ufficiali, governativi e hub.

Quindi, personalmente direi che le novità riguardanti i “Search Engine Ranking Factors 2011” si potrebbero riassumere, in ordine sparso:

  1. Speed ranking
  2. Social Ranking
  3. Site autority (Link popularity)

GUS: Google Universal Search

E come non riprendere poi un articolo sulla nascita della Universal Search di Google 🙂

Leggi fino alla fine mi raccomdando, ti aspettano i deliri dell’epoca 😀

GUSGoogle Universal Search…perchè Google non era abbastanza universale?

A quanto pare no!

Si poteva fare di meglio, ed è quanto stanno cercando di fare al Googleplex i Google Fellow (ingegneri d’elite del Search Quality Team) sviluppando un nuovo tipo di ricerca verticale in grado di restituire all’utente che effettua una query diversi tipi di risultati e “formati”.

Dei cambiamenti di Google, nelle ultime due settimane, se ne parla ovunque ormai: dalle ricerche correlate alle novità apportate con le prime applicazioni dell’Universal Search.

Per quei pochi che non hanno avuto la possibilità di connettersi ad internet nelle ultime settimane (…) ricordiamo cos’è GUS: l’Universal Search di Google è la nuova interfaccia di ricerca del motore americano; d’ora in poi sarà possibile accedere direttamente dall’home page del search engine più famoso ed usato al mondo a diversi tipi di formati come immagini, video, mappe, news e libri tanto per citarne alcuni, sfruttando appieno le potenzialità dei diversi database del gigante californiano.

Amit Singhal, direttore del Search Quality Departament, in una recente intervista al New York Times:

“La ricerca negli ultimi anni si è mossa da “Dammi quello che ho cercato” verso “Dammi quello che voglio“.”

Questo conferma la filosofia di Google che è quella di fornire all’utente ciò che cerca, ma che, per alcuni tipi di ricerche, non era di semplice attuazione. Basti pensare a determinati termini molto generici come “Apple” o “pesca” per evincere le difficoltà incontrate dagli ingegneri nel cercare di capire cosa sta effettivamente cercando l’utente.

universal-search-shoot.jpg

Nonostante GUS venga implementato e potenziato nel tempo, ci sono già alcune query di ricerca, come quella mostrata a lato, che ne mostrano le potenzialità: immagini, video, ricerche correlate e news.

Il lavoro di SEO negli ultimi tempi si è evoluto, e non poco: si è passati da un SEO prettamente tecnico, ad un SEO molto più vicino e soprattutto legato al marketing e alla promozione a 360 gradi, tante sono state, infatti, le innovazioni che hanno determinato un sostanziale cambiamento nel lavoro quotidiano di ogni SEO.

Così come si sta evolvendo il lavoro di SEO, già in corso da diverso tempo, così Google continua ad evolvere e a cambiare.

Una delle innovazioni sotto gli occhi di tutti che Universal Search apporterà nel lavoro di SEO, sarà quello di posizionare nei risultati organici video, immagini, news, libri e mappe.

Premetto che non ho fatto test al riguardo, ma sono dell’idea che ogni risultato di ricerca nell’organico viene valutato come un singolo documento da estrarre durante il processamento della query di ricerca; ovviamente a seconda dei documenti esistono diversi parametri di ottimizzazione che difficilmente possono essere mischiati; nell’informatica, in generale, è difficile paragonare elementi appartenenti a famiglie differenti.

Mentre per mappe e libri penso sia difficile che gli algoritmi di ranking considerino gli stessi parametri di ottimizzazione conosciuti finora per i documenti testuali, il mio “SEO SENSE” mi fa supporre che posizionare video e immagini non sarà troppo diverso dal posizionare un qualsiasi altro documento nell’organico (doc, pdf, etc)

Prendo ad esempio il posizionamento di un video per spiegarmi meglio.

Così come per i documenti testuali esistono diversi parametri di ottimizzazione interna ed esterna, title e backlink, rilevanza e popolarità tanto per dirne alcuni, o per le immagini, alt, prossimità e metadati, così ci saranno altri fattori da ottimizzare per posizionare un video di youtube nei risultati organici.

A prima vista, guardando una pagina di youtube, penso al title, alla descritpion, ai tag, ai commenti e aggiungerei backlink, comportamento e preferenze dell’utente.

Andando contro corrente mi vien da pensare: perchè devo fare boombing su un video di youtube o matecafe, accrescendo sempre di più la popolarità degli stessi con deeplink?

Mi spiego: se fino ad ora il deeplink veniva usato per spingere una determinata pagina del nostro sito, accrescendo comunque la link popularity del dominio, e, di conseguenza, se fatto con i dovuti crismi, il trust dello stesso, perchè dovrei fare deeplink (boombing con anchor text) su un sito di proprietà di Google come youtube?

Sarebbe interessante se si riuscisse a posizionare in Universal Search una pagina del nostro sito con un video.

Sicuramente è presto per parlarne, ma in tutte le serp che ho visto, i risultati con video fanno sempre capo agli stessi siti: Youtube, Matecafe e Google Video (non ho mai visto Yahoo Video); non vorrei, quindi, che GUS diventi uno strumento per accrescere ancora di più (ce n’è bisogno?) il monopolio di Google, non in termini di uso e servizi, ma in termini di presenza dei “siti di Google” in una serp organica.

Sto delirando, lo so, ma spero che qualcuno abbia capito il mio ragionamento.

Come creare un sito di successo?

Questo scrivevo nel lontano 2007 🙂

NOTA BENE: nel 2007 Google non interpretava Javascript e altri linguaggi lato client di oggi, ora nel 2019 SI e lo fa già da un certo periodo 🙂

Ricordo i primi test nella comunità seo di quegli anni per capire se il crawler seguisse i link generati in javascript o no

Approfondimenti attuali sul tema:
https://webmasters.googleblog.com/2015/10/deprecating-our-ajax-crawling-scheme.html

Times have changed. Today, as long as you’re not blocking Googlebot from crawling your JavaScript or CSS files, we are generally able to render and understand your web pages like modern browsers. To reflect this improvement, we recently updated our technical Webmaster Guidelines to recommend against disallowing Googlebot from crawling your site’s CSS or JS files.

I primi 5 punti essenziali per sviluppare un sito di successo

1. Il nome a dominio

Il nome a dominio è uno dei primi punti che decreta il successo o il fallimento di un sito: nomi troppo lunghi o difficili da ricordare sono da evitare, meglio concentrarsi su nomi brevi e che contengano nel nome almeno un accenno all’ attività principale del sito. Questo per una duplice ragione: per l’ utente, che ricorderà più facilmente il nome del sito e che già dal nome potrà capire di cosa tratta il sito; per i motori di ricerca, che ancora danno molta considerazione alle keyword contenute nell’ url del sito.

2. Il server

La scelta del servizio di hosting o di un server dedicato, con ip dedicato, molte volte decreta da solo il successo o il fallimento di un sito: troppo spesso infatti si incorre in un servizio di hosting a basso prezzo, con tempi di rispostalunghi che disturbano i visitatori e che li spingono a spingere il tasto back nel browser, o addirittura si incontrano periodi di down del server in cui il sito non può essere raggiunto, perdendo visitatori, potenziali clienti se si tratta di un’ attività, e ledendo comunque l’ immagine generale del sito: per non parlare poi se il sito è stato raggiunto da Google, che potrebbe tener conto delle preferenze dell’ utente tra una serp e dei tempi di permanenza nel sito stesso

3. Il linguaggio di sviluppo

Il linguaggio di programmazione con cui si sviluppa un sito internet determina il successo o meno dello stesso sui motori di ricerca: molti webmaster, termine che non ha più molto significato con l’ avvento del nuovo modo di fare web, in cui diverse figure si occupano dello sviluppo di un progetto su internet, si affidano ancora prettamente a linguaggi di sviluppo lato client come javascript per favorire l’ utente in diverse applicazioni che permettano la personalizzazione di diversi strumenti e applicazioni del sito, non considerando che i motori di ricerca difficilmente considerano i linguaggi lato client. Un motore di ricerca legge il codice di una pagina web, codice che viene generato dal server: i linguaggi lato client come javascript sono usati per gestire applicazioni web che vengono interpretate invece dal browser dell’ utente, e perciò non acquisibili dal motore di ricerca. La scelta del linguaggio di sviluppo deve essere fatta ad hoc, sia per le applicazioni lato server, in modo da far indicizzare correttamente i contenuti del sito dai motori di ricerca, sia per le applicazioni lato client intepretate dal browser e che non necessitano dell’ indicizzazione sui motori, come ad esempio la personalizzazione del layout grafico del sito.

4. Il sito Usabilità

Un sito internet di successo deve essere usabile, user-friendly, in modo da garantire la soddisfazione dell’ utente che vi accede in cerca dell’ informazione desiderata. L’ usabilità, solo recentemente codificata dalla norma ISO 9241 come “il grado in cui un prodotto può essere usato da particolari utenti per raggiungere certi obiettivi con efficacia, efficienza e soddisfazione in uno specifico contesto d’ uso”, è un concetto molto antecedente: nasce negli anni 60 a seguito del concetto di interazione uomo-artefatto, si sviluppa poi in ambito informatico e soprattutto con l’ avvento di Internet, grazie a Jakob Nielsen e al suo decalogo sull’ usabilità.

4.1. Accessibilità

L’ accessibilità è la capacità di un servizio o di una risorsa d’ essere fruibile con facilità da un qualsiasi utente. Il termine è comunemente associato alla possibilità anche per persone con ridotta o impedita capacità sensoriale, motoria, o psichica, di fruire dei sistemi informatici e delle risorse software a disposizione. In internet tutto ciò si traduce nella facilità di fruizione da parte di diversi tipi di browser utilizzati per la navigazione in internet, non dimenticandoci di considerare browser datati o browser particolari utilizzati da persone diversamente abili che leggono solamente il testo di una pagina web. Per realizzare un sito accessibile si consiglia di seguire i parametri di sviluppo del W3C, il World Wide Web Consortium, l’ unico organo mondiale su internet che cerca di fissare degli standards di sviluppo per le applicazioni web, e in particolar modo le linee guida per la WAI Accessibility .

4.2 Utilità

Un sito internet, per avere successo e non rimanere nel limbo dei centinaia di milioni di siti anonimi, deve essere utile, deve cioè fornire informazioni e servizi utili al navigatore. Un sito utile, nel suo settore di appartenenza, deve essere utile per gli utenti, che decretano il successo o il fallimento del sito stesso, i quali, se soddisfatti, promuoveranno in maniera gratuita il sito stesso parlandone con amici e conoscenti. Un sito utile verrà facilmente linkato spontaneamente da altri siti a tema dello stesso, aumentandone così sia la popolarità su internet che le visite e il traffico generato dal sito.

5. La struttura

Con il termine struttura di un sito web si intende sia l’ organizzazione tassonomica dello stesso che l’ organizzazione delle diverse aree di una singola pagina web.

5.1 La tassonomia

Il termine Tassonomia si riferisce alla classificazione gerarchica di argomenti e concetti. Qualsiasi concetto può essere classificato attraverso schema tassonomico: un organizzazione gerarchica per categorie del concetto stesso. Da wikipedia:

“Secondo la matematica una tassonomia è una struttura ad albero di istanze (o categorie) appartenenti ad un dato gruppo di concetti. A capo della struttura c’ è un’ istanza singola, il nodo radice, le cui proprietà si applicano a tutte le altre istanze della gerarchia (sotto-categorie). I nodi sottostanti a questa radice costituiscono categorie più specifiche le cui proprietà caratterizzano il sotto-gruppo del totale degli oggetti classificati nell’ intera tassonomia.”

Attraverso il corretto sviluppo della tassonomia, organizzando il sito in macro – categorie, categorie e sotto categorie, si persegue il duplice scopo di realizzare un sito facilmente navigabile, rispettando quindi uno dei criteri dell’ usabilità, secondo i classici criteri di sviluppo e navigazione ad albero o a rete, sia maggiormente digeribile e classificabile dai motori di ricerca, che riescono a interpretare, tramite l’ utilizzo di diversi algoritmi, il tema sviluppato da una singola pagina web.

5.2 Le aree di una pagina

All’ interno della struttura di un sito internet, e più in particolare di una pagina web, è molto importante riuscire a disegnare e ottimizzare le diverse aree che compongono la pagina web, non solo pensando ai motori di ricerca, ma soprattuto all’ utente che si trova a navigare e a leggere i contenuti. Scrivere per il web è sostanzialmente diverso che scrivere nel modo tradizionale: la lettura a video, infatti, risulta molto più fastidiosa che la lattura su formato cartaceo. Questo porta l’ utente a scorrere velocemente i contenuti della pagina, soffermandosi sulle parole chiavi e sulle frasi che più lo colpiscono e lo interessano. Per questo diventa fondamentale non solo ottimizzare le aree di una pagina web ma riuscire a scrivere testi leggibili, con la corretta formattazione: quante volte vi siete imbattuti nei cosiddetti “muri di testo” e avete rinunciato alla lettura del contenuto?

Il decalogo dell’usabilità

Sempre attuale, anche se scritto oltre 10 anni fa 🙂

Le dieci linee guida più importanti da rispettare secondo Nielsen per rendere un’ applicazione web usabile

Quella che per molti può sembrare una lotta al cattivo design, è per Nielsen una “battaglia per il buon design”: per cercare di rendere un’ applicazione web usabile ci si può riferire alle sue 10 linee guida, generali ed adattabili ad ogni realtà digitale, anche conosciute come il “decalogo dell’usabilità”:

Coerenza: l’utente che naviga fra i documenti, non dovrebbe mai chiedersi se parole, immagini, pulsanti, situazioni o azioni diverse hanno lo stesso significato; “situazioni simili” devono essere coerenti nelle azioni, nella terminologia, nei colori, nello stile, nei caratteri e così via; la coerenza va applicata alla grafica (stessa presentazione grafica = stessa informazione), agli effetti (stesso comando = stesso effetto, stessa azione conseguente), alla presentazione (stessa informazione = stessa posizione).Ci vuole coerenza anche rispetto agli standard e alle convenzioni, ciò significa, che l’utente si aspetta di poter interagire con il nostro sistema allo stesso modo in cui fa con altri siti (ad es. quando si trova una frase sottolineata e, magari contrassegnata dal colore blu, si presume di avere a che fare con un link). La mancanza di coerenza porta ad una perdita di affidabilità e genera confusione.

Feedback: il feedback rappresenta l’informazione di ritorno in risposta a qualsiasi azione dell’utente sull’interfaccia ed ha lo scopo di rendere visibile all’utente lo stato corrente del sistema, in modo da evitare errori, incomprensioni o blocchi nell’interazione (ad es. quando si invia una form, il sistema dovrebbe dare il messaggio d’invio avvenuto, la comparsa di un indicatore d’avanzamento che indica il tempo necessario per eseguire un’operazione, emissione di un segnale sonoro che indica che si sta cercando di compiere un’azione non consentita ecc…). Importantissimi sono gli indicatori di “progress” per indicare la transazione in corso, poiché è stato appurato che già dopo un secondo l’utente avverte il ritardo del sistema nella risposta e, dopo 8 secondi il 50% di questi, abbandona il sito.

Uscite chiaramente indicate: il sistema non deve mai imprigionare l’utente in situazioni che non hanno via d’uscita visibili (ritorni alla pag. precedente, successiva, all’home page…), né limitare la sua libertà di movimento. L’utente deve avere la sensazione di avere tutto sotto controllo; deve poter prevedere gli effetti delle proprie azioni (es. avvertire delle dimensioni di un file prima di scaricarlo).

Prevenzione degli errori: è meglio evitare che un problema si presenti piuttosto che prevedere vari messaggi di errore, ma commettere degli errori nell’interazione con un prodotto è naturale. L’errore non è altro che un’azione specificata in modo incompleto o inesatto e, proprio perché gli errori sono sempre possibili, è importante che il sistema sia progettato in modo da diagnosticarli e facilitarne la correzione (es. fornire funzionalità d’annullamento delle operazioni, fornire una messaggistica efficace, evitare di presentare pagine senza opzioni di navigazione, rendere sempre disponibili le funzioni per uscire dal programma o per ritornare all’home page).

Messaggi d’errore semplici: in caso di errore i messaggi devono essere costruttivi, in altre parole orientare l’utente alla soluzione e non all’individuazione di colpe e deve essere data la possibilità di riscrivere solo la parte errata; fornire dunque anche funzionalità di ripristino delle condizioni di default.

Parlare il linguaggio dell’utente: il linguaggio utilizzato a livello d’interfaccia deve essere semplice e familiare per l’utente e rispecchiare i concetti e la terminologia a lui noti. Va evitato il più possibile un linguaggio tecnico od orientato al sistema, che utenti non esperti di informatica possono non comprendere (es. da evitare frasi come “il doc. è disponibile in formato .rtf” o “doc. zip trasferibile via ftp”). Rientrano in questo punto anche le icone e le metafore, forme per rappresentare concetti in forma grafica e simbolica, che se ben strutturate agevolano la comprensione, forse più delle parole.

Ridurre il carico di memoria per l’utente: è più facile riconoscere una cosa vedendola direttamente piuttosto che recuperarla dalla memoria, dunque nel definire gli strumenti in grado di agevolare la flessibilità e l’efficienza, va considerato che le esigenze degli utenti variano in relazione al loro livello d’esperienza rispetto al compito e alle tecnologie informatiche. Gli utenti non esperti, ad esempio, amano essere guidati passo dopo passo, mentre quelli più esperti, preferiscono utilizzare delle scorciatoie , delle quali anche utenti meno esperti, man mano che il loro livello di esperienza cresce, possono usufruire.

Scorciatoie: sarebbe utile quindi includere nel sistema anche scorciatoie come tasti o pulsanti che consentano una navigazione più rapida “accesskey” che permettono, con una combinazione di pulsanti, di passare direttamente in una determinata posizione della pagina; “facilities d’inserimento” ossia l’anticipazione del sistema nell’inserimento di un termine e così via.

Aspetto gradevole ed essenziale: le interfacce non dovrebbero contenere elementi irrilevanti o ridondanti poiché, ogni informazione superflua distrae dalla visibilità delle informazioni più importanti. Limitare la possibilità di scelta dell’utente perché, se in una pagina ci sono 50 pulsanti, esiste una possibilità su 50 che l’utente compia l’azione giusta per raggiungere il suo scopo.

Fornire help e manuali: normalmente un buon prodotto non dovrebbe aver bisogno di documentazione per essere utilizzato, però in certi casi può essere necessario fornire help e manuali. Nei casi in cui si ritiene necessario ciò, l’informazione va realizzata con l’obiettivo di garantire: facilità di consultazione; comprensibilità e brevità dei testi; orientamento dell’attività dell’utente; efficacia nella risoluzione del problema.