Tutti gli aggiornamenti agli algoritmi di ricerca Google
Come si è evoluta la ricerca su Google negli ultimi decenni
Indice
- Algoritmo di ricerca Google: come funziona
- PageRank Google: le fondamenta dell’algoritmo di ricerca Google
- I più importanti aggiornamenti dell’algoritmo di Google
- Helpful Content (2022)
- Core Update May 2022 (2022)
- Page Experience Update (2021)
- Mum (2021)
- Bert (2019)
- Medic Update (2018)
- Speed Update (2018)
- Fred (2017)
- RankBrain (2015)
- Mobilegeddon – Mobile Friendly (2015)
- Pigeon (2014)
- Hummingbird (2013)
- Payday Loan Update (2013)
- Exact-Match Domain (2012)
- Pirate (2012)
- Penguin (2012)
- Top Heavy (2012)
- Panda (2011)
- Caffeine (2009)
- Suggest (2008)
- Personalized Search (2007)
- Austin (2004)
- Florida (2003)
- Boston (2003)
- Considerazione sugli aggiornamenti agli algoritmi di Google
- L’importanza della pertinenza e della qualità dei contenuti
Nel Febbraio del 2011 il Search Quality Team di Google, la task force “segreta” che lavora allo sviluppo della qualità dell’algoritmo del motore di ricerca, ha rilasciato il primo importante core update di Big G: l’algoritmo Google Panda, entrato in pieno regime nell’Aprile dello stesso anno.
Da allora, l’algoritmo del colosso di Mountain View ha subito molti aggiornamenti per migliorare la classifica dei siti internet nella SERP (la pagina dei risultati di ricerca che compare quando cerchi qualcosa su Google) e premiare i contenuti migliori che soddisfano gli utenti.
Ma prima di parlare di contenuti e user-experience, vi spieghiamo cos’è l’algoritmo di Google.
Algoritmo di ricerca Google: come funziona
Quando parliamo di siti web presenti, quindi indicizzati, nel motore di ricerca di Google, ovviamente parliamo di numeri quasi impronunciabili data la loro infinita quantità e il fatto che ogni giorno ne nascono migliaia.
Quando esegui una ricerca su Google, scrivendo una o più parole o tramite la ricerca vocale, compare una pagina di risultati, cioè la classifica dei siti internet che risponde alla tua ricerca (la sopracitata SERP) che “dovrebbe” coincidere con ciò che stavi cercando.
Ti sei mai chiesto com’è possibile? Come fa Google in una manciata di millisecondi a trovare le informazioni che stai cercando? È possibile tramite una successione finita di istruzioni in sequenza che risolvono un problema, in parole povere, un algoritmo.
Per spiegare l’entità del problema in questione citiamo un post del blog Google scritto nel 2008 da Udi Manber, ex VP Engineering e responsabile del Search Quality Team: “non esistono standard per la trasmissione delle informazioni, quindi dobbiamo essere in grado di capire tutte le pagine web, scritte da chiunque, per qualsiasi motivo. E questo è solo metà del problema. Dobbiamo anche capire le domande che le persone pongono, che sono in media meno di tre parole, e mapparle alla nostra comprensione di tutti i documenti.”
Ecco cosa fa l’algoritmo di Google, risolvendo questi problemi funziona così:
- valuta i contenuti di un sito web secondo una serie di criteri o fattori di ranking,
- classifica i siti web più pertinenti che rispondono al meglio alle esigenze di ricerca,
- restituisce i risultati in base alle parole (query o keywords) che digitano gli utenti.
Ecco così è svelato l’arcano motivo del perché gli algoritmi di Google vengono costantemente aggiornati: l’unico obiettivo che persegue il Search Quality Team è “migliorare l’esperienza dell’utente”.
PageRank Google: le fondamenta dell’algoritmo di ricerca Google.
L’originario fattore di ranking che ha costituito il principale motore di classificazione delle pagine web era l’algoritmo pagerank, inventato e brevettato nel 1998 dai fondatori di Google Sergey Brin e Larry Page, da quest’ultimo prende anche il nome.
Cos’era Pagerank? Era l’algoritmo che definiva il valore delle pagine web (attenzione, non ai siti web) assegnando un “punteggio” in una scala logaritmica di valori che va da 0 a 10. Spiegato in modo più semplice determinava, all’interno del grande ecosistema del web, l’importanza di una pagina prendendo in considerazione la quantità e la qualità dei link che puntano ad essa. Più link di alta qualità, cioè provenienti da siti con ranking elevato, puntano ad una determinata pagina, più cresce il ranking della pagina stessa.
L’algoritmo originario del 1998, il quale brevetto è scaduto nel 2018 e mai più rinnovato, si vocifera sia inutilizzato dal 2006. Questo significa che oggi PageRank è morto? La risposta è no, anzi, rappresenta ancora oggi uno dei principali fattori di ranking di Google, solo che si è evoluto ed integrato in un sistema molto più complesso convivendo con molti altri algoritmi che valutano le pagine del web.
I più importanti aggiornamenti dell’algoritmo di Google
La storia degli aggiornamenti dell’algoritmo di Google coincide non solo con una migliore esperienza degli utenti che utilizzano il motore di ricerca ma anche con lo sviluppo della SEO, quella pratica del marketing digitale che si occupa dell’ottimizzazione dei siti internet appositamente per essere considerati di maggiore valore da Google stesso.
Ecco una lista di tutti i maggiori aggiornamenti o nuovi algoritmi di Google, dai primi anni 2000 fino ad oggi.
Helpful Content (2022)
Rilasciato in agosto inizialmente solo per la lingua inglese, probabilmente questo aggiornamento sarà importante come Penguin o Panda perché premia tutti i siti internet con contenuti “creati dalle persone per le persone”, cioè che rispondono realmente alle ricerche degli utenti e penalizza invece quei contenuti pensati non per gli utenti ma per i motori di ricerca, al fine di ottenere un posizionamento migliore.
Core Update May 2022 (2022)
Con questo broad core update viene rivisitata la SERP promuovendo i siti web che contengono contenuti più pertinenti e aggiornati a discapito di vecchi siti internet con contenuti di qualità inferiore e non aggiornati.
Page Experience Update (2021)
Questo update inserisce tra i fattori di ranking la user experience (UX) cioè l’esperienza utente, dando maggiore rilevanza ai siti web che vengono realizzati con contenuti che rispondono adeguatamente alle ricerche degli utenti e con una navigabilità intuitiva, facile e veloce.
Vengono introdotti i Core Web Vitals, cioè i tre parametri principali che misurano la qualità dell’esperienza di navigazione degli utenti che sono:
- Largest Contentful Paint (LCP): la velocità di caricamento dell’elemento principale di una pagina,
- First Input Delay (FID): l’interattività tra l’azione e la pagina richiesta dall’utente e la risposta del browser,
- Cumulative layout Shift (CLS): la stabilità visiva del caricamento di una pagina.
Il 1° febbraio del 2022 la UX, precedentemente considerata soprattutto in ambito mobile, diventa importante anche su desktop.
Mum (2021)
Sulle orme di Bert, questa evoluzione tecnologica chiamata MUM (Multitask Unified Model) sfrutta tutte le novità e potenzialità dell’intelligenza artificiale per identificare e capire ancora meglio le ricerche degli utenti e restituire ricerche più precise e performanti.
Molto più potente di Bert (circa 1000 volte) per soddisfare le domande che richiedono risposte complesse elabora automaticamente 8 query diverse fornendo le relative risposte in modo che, invece di fornire un unico risultato, restituisce più risposte multiformato correlate tra loro e all’argomento principale. Tutto questo in più di 70 lingue diverse, gestendo 90.000 domande al secondo.
Bert (2019)
Acronimo di Bidirectional Encoder Rapresentations from Transformeres, questo nuovo algoritmo rilasciato il 22 Ottobre 2019 applica modelli di reti neurali per l’elaborazione del linguaggio naturale (NPL, cioè Natural Language Processing) e riesce ad interpretare semanticamente le query di ricerca utilizzate, identificando i topic e relazionandoli tra loro, comprendendo pienamente l’intenzione di ricerca degli utenti e facendola infine coincidere con estrema precisione ai risultati.
Questo cambia il modo con cui vengono viste ed analizzate le query, poiché la precisione è stata di gran lunga perfezionata tutti i dettagli e le sfumature linguistiche fanno la differenza: BERT è in grado di considerare ogni parola nel contesto in cui è inserita, non trattandola coma una singola keyword ma relazionandola con le altre parole.
Per concludere, l’update Bert di Google, affiancato agli altri algoritmi di ricerca come Hummingbird e RankBrain, si avvicina sempre di più alla “comprensione umana” delle ricerche degli utenti e dei contenuti dei siti web, allineandosi al modo in cui le persone si relazionano tra loro tramite il linguaggio naturale.
Medic Update (2018)
Nato con l’intenzione di valutare i siti per fattori di competenza, autorità e fiducia ha impattato in generale nella SERP in modo modesto, ad essere più colpiti con questo update dell’algoritmo principale di Google sono stati i cosiddetti siti YMYL (Your Money Your Life), cioè “i tuoi soldi o la tua vita”.
Questi siti YMYL riguardano l’ambito medico e trattano delicati argomenti sulla salute. Ovviamente, hanno il potere di influenzare positivamente o negativamente la felicità e il benessere degli utenti e delle loro famiglie, di conseguenza è importante che le informazioni che contengono non siano fasulle e pericolose. Il nome dell’update prende proprio il nome dal settore di questi siti YMYL maggiormente colpiti, cioè l’ambito prevalentemente medico.
Speed Update (2018)
Piccolo aggiornamento che riguarda le ricerche da mobile: per i dispositivi mobili diventa fattore di ranking la velocità del caricamento delle pagine di un sito internet.
Di base, il tempo di caricamento ideale dovrebbe essere sui 2/3 secondi, i siti internet che presentano un tempo di caricamento lento vengono penalizzati.
Fred (2017)
Un aggiornamento che non è stato esposto chiaramente dal team Google, d’altronde vengono pubblicati un grande numero di update durante l’anno e non tutti i dettagli vengono rilasciati. Fred, nome scherzoso attribuito da questo aggiornamento, colpisce i siti che tendono principalmente alla monetizzazione, principalmente tramite banner pubblicitari di Google AdSense, a discapito dei contenuti e della loro qualità.
RankBrain (2015)
Dichiarato da Google il terzo fattore di posizionamento più importante, RankBrain fa parte dell’algoritmo di Hummingbird ed è una tecnologia di machine learning (cioè una branchia dell’intelligenza artificiale che crea sistemi che apprendono e migliorano le loro performance in base ai dati che utilizzano) applicata per perfezionare l’interpretazione delle ricerche degli utenti.
Questo perfezionamento dell’algoritmo Colibrì (Hummingbird) restituisce alla ricerca degli utenti pagine che non contengono al loro interno le query utilizzate, quindi, in sostanza migliora l’interpretazione dell’intento di ricerca e del contesto semantico dei contenuti dei siti internet.
Mobilegeddon – Mobile Friendly (2015)
Con l’enorme diffusione degli smartphone diventa fattore di ranking la navigabilità da mobile dei siti internet, in particolare viene data rilevanza all’usabilità e la velocità di caricamento delle pagine.
Lanciato il 21 aprile 2015 ha causato un bel po’ di panico nei webmaster che non avevano siti web mobile-friendly, proprio per il motivo che tutti questi siti sono stati penalizzati nella classifica della SERP.
Pigeon (2014)
Appaiono in SERP i risultati geolocalizzati senza il bisogno di inserire nella ricerca la specifica query che identifica la località. Questo ha permesso di attribuire maggiore rilevanza ai risultati locali in base alla posizione dell’utente, favorendo quindi le attività commerciali delle zone limitrofe.
Hummingbird (2013)
Tradotto in Colibrì, questo non è un update all’algoritmo di ranking come Panda o Penguin, è un nuovissimo algoritmo che cambia in modo sostanziale la ricerca di Google perché il suo obiettivo è quello di interpretare meglio ciò che chiedono gli utenti quando eseguono delle ricerche.
In che senso? Se in precedenza venivano cercate solo singole parole all’interno della query di ricerca adesso, grazie a Colibrì, viene individuata l’intenzione della ricerca degli utenti e soprattutto viene identificato il contesto semantico del sito internet che restituisce alla ricerca.
Infatti, nonostante l’utilizzo delle keywords durante la creazione dei contenuti sia ovviamente ancora consigliata, l’algoritmo Hummingbird permette ad una pagina web di posizionarsi in base al contesto, leggendone il contenuto semantico, anche se le keywords con cui si è piazzato non sono presenti nel testo.
Payday Loan Update (2013)
A differenza degli altri aggiornamenti, questa “modifica” all’algoritmo non mira ai link o ai contenuti, bensì al miglioramento dei risultati di ricerca di specifici settori commerciali che restituivano molti siti con spam e tecniche SEO scorrette, queste ricerche riguardano pornografia, gioco d’azzardo, servizi di credito, prescrizioni mediche e droghe.
Exact-Match Domain (2012)
Annunciato il 27 Settembre 2012 da Matt Cutts (il Google spokeperson e riferimento mondiale in ambito SEO, scomparso dalle scene dopo un periodo sabbatico dedicato alla famiglia) con questo aggiornamento viene impedito ai domini exact-match di scarso valore contenutistico di posizionarsi nelle prime pagine della SERP.
Cos’è un dominio exact-match? Ad esempio, se io cerco le parole “sconti elettrodomestici” e trovo un sito internet che si chiama scontielettrodomestici.it, parliamo di exact-match del dominio, cioè un’esatta corrispondenza delle parole ricercate con l’url che identifica il sito internet.
Pirate (2012)
Con questo semplice quanto efficace update sono sparite dai risultati di ricerca tutti i siti internet che hanno ricevuto più volte segnalazioni per la violazione del copyright.
Penguin (2012)
L’algoritmo Penguin colpisce la link building forzata, cioè quella pratica di acquisizione link che serve ad aumentare il PageRank di una pagina web attraverso l’acquisto low cost di link da altri siti (esistevano blog e siti internet che si occupavano solo di questo).
Il più delle volte, questi link provenivano da contesti poco inerenti alla tematica del sito per cui si faceva link building forzata, di conseguenza questo aggiornamento ha posto fine all’acquisizione di link collegati forzatamente.
Top Heavy (2012)
Poiché Google, come abbiamo già detto molte volte, indirizza tutto il suo impegno nel miglioramento della user experience, il 19 Gennaio 2021 viene lanciato questo aggiornamento che si concentra sul layout dei siti internet, penalizzando tutti quelli che in alto, a discapito dei contenuti, inseriscono degli spazi appositi per gli annunci pubblicitari di Google AdSense.
Con questa pratica del posizionamento in alto dell’advertising gli utenti sono costretti a doversi sorbire le pubblicità prima di poter raggiungere ciò a cui sono interessati e per i quali sono entrati nel sito.
Panda (2011)
Rilasciato nel Febbraio del 2011 inizialmente solo nel mercato USA e successivamente nel resto del mondo (in Italia è stato implementato solo il 12 Agosto) viene ancora oggi ricordato come uno degli update algoritmici più memorabili perché stravolse fin da subito la SERP.
Negli Stati Uniti, in meno di 24 ore modificò una rilevante percentuale delle query di ricerca alterando in modo sostanzioso i risultati di ricerca. Infatti, tutti i SEO del mondo hanno temuto questo update.
Come funziona l’algoritmo Panda? Penalizza tutti quei siti che contengono contenuti di scarsa qualità o inutili per gli utenti e li declassifica. Ad esempio i siti Content Farm, quegli aggregatori di articoli e news che pubblicavano solo per attirare più traffico possibile e guadagnare con gli annunci pubblicitari oppure i siti con contenuti duplicati, copiati da altri siti.
Piccolo aneddoto legato alla storia di questo aggiornamento algoritmico, il nome non deriva dall’animale bensì dall’ingegnere Biswanath Panda, il maggiore sviluppatore dell’update.
Caffeine (2009)
Forse il primo update di Google significativo, è stato lanciato nell’agosto del 2009 ma è entrato a pieno regime solo nel giugno dell’anno successivo per permettere ai webmaster di testare l’aggiornamento e adattarsi ai cambiamenti che apportava in SERP.
Caffeine era il nuovo sistema di indicizzazione che ha permesso al motore di ricerca sia di aumentare il suo indice generale e sia di indicizzare i siti web più velocemente. Se prima l’indice era costituito da diversi strati, alcuni dei quali richiedevano molto tempo per essere aggiornati poiché scansionavano il web per intero, grazie a Caffeine il “motore” di Big G analizza il web in piccole porzioni e gli indici sono aggiornati costantemente e globalmente.
Questa velocizzazione dell’indicizzazione ha permesso di far risultare in SERP contenuti più recenti e aggiornati, riducendo nettamente il tempo tra la pubblicazione di una nuova pagina in un sito già scansionato e la sua indicizzazione.
Suggest (2008)
Questo aggiornamento all’algoritmo di Google è tutt’ora sotto gli occhi di tutti gli utenti: molto semplicemente Suggest formula query simili o correlate alle parole che stiamo utilizzando per una ricerca. Hai presente quel piccolo box che si crea automaticamente quando inizi a digitare la tua ricerca che ti suggerisce delle ricerche simili? Ecco, questo è Google Suggest, rilasciato la prima volta nell’agosto del 2008.
Personalized Search (2007)
Adesso vediamo in un’unica pagina dei risultati di ricerca tutti gli elementi indicizzati conformi alle nostre query, news, video, immagini, prima di Personalized Search, rilasciato il 1° giugno 2007, non era così. Dopo questo update le informazioni vengono raccolte in un’unica pagina informativa e ricca di contenuti variegati, tutti sotto la voce “web” aiutando così gli utenti a trovare ciò che cercano più facilmente, qualunque sia il formato dell’informazione.
Austin (2004)
Uno dei primi update dell’algoritmo di ricerca Google davvero determinante per la SEO dell’epoca: ha migliorato notevolmente la qualità del posizionamento dei contenuti presenti nelle pagine web e di conseguenza anche i risultati di ricerca. Come? Colpì moltissimi siti che “nascondevano le keyword” all’interno delle loro pagine utilizzando lo stesso colore dello sfondo in modo da renderle invisibili agli utenti ma scansionabili dai crawler di Google, cioè quei software che analizzano le pagine web per capirne il contenuto e indicizzarlo.
Florida (2003)
Il più devastante aggiornamento all’algoritmo di ricerca pubblicato da Google, rilasciato nel novembre del 2003 ha creato così tanta confusione nella SERP, in particolare facendo scomparire proprio nel periodo prenatalizio molte pagine di siti eCommerce, che da quel momento in poi Google decise di non pubblicare più aggiornamenti così importanti nel periodo dell’anno che precedono le festività natalizie.
L’update Florida ha penalizzato tutti i siti internet che utilizzavano due pratiche allora molto diffuse per aumentare il ranking dei siti internet:
-
- Keyword stuffing, cioè la ripetizione quasi innaturale di una determinata keyword all’interno dei propri contenuti,
- Creazione di link spam e innaturali che provengono da pagine che non hanno rilevanza.
Boston (2003)
Il primo aggiornamento all’algoritmo PageRank di Google, ufficializzato il 1° febbraio 2003 ma annunciato mesi prima, a causa di un’intenzione da parte di Big G di iniziare ad aggiornarsi costantemente per apportare delle migliorie al proprio motore di ricerca. Largamente discusso da webmaster ed esperti della SEO, questo update all’algoritmo principale cambiò radicalmente il posizionamento di molti siti internet.
Considerazione sugli aggiornamenti agli algoritmi di Google
Considerati tutti gli aggiornamenti apportati a Google negli ultimi decenni, è possibile comprendere l’entità della complessità dell’infrastruttura logica degli algoritmi di Google, i quali sfruttando tecnologie sia di machine learning che di intelligenza artificiale, perfezionano sempre di più la comprensione dell’intenzione della ricerca mettendo al primo posto la soddisfazione degli utenti.
Nell’ultima classifica che è stata stilata da NetMarketShare nel 2019, il servizio di analisi che pubblicava mensilmente le statistiche sui browser web e i motori di ricerca più utilizzati (prima che venisse chiuso a causa di forza maggiore), Google era l’indiscusso vincitore della classifica con ben l’81% di utilizzo in tutto il mondo e aveva un enorme vantaggio rispetto a tutti i suoi concorrenti.
Nonostante ci siano tante alternative valide a Google, sia come web browser che come motori di ricerca, in alcuni casi anche più sicure o attente alla privacy degli utenti rispetto al colosso di Mountain View, considerando quanto scritto sopra credo che non viene più da chiedersi perché Google è il motore di ricerca più utilizzato.
L’importanza della pertinenza e della qualità dei contenuti
Oltre ad essere un colosso dell’era digitale e precursore nel suo settore, Big G detiene il primato e si distingue dagli altri motori di ricerca perché mette al primo posto la pertinenza e la qualità dei contenuti dei siti web con le esigenze di ricerca degli utenti.
Questo significa che l’algoritmo di ricerca Google, costantemente aggiornato, è il migliore tra tutti a fornire all’istante i migliori risultati pescandoli dall’indice del motore di ricerca, basandosi sulle parole o le frasi che cercano gli utenti sul web.