Alessandro de Luyk Google, SEO

GOOGLE SEO: AGGIORNAMENTO SUI SUOI ALGORITMI

I più non lo sanno e pensano che il gigante bianco di Mountain View, sia silente e servizievole, impegnato in ogni istante della giornata a fare del suo meglio per trovare per noi le informazioni on line. Informazioni on demand. Noi chiediamo e lui risponde. Se potessimo guardare oggi con le lenti della Mitologia, o, semplicemente con un approccio antropologico probabilmente potremmo accostare Google ad un Oracolo.  Lui vede, lui sa e come dicevo se ne sta’ quieto: pensa ma non dice nulla.

Se questo è ciò che ti eri immaginato devi sapere che non è affatto vero.  Il grande ricercatore dalle due OO ha in realtà un’attiva sala stampa ed uno stuolo di comunicatori.  Fra questi ci sono gli evangelisti, parola che non a caso richiama la Bibbia: più che veri esperti sono professatori, dispensatori di un pensiero di libertà, apologeti di una causa, ferrei sostenitori di una tecnologia e dei suoi pregi a cui sembra ormai nessuna Tech Company possa sottrarsi.  Per Google ne posso menzionare almeno due Avinash Kaushik che tanti conoscono come accalorato keynote public speaker al soldo del reparto Analytics di Google e, forse meno noto al grande pubblico ma di certo una una celeb fra i nerds, Matt Cutts, passato a migliori vita, nel senso trasferito da poco ad un incarico governativo dopo esser stato a lungo il responsabile di una temutissima (dai consulenti SEO) squadra del monopolista il Webspam Team. Per chi non lo sapesse il termine Webspam sta ad indicare le pratiche che non conciliano i termini del servizio previsti nelle Linee Guida di Google per l’indicizzazione organica perché, per esempio, fanno uso di tecniche di Grey e Black Hat per scalare le SERP. Qui puo trovare una lista di queste tecniche edita proprio da Google.it.

Chi come noi si occupa di SEO, che sia su Amazon o per la ricerca organica su Google queste sono alcune delle voci che siamo stati abituati ad ascoltare.

DI COSA PARLEREMO IN BREVE

In questo articolo parleremo degli algoritmi di Google, con una rassegna che cercherà di mettere in chiaro, a grandi linee, come sono stati assoldati al suo servizio, a cosa servono e cosa conviene sapere nel caso si stiano creando contenuti per fare un’operazione non controproducente dal punto di vista della SEO. Capiremo quali funzioni presidino i vari algoritmi principali che operano nella roccaforte di Mountain View e quali compiti svolgono.Parleremo di Machine Learning e di Intelligenza Artificiale.  Il nostro scopo è prosaico, cerchiamo di offrire un insight sulle macro variabili che vanno tenute in osservazione sui propri siti per rispettare, fra l’altro le guidelines di Google per una corretta indicizzazione. Ciò che presentiamo sono i driver principali delle sue funzionalità che ci servono soprattutto come framework per comprendere la sua logica di funzionamento. Fuori dal path delle linee guida però fate attenzione il motore è assolutamente punitivo!

In particolare tutto ciò che qui esporremo assume le informazioni da tre fonti principali:

  1. La rivista on line Search Engine Land nella sezione dedicata alla Seo, e qualche altro pezzo che abbiamo linkato nel testo
  2. La nostra esperienza come analisti e consulenti di impresa sulle ottimizzazioni della SEO per i siti di E-commerce  e di Amazon SEO.
  3. Un importante articolo intervista apparso su Bloomberg in data 25 Ottobre 2015 dal titolo: “Google Turning Its Lucrative Web Search Over to AI Machines” firmato da Jack Clark

Sotto vari aspetti questo post centra l’argomento dell’ AI (Intelligenza artificiale) che nel caso dell’algoritmo generale di Google è grosso modo l’impianto tecnologico ed informatico sui cui fa perno il suo sistema di Machine Learning.  In questo contesto dunque non è sbagliato poi sovrapporre i due termini (AI e Machine Learning) ed usarli in modo sinonimico.  Questo è ciò che faremo.

GLI ALGORITMI DI GOOGLE IN HUMMINGBIRD

L’algoritmo d Google si chiama HummingBird. Nel 2013 il gigante lo ha avviato, con un processo di roll out progressivo, a presidiare tutti i suoi sub algoritmi che sono molo numerosi, secretati e di cui in letteratura se ne conoscono alcuni, come presto vedremo, ma non si sa se il gigante di Mountain View ne tenga altri attivi ma nascosti nel cassetto.

La comunicazione con cui è stata lanciata l’operatività del colibrì (UmmingBird, per i non ornitologi ..) è stata annunciata in conferenza stampa, e questa volta con poco clamore e nessuna anticipazione, come invece è di solito nello stile di Google, da parte del suo Senior Vice President (SVP)  Amit Singhal come testimonia questo articolo di Tech Crunch uscito il 26 settembre 2013.

Parlando di algoritmi devi sapere che sempre la secretazione della loro formula è un’arma del provider che chiama in causa il segreto industriale come un suo diritto per difendere con la segretezza quelle funzionalità che, in fondo, sono il motivo, o uno dei motivi, dei loro modelli di business iperlucruosi.

In un precedente post sull’algoritmo di Facebook ho esposto numerose note relativamente agli effetti sul piano etico, culturale e industriale degli algoritmi e di come questi partecipino al modello di monetizzazione delle piattaforme Social e anche dei motori di ricerca. Nell’ambito del commercio e della concorrenza fra brand ed imprese, è inutile dirlo che oggi il fulcro dell’attività del marketing e della comunicazione si stanno, almeno in parte, spostando dagli strumenti che presidiano alla comunicazione diretta con il consumatore finale rispetto a quelli come la SEO e la SMM, che vanno a curare il rapporto con gli algoritmi.  Sono questi ultimi in buona parte i mediatori e gli intermediari del segnale e dunque, in fin dei conti, del messaggio.  Il futuro del marketinig e del commercio, passeranno attraverso le tecniche di Business Intelligence capaci di dare pieno supporto ai piani strategici del marketing in relazione non solo al mercato, ma anche alla gestione competitiva di questi algoritmi in un processo continuo fino al loro stesso assorbimento (almeno per le strutture enterprise) come motore interno dei loro stessi flussi di gestione dell’informazione e dei processi competitivi. Avere le idee chiare, o meglio avere dei consulenti anche esterni esperti nel gestire algoritmi come quello del News Feed di Facebook e di quelli impegnati ad elaborare le SERP su Google, Bing, Yandex, ecc. e su numerose altre piattaforme significa compiere un primo passo verso l’adozione di metodi e tools che comportano tecniche di Business Intelligence nella propria azienda.

Come si è detto più volte in questo Blog e come si trova anche ampio riscontro in letteratura, sono oltre 200 i parametri che Google prende in considerazione per creare la lista delle SERP. L’algoritmo del Motore però non è uno solo. Ce ne sono alcuni ben noti ed importanti che hanno dei compiti anche piuttosto segmentati. La suddivisione del lavoro per specializzazione è una delle pratiche che il gigante di Mountain View ha cominciato a mettere massicciamente in campo a partire da anni recenti (2013) per poter ottimizzare le funzioni di ciascuno e dunque per poter anche creare dei team di lavoro e di ricerca e sviluppo interni appositamente dedicati.  Ma vediamo di ricordare quali sono i principali algoritmi della sua mente.

Page Rank il primo ed il più famoso. Un tempo il suo punteggio (in una scala da 1 a 10) veniva anche pubblicato, chiunque poteva sapere il PR di una pagina Web ma oggi non più. La mente di Page Rank e stata programmata per riconoscere e valutare i links presenti nelle pagine. Metrica che è stata poi all’origine dell’idea di Larry Page quando ha creato la prima formula di indicizzazione con cui si può dire è nato Google.  Il suo patent risale al 2001 ed è depositato sotto la sigla  US6285999 (B1).  Ma anche lui non ha avuto un’idea del tutto originale l’ha presa a prestito dal sistema di autorevolezza dell’editoria accademica con il noto Fattore di Impatto. Oggi non è più possibile conoscere il page rank di una pagina, Google ha deciso di eliminare questa feature dalla sua Toolbar, come conferma questo articolo del Search Engine Land dell’ 8 Marzo 2016. Tuttavia il Page Rank gode di ottima salute e il suo scopo resta quello di dare un punteggio di autorità alla pagina che grosso modo si sintetizza con la seguente formula:

>> maggiori sono i links che segnalano la vostra pagina nel Web, maggiore è la loro autorità (ovvero a sua volta il relativo Page Rank della pagina da cui si originano) e maggiore sarà il suo punteggio di Page Rank <<

Che poi un ottimo punteggi  basti a lanciare un contenuto in testa alle SERP questo và analizzato con parecchia attenzione e non è automatico come ci avvisa il post di Yoast sull’argomento.

Google Pirate Il nome sulla sua carta di identità anticipa tutto del suo compito. Cercare e prevenire la pirateria, ovvero l’uso di materiali che violano i vari diritti di autore per preservarne i diritti.  Leggi qui per approfondire.

Google Panda uno dei più discussi algoritmi che in passato hanno scombinato di più le SERP dopo i suoi aggiornamenti. Il Panda, che si conferma un essere mansueto solo nell’immaginario dell’essere umano, in realtà è un algoritmo piuttosto aggressivo il cui scopo è quello di abbassare l’indicizzazione (persino deindicizzare se occorre) delle pagine che hanno pochi contenuti o di scarsa qualità.

Google Penguin anche il pinguino addomiciliato a Mountain View è, a dispetto del suo immaginario innocuo un volatile piuttosto pericoloso per i furbetti della SEO.  Lui e Panda hanno, possiamo proprio dirlo, rivoluzionato gli ordinamenti delle SERP e inoculato nell’industry dei professionisti del posizionamento avanzato, nuove regole e nuovi timori. Panda è addestrato ad identificare pratiche di Grey Hat e Black Hat che hanno a che vedere con lo Spam che nel caso del motore si può grosso modo sintetizzare in partiche di acquisizione di links, di cloacking, di reindirizzamenti “sospetti”, di keyword stuffing, di testo nascosto ecc.   Poiché la presenza di links in entrata resta in sostanza, come meglio vedremo nel prosieguo, uno dei criteri valoriali di massimo rispetto per ottenere una buona indicizzazione, panda è la sua sentinella, algoritmicamente parlando è il suo Sherlock Holmes ed indaga per verificare che la mappa degli inbound links sulla pagina siano possibilmente organici e se non lo sono allora indaga per capire come sono stati ottenuti. Se scopre pratiche di commercio di links o tecniche di Grey o Black Hat persino attribuisce alla pagina delle penalizzazioni più o meno gravi. Una disamina degli eventi sotto il suo controllo la trovi in questa pagina del support di Google relativa allo Spam (pagina imperdibile per chi avesse un sito e avesse dei dubbi sul suo posizionamento o avesse riscontrato delle improvvise perdite di posizionamento. ). In linea generale Penguin presidia l’attività dei web masters e verifica che vengano rispettate ciò che Google chiama le “Norme sulla qualità” (in letteratura note come Webmaster Guidelines)

Google Pigeon, non dimentichiamoci poi di questa ulteriore creatura alata che probabilmente è andata a battesimo (il 24 Luglio del 2014) con il nome di un uccello per una certa vocazione all’ ornitologia da parte dei manager del motore di ricerca. Il piccione ci ricorda le nostre piazze ed infatti questa è la spalla delle ricerche geografiche Google. Un algoritmo che contribuisce alla formazione delle SERP per le ricerche locali e che produce effetti anche in Google Maps.

Con effetti vistosi dopo il suo Roll Out nel 2014 come puoi leggere qui, il piccione ha introdotto dei segnali di lettura sui risultati delle attività locali che tengono conto ad esempio della presenza nel listing su Yelp, Foursqaure, Zagat (solo negli USA) e Kayak di un’ attività commerciale come anche della distanza della ricerca effettuata in base alla posizione occupata sul territorio dall’utente. Un soggetto nei pressi di piazza del Duomo a Milano che cercasse un ristornate troverà proposte in zona e non a Cinisello Balsamo tanto per intenderci! Qualche consiglio su come gestire la propria attività commerciale ottimizzandola per Pigeon con suggerimenti su cosa non fare lo trovi nel link.

Per gli altri algoritmi e i relativi update rinvio ai seguenti links che ti suggerisco di seguire.

I SEGNALI (TRE) PIU IMPORTANTI PER L’INDICIZZAZIONE DI UNA PAGINA

Sappiamo essere oltre duecento i fattori che Google utilizza per indicizzare una pagina ma ve ne sono tre di fondamentale importanza. Li vediamo subito. Vorrei però non illudere lo sprovveduto che pensasse di poter facilmente ottimizzare una pagina contando di ottimizzare “solo” i duecento fattori della lista.  In fin dei conti si potrebbe anche fare un ragionamento del tipo: “beh ok sono duecento ma se la posta in gioco è molto alta, se volessi essere primo per >> IPhone7<< o >> Vendita elettronica << anche un grosso sforzo varrebbe la pena e il successo di vendite da Re Mida sarebbe proprio dietro l’angolo”. Ahimè le cose non stanno così. Innanzitutto perché se duecento sono i fattori che danno punteggio poi i segnali che vengono analizzati sono circa 10.000 e poi soprattutto perché serve un’elevatissima domain authority (DA) e non la si compra certo al mercato.

Facciamo un piccolo test. Cerchiamo su Google.it la stringa >>Vendita IPhone7<< e possiamo subito notare che la prima pagina riporta – selezioniamo qui solo siti commerciali non di news, non blogs, ecc. – i seguenti siti di vendita nella prima pagina:

Dunque, come vedi tutte piattaforme che hanno molta DA. La cattiva notizia è che la DM non si non si ottiene con una tecnica ma è frutto di un lavoro lungo e complesso.

Tuttavia in questo mare magnum di fattori, segnali e formule e sistemi algoritmici anche di auto apprendimento (da Machine Learning) è un punto piuttosto comune come dicevo che siano tre i fattori di indicizzazione di maggior efficacia e sono:

  1. I links – Secondo la mia esperienza di analista e, concordemente con altri esperti del settore SEO, resta al primo posto nella classifica per ottenere il massimo dell’indicizzazione. Una elevata Domain Authority porta, a caduta, una generale maggior visibilità di ogni contenuto pubblicato sotto il suo dominio. Ciò ti spiega ad esempio come mai molte ricerche portano in testa alle SERP dei portali di News molto accreditati come, in Italia Il Corriere della sera e, negli Usa, l’HuffingtonPost, il New York Times, Forbes, solo per fare qualche nome.
  1. I contenuti. – Non intendo qui le immagini o i rich media ma i contenuti testuali in tutta la loro struttura semantica, e di impaginazione e di formattazione.
  1. Rank Brain. – Il terzo fattore è proprio un algoritmo. Non dunque uno strumento in mano all’autore della pagina ma un sistema di Machine Learning secretato! Come lo sappiamo? Dal già citato articolo su Bloomberg in cui viene raccolta questa esatta testimonianza:

>> RankBrain is one of the “hundreds” of signals that go into an algorithm that determines what results appear on a Google search page and where they are ranked, Corrado said. In the few months it has been deployed, RankBrain has become the third-most important signal contributing to the result of a search query, he said. <<

L’ALGORTIMO DI RANK BRAIN NEL SUO USO SEMANTICO E ASSOCIATIVO

RankBrain è armato di machine learning questo è forse l’aspetto saliente da cui partire.   Ai tempi di Page Rank il Machine Learning era appena negli orizzonti di Google. Implementare questo sistema di AI significa vitaminizzare, persino dopare il potere di indagine sui contenuti del motore.  Si tratta di dargli neuroni, insomma una sorta di intelligenza attiva, simil-umana.  Il punto sono perlopiù le query con parole chiave di long tail, parole chiave che per definizione sono precise dunque lunghe.  Attenzione però che long tail significa pensare le parole chiave come termini composti. Se parti da una ricerca per “vitamine” non stai usando una parola chiave dalla coda lunga ma se la cambi in una del tipo “vitamine B1 e B2 per alimenti” ce l’hai.

Il significato, intendo in termini di comprensione del testo, è lo stesso cambia però il grado di dettaglio con cui abbiamo rifinito la nostra ricerca. “Vitamine” ci dava un’infinità di risultati senza utilità perché volevamo comunque trovare la B1 e la B2, così ci siamo solo fatti più attenti e abbiamo dato una mano a Google con una parola chiave della coda lunga. Nelle immagini a seguire a destra infatti noterai la SERP per la prima ricerca mentre a destra per la seconda.  C’è da notare ad esempio che

  • sono scomparse le immagini delle vitamine
  • i risultati sono passati da 30.400.000 a “soli” 287,000
  • i risultati nella serp non sono uguali


Promuovi è un’agenzia specializzata in SEO, SEM e SMM . Ci occupiamo di dare sostegno alle aziende che intraprendono progetti di e-commerce per vendere con successo sul mercato nazionale e su quelli internazionali. Vendere e fare fatturato; questo il fine. Operiamo sugli Owned Media aziendali con Prestashop, Magento e WordPress o sulle piattaforme multicanale come Ebay, Amazon, Eprice, ecc.
Contatta il nostro staff se sei interessato ad approfondire.

E LA SEMANTICA?

Cosa accadrebbe però se cambiassi la parola chiave e cercassi ad esempio una parola della coda lunga con un preciso significato semantico? non più dunque una parola chiave ma una frase di linguaggio comune quello che gli americani chiamano Natural Language.

Facciamo un esempio . Immaginiamo la seguente query:

“che età ha Renzi?” (vedere la SEP nell’ immagine a sinistra)

Se poi “convertiamo” la frase semantica in una parola chiave otteniamo la stringa:

“quando è nato Renzi” (vedere la SERP nell’ immagine a destra)

Il motore ha capito esattamene cosa volevamo: ha imparato. Ecco l’effetto del Machine Learning. In pratica Google ha saputo tradurre il significato semantico della prima frase in una stringa che è una parola chiave e ha prodotto il risultato corretto. Il processo di derivazione semantica compiuta dal motore è uno degli effetti dell’aggiunta di Rank Brain. In questo modo Google aiuta l’utente e invece di imporgli un’alfabetizzazione sull’uso delle pratiche di creare delle parole chiave adatte alla sua “lettura” gli offre, o quanto meno si ripromette di offrirgli la possibilità di esprimersi nel suo linguaggio comune.

In realtà l’ AI qui fa ancora di più. Compie associazioni.  Ce ne sono di banali, ad esempio quando copre anche le aree note come campo semantico , che si presenta quando un termine si carica di ulteriori significati legati a specifiche aree concettuali.

La parola “sole” significa per l’essere umano molte cose, una stella, una macchia luminosa, la luce del giorno ecc.  In Italia oltre ai valori associabili per il campo semantico viene anche usata per identificare II Sole 24 ore (il portale di notizie) oppure un programma Rai (“Un posto al sole”) ecc.  Cerca “sole” in Google e vedrai.

Come puoi immaginare dall’esempio riportato il campo semantico, và oltre i sinonimi, ma RankBrain presidia anche quelli solo che i due concetti non sono equivalenti perciò compie due task specializzati e differenziati.  In realtà fa altro ancora con la Local Seo come vedremo tra poco.

LE QUERY COINVOLTE IN RANK BRAIN

Su un punto si discuteva parecchio negli USA ovvero su quante delle query agite dagli utenti sul motore di ricerca venisse chiamato in causa RankBrain.  In Italia il Think Tank dominante mi sembra ancora essere quello che gli attribuisce una quota pari al 15% delle query totali. Facendo ancora riferimento all’intervista di Bloomberg tenuta da Greg Corrado, che appunto indicava il suo intervento per tutte quelle query che risultavano nuove anche a Google. Quota appunto che era stata indicata pari al 15% sul totale [<< the system (Rank Brain NDA) helps Mountain View, California-based Google deal with the 15 percent of queries a day it gets which its systems have never seen before.. << ] e che aveva stupito molti che pensavano che dopo anni di lavoro indefesso per il nostro beniamino dalle due OO doveva essere proprio strano che ben una query su sette fosse una novità assoluta. L’intervista però risale al 26 Ottobre 2015 .

Oggi invece le cose sono cambiate. Del tutto cambiate.  E RankBrain viene attivato in ogni query.

E’ questo quanto ci testimonia Steven Levy che scrive per Backchannel in questa intervista che ospita Jeffrey Dean cofondatore di Google Brain, uno dei vari progetti di ricerca e sviluppo di Mountain View. Il ricercatore afferma senza esitazioni che l’algoritmo è coinvolto in ogni query (“involved in every query”).

Che sia così importante sapere se ogni query passa per Rnk Brain?  Direi che la domanda è posta male. Non ha importanza se la query è “verificata” ovvero passata al setaccio da RankBrain ogni volta che l’utente la invia nel box di ricerca.  Conta invece, ai fini della SEO, solo se l’algoritmo esplica un proprio intervento.  Il perché è facile da spiegare. Sono solo gli interventi che compie degli eventi fattuali, quelli che contano perché sono gli unici che potenzialmente potranno avere un effetto sulle SERP.

Se accettassimo l’ipotesi a mio avviso più probabile (data la nota resistenza e la grande precauzione del gigante di Mountain View quando si tratta di uscire con nuovi metodi algoritmici che impattano le SERP in presenza di pratiche standard e non Grey o Black Hat dove invece si scatena per redarguire gli internauti pasticcioni ed affermare la sua potenza) che RankBrain serve solo a vettorializzare un contenuto semantico o anche del parlato comune persino “slanghizzato” verso una nitida parola chiave della long tail, senza alcun effetto sull’ordinamento interno alle SERP, nonostante ciò un effetto comunque lo produrrà.  Tutto sta nell’osservare con attenzione il modo in cui sarà capace di vettorializzare la “traduzione”. Insomma anche per Danny Sullivan come per me Rank Brain non ha fattori di ranking al suo interno e, tuttavia, produce un effetto nel ranking complessivo.

Ti sembra che stia sragionando? Mi sto contraddicendo? Ho fatto un affermazione paradossale? Nient’affatto.  Benché seguendo questo approccio stiamo forse ragionando sulle soglie dell’effimero possiamo concludere che Google RankBrain produce effetti sulle SERP per almeno due ordini di fattori ed entrambi sono strutturalmente correlati.  Però prima di analizzarli voglio tranquillizzarti sul fatto che questa non è una mia supposizione ma un affermazione pubblica fatta da Gary Illyes, Webmaster Trends Analyst di Google in un intervista del 22 Giugno 2016 condotta da Danny Sullivan, in cui affermava: <<   I will stick to what we said — basically, it’s a ranking factor. <<

VETTORI DI PAROLE – MACHINE LEARNING – DEEP LEARNING E RANK BRAIN

Dobbiamo capire prima di tutto che l’algoritmo nel suo vettorializzare i contenuti si comporta come un traduttore. In tal senso le tecniche di apprendimento utilizzate fanno riferimento a quello che in letteratura viene indicato come Deep Learning, che Google (siamo sempre all’interno di una branca di AI) esperisce usando le reti neurali artificiali. Un suo studio (piuttosto datato, infatti è del 7 settembre 2013) riporta i risultati dell’utilizzo sperimentale di due “nuove” tecniche di apprendimento accelerato della macchina per ottenere una rappresentazione vettoriale delle parole ma utilizzando – e con enorme rapidità di apprendimento (meno di un giorno) – un data set immenso di parole pari a 1,6 miliardi di unità. Il white paper titola: “Efficient Estimation of Word Representations in Vector Space” e ci spiega nel dettaglio cosa è stato fatto.  Dire oggi se gli algoritmi di AI come RankBrain usano tecniche di apprendimento supervisionato o non supervisionato oppure o tecniche di Deep Learing con reti neurali artificiali non ci è dato di sapere con esattezza, è un segreto industriale. Ciò che è però probabile e che le varie tecniche convivano e vegano fatte operare su specifici compiti.

Ma ora torniamo a RankBrain e riprendiamo il discorso nel punto in cui lo avevo interrotto

Vediamo come l’algoritmo influisce sull’ordinamento delle SERP.
Per farlo è sufficiente orientare lo studio su quello che è alla sua portata in questo specifico compito e capire come lo svolge.

RankBrain assolve a due compiti di interpretazione:

  1. Converte la stringa semantica dell’utente in una parla chiave della coda lunga, dunque intrepreta al meglio ciò che lui crede l’essere umano stia cercando: ciò che scritto nel testo immesso nel box di ricerca.
  1. E con lo stesso criterio può anche interpretare i contenuti delle pagine che ha indicizzato. Anche nei contenuti ci sono delle aree semantiche che racchiudono significati che non sono espressi in una parola chiave e dunque per fare un matching fra la ricerca dell’utente e il contenuto di una pagina deve per forza interpretare anche i contenuti delle pagine.

Se l’interpretazione dovesse produrre una convergenza di significato fra la stringa cercata dall’utente e un concetto contenuto in una pagina, allora quella pagina apparirà nelle SERP, sempre che Humming Bird decida di includerla.  Ma questo è già sufficiente a provare che RankBrain produce un effetto nelle SERP. Magari aleatorio (non sappiamo quando lo fa) ma potenzialmente fattuale

Non vorrei però causare mali di testa e alimentare pensieri capziosi. Infatti, al di là di questo scenario, dal sapore squisitamente tecnico, mi sembra molto più seducente invece l’ipotesi ci indagare cosa accade nei laboratori segreti di Mountain View: come e cosa fanno i suoi ricercatori per alimentare l’intelligenza della macchina e le sue tecniche di auto-apprendimento.

COME RAGIONA RANK BRAIN CON LA LOCAL SEO

La macchina converte una frase semantica con una parola chiave della coda lunga e dunque compie una specie di traduzione ma impara la procedura (probabilmente anche) sotto un controllo supervisionato dall’uomo. Ciò giustificherebbe almeno in parte il fatto per cui è stato concepito come un algoritmo autonomo.  La query del motore passa attraverso la sua “mente” ed è lì che viene scambiata in parola chiave e poi “rientra” nel motore con la sua normale prassi di ricerca sotto il presidio di HummingBird. Quest’ultimo ha il compito di cucire tutti i pezzi del puzzle, insomma mette d’accordo tutte le operazioni compiute dai vari sub-algoritmi, e le organizza in un flusso organico (di output) che è quello che osserviamo nella lista delle SERP.  Anche così facendo però il training set darebbe un falso positivo nell’ipotesi che abbiamo fatto prima circa la parola “sole” che ha delle prossimità con le intenzioni di ricerca di una parte del pubblico che, ad esempio, vorrebbe trovare il Sole 24 Ore o il programma televisivo.  Tali prossimità sono “aggiunte” all’algoritmo grazie al lavoro di una redazione umana: non credo possa avvenire diversamente.

E’ probabile che vengano elaborate delle liste di sinonimi e create delle banche dati che interrelano dati che la mente umana riconosce come collegati. Casi da correlare riguardano le sinonimie di nomi e parole con quelli di opere dell’ingegno, di persone, di media, di libri, di attività commerciali, ecc. le quali ovviamente hanno senso solo entro una certa lingua ed una certa cultura.

Persino le realtà commerciali della Local Seo entrano nel processo.  Pensate ai nostri teatri lirici, alunci portano il nome di noti musicisti è piuttosto ovvio che chi cerca a Trieste “giuseppe verdi” trovi il Teatro Lirico Giuseppe Verdi e chi a Milano cerca Milano “la scala” trovi il Teatro della Scala fra i primi risultati delle SERP.   Ovvio, non ti pare? (vedi pure le immagini che te lo confermano)

Ma immaginiamo di andare persino più lontano.

Se cerchi ad esempio la parola “albero” o “fiore” è probabile che, se stai compiendo la ricerca all’interno di una città, troverai in testa alla SERP un ristorante, un hotel o un’attività commerciale con quel nome.  Questa operazione, come abbiamo anzidetto, è quella in cui entra in gioco HummingBird che ridisegna dinamicamente la SERP con una prassi che punta alla minimizzazione del rischio quando crea la lista delle SERP (tieni a mente il caso del Ristorante Fiore). La logica di minimizzazione dell’errore è quella che poi trova nel suo corollario di massimizzazione della probabilità di avere dato al potenziale utente quello che cercava.  Dunque nei primi 10 posti delle SERP trovi l’estensione semantica, i sinonimi, le associazioni di termini e, per la componente di Local Seo, le attività locali sinonimiche con il termine cercato (ristorante fiore, Bar Fiore, Albergo Fiore, ecc.).

L’ output è ovviamente anche molto condizionato dallo storico della navigazione compiuta dal Browser ma essendo questo un effetto distorsivo – ciascuno ha la propria storia di navigazione – io fino a qui ho dato per implicito il fatto che si usasse una navigazione resettata ed anonima.

Nell’intervista del 22 Giugno 2016 di Danny Sullivan a Gary Illyes, Webmaster Trends Analyst di Google, afferma:

<< We use clicks for very specific things, like personalization. If you first search for “apple,” we may not know if you mean the fruit or company. If you regularly click on pages about the company, we’ll learn that’s what you’re interested in.<< vedi qui http://searchengineland.com/ama-google-search-keynote-smxadvanced-252465



Che Hummnig Bird lavori per massimizzazione la soddisfazione per l’utente che esercita una ricerca è dato da questo esempio. Se cerchi su un Browser resettato con la cache cancellata e solo con il riferimento geografico (leggi IP) visibile, così che Google possa identificare dove sei ed effettui la ricerca per la parola chiave “fiore” avrai, nella tua città, una lista di ristornati, bar, gelaterie, alberghi almeno in una parte della SERP. Se poi effettui una seconda ricerca e affini la parola chiave in “vendita fiori” farai capire a Google che stai cercando un fiorista. A quel punto se andrai a ripetete la query per “fiore” scoprirai che avrai accesso alla lista della SERP locale solo con dei fioristi e tutte o una buona parte delle attività economiche locali diverse dal fiorista saranno sparite dalla SERP.


Siamo arrivati in fondo.  Ora spetta a te. Mi farebbe piacere conoscere la tua opinione.  Ci sono novità da parte di Google su Rank Brain? Segnalamele. Aiutami a tenere aggiornato il post.
Trovi delle cose da aggiungere? Fammi sapere, commenta il post!