- Home
- Categorie
- Digital Marketing
- Posizionamento Nei Motori di Ricerca
- I Segreti dell'Algoritmo: analisi di documentazione tecnica interna di Google Search trapelata
-
@giorgiotave io ci ho dedicato la mattinata! Ho già delle osservazioni sparse ma prima le riordino un poco.
-
Intanto ad oggi manca completamente una dichiarazione ufficiale di Google sulla cosa. E sta iniziando a fare il giro sui media mainstream... Sullyvan, Mueller... tutti silenti
-
Qui può essere interessante investire tempo:
https://www.localseoguide.com/local-seo-according-to-the-leaked-google-api-documents/Alla fine i vari "rumors" SEO di ghostanti fattori di rank, sembrano concretizzarsi.
Poi è chiaro che è solo un documento e che non se ne conosce l'applicazione...
ps: rimane in me il dubbio che questo leak sia più un "distrattore" dal casino di AI Overview, ma come qualcuno ha scritto su Twitter, il leak è qualcosa che affligge la community SEO mentre AI Overview sta causando casini di massa in USA.
1 Risposta -
@merlinox ha detto in I Segreti dell'Algoritmo: analisi di documentazione tecnica interna di Google Search trapelata:
ps: rimane in me il dubbio che questo leak sia più un "distrattore" dal casino di AI Overview
Secondo me no, per le tempistiche.
Erano settimane che la cosa cucinava sotto traccia, in modo del tutto indipendente dalla scaletta delle release di Google.
Certo è che è una roba grossa e sì, la comunità SEO giustamente ci si è buttata a pesce.
-
Io comunque mi son fatto un po' di appunti/osservazioni... ne parleremo assieme con @giorgiotave in live settimana prossima, non le metto qua perché sono davvero spezzettate e confuse.
Però tra tante cose ho trovato per il momento interessanti:
- le metriche sui click (tutti a dire "eh ma lo sapevamo": chissenefrega. Sono interessanti punto e basta.)
- le info sugli indexing tiers (questa è roba trattata pochissimo che secondo me merita un approfondimento)
- i segnali consolidati a livello di homepage (che di fatto avvantaggiano i siti più vecchi)
- il fatto che abbiano un flag apposta per piccoli siti personali (E CHE CI DOVETE FARE CO STO FLAG?!?!)
- nelle varie voci, si fa spesso riferimento alle performance del sistema e non tanto all'efficacia dell'output
1 Risposta -
Ok, ne aggiungo una perché non l'ho vista spesso in giro e anche molti colleghi erano scettici e si concentravano solo sui backlink.
La butto qua in formato grezzo...
confidence (type: number(), default: nil) - Confidence that this name is a trusted name of the entity.
+
nameMetadata (type: GoogleApi.ContentWarehouse.V1.Model.RepositoryWebrefPreprocessingNameEntityMetadata.t, default: nil) - Metadata about this name aggregated from name signals.
=
Entità semantiche associate alle query navigazionali.
E ciliegina sulla torta:
volumeBasedScore (type: number(), default: nil) - Absolute score that comes from quantitative sources such as navboost clicks, anchors, etc.
Quindi le entities sono misurate in assoluto per "famosità" usando i click ed i link (e probabilmente pure le menzioni?)
-
-
Anche l'esistenza di una sandbox per i siti "nuovi" che è stata smentita più volte non è una cosa di poco conto.
Al di là di tante cose uscite, quella che mi ha colpito maggiormente è il fatto che diversi aspetti o fattori, che dir si voglia, siano state smentite o negate in passato da Google o dalle sue figure apicali, si sono poi rivelate vere.
1 Risposta -
Scusate l'OT. Vi vedo belli presi, ma nella serata di ieri, Goooogle, per distrarre le masse dal #Googledataleak, ha tirato fuori la bomba della chiusura della messaggistica su GBP. Ci è riuscita? Con me ci è riuscita!
https://searchengineland.com/google-business-profile-chat-and-call-history-going-away-442666
-
@matteofavini sì, è il sotto testo più grosso nonché la premessa dell'articolo di Mike King.
Anche se a me sinceramente la cosa lascia freddino.
Nel senso: ci eravamo già accorti che molte cose non quadravano.
Certo, ora è un bel problema di PR per Google e molto probabilmente non rivedremo presto Mueller, Sullyvan o altri rilasciare dichiarazioni pubbliche.
1 Risposta -
@kal concordo. Ora qualsiasi cosa diranno a riguardo potrà essere considerata una bugia perché ci sono le prove che hanno già mentito diverse volte.
Avendo letto anche i documenti del DOJ, è solo l'ennesima conferma che non dobbiamo credere a quello ci dicono.
Le conoscenze le acquisiamo lavorando su diversi progetti, facendo test e condividendo i risultati con la comunità SEO. Che poi è quello che la maggior parte della comunità seo ha sempre fatto: condividere, confrontarsi e divulgare.
Però che l'eco di questo leak è stato mooolto superiore rispetto a quanto uscito dalle testimonianze al processo negli Stati Uniti.
Magari, dopo questa serie di notizie e in attesa di una loro replica, qualche decina di migliaia di utenti cambierà browser.
1 Risposta -
@matteofavini ah, io sono su Edge come browser principale da un bel po' oramai!!
-
Nel frattempo è arrivato il commento da Google:
https://searchengineland.com/google-responds-to-leak-documentation-lacks-context-442705
Nessuna sorpresa, risposta direi standard.
1 Risposta -
@kal ma ha ammesso che i documenti sono reali e non fake?
1 Risposta -
Una cosa molto interessante che ho letto riguarda la link building.
In pratica Google dà un peso ai backlink anche sul numero di click che quel link riceve nel tempo.
In pratica fare solo link building fine a se stessa serve a ben poco.
-
@marcoilardi ha detto in I Segreti dell'Algoritmo: analisi di documentazione tecnica interna di Google Search trapelata:
@kal ma ha ammesso che i documenti sono reali e non fake?
Sì, anche se pure su questo c'erano pochi dubbi in merito. Un fake COSÌ complesso e coerente non è semplicemente possibile.
Certo è buono avere una conferma ufficiale, aiuta a chiarire il campo da complottismi e dubbi.
@marcoilardi ha detto in I Segreti dell'Algoritmo: analisi di documentazione tecnica interna di Google Search trapelata:
In pratica Google dà un peso ai backlink anche sul numero di click che quel link riceve nel tempo.
In pratica fare solo link building fine a se stessa serve a ben poco.Riesci a mettere il riferimento a questa cosa? Perché i clic sui link non sono sicuro su come possano essere monitorati lato Google. E ho letto cose differenti, personalmente... anche se potrei aver capito male.
Di certo c'è questa cosa dei "tiers" che come dicevo sopra è importante e merita un approfondimento.
Ovvero che ci sono diversi livelli dell'indice a seconda di quanto sono importanti e aggiornati i documenti.
E un link presente in un un tier di alto livello (es. l'homepage di un quotidiano) vale molto di più di un link presente in un tier di basso livello (es. un pdf di documentazione tecnica vecchio di 10 anni)
Ma questa cosa è SOPRATTUTTO una cosa computazionale, che ha a che vedere con le performance di aggiornamento dei documenti e del calcolo del pagerank all'interno del grafo di link mappato da Google.
1 Risposta -
@kal Certo potrebbe anche essere che abbia capito male.
fonte: link text
Ti copio lo stralcio dell'articolo tradotto in italiano
N. 5: Google utilizza i dati sui clic per determinare come ponderare i collegamenti nelle serp (quindi di fatto come pesa la link building)
Questo è affascinante e proviene direttamente dalla fonte anonima che per prima ha condiviso la fuga di notizie. Nelle loro parole: “Google ha tre categorie/livelli per classificare i propri indici di link (bassa, media, alta qualità). I dati sui clic vengono utilizzati per determinare a quale livello di indice del grafico di collegamento appartiene un documento. Vedi SourceType qui e TotalClicks qui ." In sintesi:Se Forbes . com / Cats / non ha clic, entra nell'indice di bassa qualità e il collegamento viene ignorato
Se Forbes . com / Cani / ha un volume elevato di clic da dispositivi verificabili (tutti i dati relativi a Chrome discussi in precedenza), entra nell'indice di alta qualità e il collegamento trasmette segnali di posizionamento
Una volta che il collegamento diventa “attendibile” perché appartiene a un indice di livello superiore, può far fluire PageRank e ancorarsi o essere filtrato/retrocesso dai sistemi di spam dei collegamenti. I collegamenti provenienti da un indice di collegamento di bassa qualità non danneggeranno il posizionamento di un sito; vengono semplicemente ignorati .
1 Risposta -
@kal secondo me il flag piccoli siti personali spinge il crawler a visitarlo tipo una volta all'anno indipendentemente da ciò che trova in sitemap
-
@marcoilardi ha detto in I Segreti dell'Algoritmo: analisi di documentazione tecnica interna di Google Search trapelata:
@kal Certo potrebbe anche essere che abbia capito male.
Sì, l'hai interpretato nel senso opposto
Ad essere pesati non sono i link bensì I DOCUMENTI CHE OSPITANO i link.
Ovviamente questo ha un impatto sul calcolo del Pagerank, come scrivevo sopra.
@marcoilardi ha detto in I Segreti dell'Algoritmo: analisi di documentazione tecnica interna di Google Search trapelata:
@kal secondo me il flag piccoli siti personali spinge il crawler a visitarlo tipo una volta all'anno indipendentemente da ciò che trova in sitemap
Eh, che ci sia un effetto negativo sull'indicizzazione ce ne eravamo già accorti da mò. Google da tempo ha gettato la spugna con l'internet indipendente.
Un po' per il troppo spam e un po' per il troppo contenuto mainstream.
I piccolini si son trovati in mezzo e son finiti nel tritacarne.
Se hanno un flag comunque mi rimane la flebile speranza che possa essere usato anche al contrario, in alcuni contesti... chissà.
-
Aggiungo la mia opinione, non tanto professionale, ma quanto quella personale, perché mi sono ritrovato moltissimo nel video del ragazzo che ha scoperto il leak.
Mi occupo di web dal 2007, i siti si facevano ancora in ActionScript e non esisteva (o quasi) la SEO. Non penso di essere un allocco… eppure mi sono sentito esattamente come il ragazzo del video. Ho partecipato anche io agli incontri con Mueller (office hours) e mi sono fermato con lui a discutere anche dopo che veniva fermata la registrazione. Ho sempre apprezzato la pazienza e la calma con cui Mueller cercava di dare suggerimenti, e il suo impegno sembrava onesto e sincero. Proprio per questo mi sono sentito tradito, imbrogliato e poi, subito dopo, mi sono sentito stupido per aver creduto così facilmente a quello che diceva lui e tutti gli altri di Google. Sicuramente è stata una mia mancanza, e certo non si può incolpare Mueller per aver detto cose di cui, probabilmente, non sapeva abbastanza. Potrebbero anche averlo fatto in maniera conscia, per nascondere informazioni e tediare la comunità SEO su argomenti non rilevanti, ma la mia impressione è che le frasi di Mueller non fossero dissimili da quanto potrebbe dire/generare una AI (concetti generici, frasi improbabili e tante allucinazioni). A dimostrazione della incapacità di Mueller c’è anche la storia recente dei suoi Office Hours: sono stati chiusi! Hanno provato a fare qualche podcast, in cui spesso e volentieri, Sullivan passava il tempo a blastare Mueller, dicendogli che non ne capiva niente, ma anche questi podcast sono stati interrotti/ridotti poco tempo dopo.
Sappiamo tutti che Google è una grande azienda che persegue i suoi (malefici?) obiettivi, per cui non c’è da stupirsi se cercano di fare i loro interessi… credo invece che siamo noi a dover avere la voglia di creare un Web che sia accessibile, paritario, che premi il merito e l’impegno di ognuno, senza dover subire i ricatti di un monopolista che modifica i suoi strumenti per mantenere una posizione dominate.
Concludo con un pensiero personale: quando qualcosa non va secondo le nostre aspettative è normale arrabbiarsi e sentirsi delusi, ma il sentimento successivo è quello di ripartire più forti di prima, anche se ci sentiamo come Davide contro Golia, anche se le nostre armi sono spuntate e la lotta sembra impari… a volte, dalle necessità dei singoli si possono ottenere grandi risultati che miglioreranno la vita di tutti!
1 Risposta