Recentemente, il mondo della SEO e della sicurezza informatica è stato scosso dalla fuga di notizie nota come Google Leak, dove oltre 2500 documenti interni sono stati trafugati, delineando circa 14.000 fattori che influenzano il posizionamento dei siti nei risultati di ricerca.
Dal 1998, Google ha stabilito gli standard per le ricerche di contenuti su Internet. Come leader quasi monopolista del settore, le sue linee guida hanno influenzato la maggior parte dei siti Web globali. Questi suggerimenti, riassunti nell’acronimo SEO, inizialmente erano spunti per aiutare articoli, siti aziendali e blog a posizionarsi in cima ai risultati di ricerca (SERP). Presto, queste linee guida sono diventate “best practice”, enfatizzando non solo il contenuto, ma anche l’estetica e la struttura di un sito web. Ignorare questi suggerimenti comportava il rischio di essere esclusi dalle ricerche di Google o di scivolare in fondo alla classifica. Da allora, è emersa la figura del SEO specialist, un professionista dedicato all’ottimizzazione dei siti web, che collabora strettamente con scrittori e sviluppatori.
Dettagli e contenuto dei Leak
Questi documenti hanno portato alla luce informazioni dettagliate su come Google ordina i contenuti, tratta i dati degli utenti e stabilisce il posizionamento delle pagine web nei risultati di ricerca.
Clic degli utenti: per migliorare il ranking delle pagine, Google utilizza diverse metriche che misurano il comportamento degli utenti, come i clic (“buoni” e “cattivi”), il tempo trascorso sulla pagina e le impressioni. Queste informazioni permettono di valutare la qualità dell’esperienza utente e di premiare i siti web che offrono contenuti rilevanti e soddisfacenti. In questo modo, Google mira a mostrare agli utenti risultati di ricerca più pertinenti e utili.
Autorità del sito: questo termine si riferisce all’autorità complessiva di un sito web, utilizzata da Google per valutare la qualità e la pertinenza dei contenuti. La Site Authority è influenzata da vari fattori, come la qualità dei contenuti, i link in entrata e l’engagement degli utenti. Un sito con alta autorità ha maggiori probabilità di posizionarsi bene nei risultati di ricerca rispetto a uno con bassa autorità.
Siti piccoli e blog: Google potrebbe trattare i siti personali o blog di piccole dimensioni in modo diverso dai grandi siti commerciali, utilizzando moduli specifici o flag per classificarli, con possibili trattamenti preferenziali o penalizzazioni in base alla qualità e pertinenza dei contenuti.
Età e storia del brand: la storia del dominio e del brand associato è importante per Google nella valutazione di autorità e pertinenza. I domini con una lunga storia di contenuti di alta qualità e brand riconosciuti hanno un vantaggio rispetto ai nuovi domini, enfatizzando la continuità e coerenza nel tempo.
Dati Chrome: Google utilizza i dati di clickstream – sequenza di clic compiuta dall’utente e monitorata per scopi di marketing – raccolti tramite il browser Chrome per calcolare metriche che influenzano il ranking delle pagine, identificando le URL più popolari e importanti di un sito. Questo approccio fornisce a Google una visione dettagliata del comportamento degli utenti, migliorando la pertinenza dei risultati di ricerca.
Archiviazione delle versioni delle pagine: Google conserva copie di ogni versione di ogni pagina web indicizzata per monitorare l’evoluzione dei contenuti e valutare le modifiche. Questa pratica aiuta a identificare e penalizzare pratiche di manipolazione dei contenuti come il cloaking – tecnica informatica mediante la quale, grazie a particolari script, è possibile mostrare ai motori di ricerca un contenuto differente da quello che realmente il sito internet propone agli utenti, consentendo così al sito stesso di ottenere migliori posizionamenti all’interno delle SERP – e premia i siti che investono nella qualità dei contenuti nel tempo.
Feedback dei Quality Raters: i feedback dei Quality Rater, raccolti tramite la piattaforma EWOK, influenzano direttamente il ranking delle pagine. Questi punteggi e dati sono integrati nel sistema di ricerca di Google, indicando l’importanza delle valutazioni umane.
Entità: Google memorizza informazioni sugli autori associati ai contenuti per determinare l’autorevolezza e la credibilità, migliorando la pertinenza e la qualità dei risultati di ricerca.
Cause di retrocessione: Google può penalizzare una pagina o un sito per vari motivi, come link non pertinenti, segnali di insoddisfazione degli utenti, recensioni di bassa qualità e contenuti pornografici, riducendo la visibilità nei risultati di ricerca.
Backlink: la diversità e la rilevanza dei link in entrata sono cruciali per determinare l’autorità di una pagina. Google classifica i link in tre categorie (bassa, media, alta qualità) utilizzando i dati di clic per determinare la categoria e trasmettere segnali di ranking.
Queste rivelazioni hanno confermato alcuni sospetti di lunga data nel settore SEO. Ad esempio, il comportamento degli utenti, come il tempo trascorso su un sito, ha un impatto significativo sul ranking. Inoltre, l’importanza dei backlink da fonti autorevoli è stata ribadita come uno dei fattori più cruciali.
Le dichiarazioni di Google
Davis Thompson, portavoce di Google, ha affermato al sito web statunitense di notizie, storie, guide, recensioni di prodotti e podcast TheVerge: «Vorremmo mettere in guardia dal fare ipotesi imprecise sulla ricerca basate su informazioni fuori contesto, obsolete o incomplete. Abbiamo condiviso ampie informazioni su come funziona la Ricerca e sui tipi di fattori valutati dai nostri sistemi, lavorando anche per proteggere l’integrità dei nostri risultati dalla manipolazione»
Misure di Sicurezza
Per proteggersi da possibili fughe di notizie, le aziende dovrebbero adottare misure di sicurezza avanzate, come:
- Crittografia dei Dati: utilizzare tecniche di crittografia per proteggere le informazioni sensibili è fondamentale. Questo assicura che anche in caso di violazione, i dati rimangano illeggibili.
- Politiche di Accesso Restrittive: implementare livelli di autorizzazione al personale autorizzato e limitare l’accesso ai dati critici solo al personale autorizzato
- Software di Data Loss Prevention (DLP): implementare soluzioni tecnologiche per prevenire la perdita di dati
- Formazione del Personale: educare i dipendenti sulle migliori pratiche di sicurezza informatica