Dietro Google Search c’è una manina? L’algoritmo censurato

da | Nov 19, 2019

Correttivi e aggiustamenti di Google Search per condizionare i risultati delle ricerche organiche. Il j’accuse del Wall Street Journal.

Benché abbia sempre dichiarato il contrario, Google Search manomette in modo sistematico i propri algoritmi per condizionare i risultati delle ricerche organiche e favorire così alcuni siti a discapito di altri. È questa la roboante accusa formulata nei giorni scorsi dal Wall Street Journal nei confronti del più grande motore di ricerca del mondo. L’articolo (How Google Interferes With Its Search Algorithms and Changes Your Results), apparso sul quotidiano finanziario americano il 15 novembre scorso a firma di Kirsten Grind, Sam Schechner, Robert McMillan e John West, è di quelli destinati a fare discutere.

Peraltro, i quattro giornalisti non rendono note le loro fonti. Nel servizio si fa riferimento a oltre 100 interviste e ad alcuni test svolti internamente dalla redazione del giornale. In particolare, il quotidiano ha esaminato i contenuti della SERP di Google Search per diverse settimane, confrontandoli con i risultati delle medesime ricerche condotte con Bing e DuckDuckGo. Vediamo, più in dettaglio, in che cosa consistono le intromissioni “manuali” negli algoritmi di Google attribuibili ai suoi tecnici e a quali obiettivi rispondono.

Prima di tutto il motore di ricerca – sostiene il WSJ – tende a favorire il posizionamento nella SERP delle risorse delle grandi società, come eBay, Amazon e Facebook, e a penalizzare quelle delle organizzazioni di minori dimensioni. In secondo luogo, Google Search manomette i suggerimenti che, sempre più spesso, sono visualizzati in testa alla lista dei risultati organici. Si tratta dei contenuti proposti all’utente attraverso la funzione autocomplete (ricerche di tendenza) o di quelli presenti nel pannello Knowledge Graph. In particolare, per quanto riguarda la funzione autocomplete, sono censurate le opzioni relative ai temi più controversi, come aborto o immigrazione. Anche i cosiddetti featured snippet – o snippet in primo piano – subiscono un trattamento analogo.

Alcuni fatti già noti

Si tratta, almeno in parte, di fatti conosciuti da tempo. Gli interventi sull’algoritmo che governa l’autocomplete, per esempio, sono rivendicati dalla stessa Google, che ha stabilito in proposito specifici standard di comportamento (Autocomplete policies). Lo scopo è evitare la promozione di contenuti violenti o sessualmente espliciti, l’incitazione all’odio o la violazione della privacy. Lo stesso discorso vale per i featured snippet. Nella pagina Come funzionano gli snippet in primo piano, Google spiega in base a quali criteri censura determinati risultati e in che modo è possibile segnalare snippet non graditi. Certo, Google corre sempre il rischio di sbagliare. Nel 2015, per esempio, la BBC segnalò che componendo nella buca di ricerca l’espressione how to join («come unirsi a»), l’autocomplete suggeriva opzioni quali Isis o Ku Klux Klan (Who, What, Why: How does Google’s Autocomplete censor predictions?).

Si può sempre opinare sulle scelte di Google. Ma presentare tutto ciò come una congiura ordita nell’ombra sembra decisamente una semplificazione. Si potrebbe poi aggiungere che l’utente ha sempre la possibilità di disattivare l’autocomplete. Certo, non è un’opzione così evidente, visto che occorre accedere alle impostazioni del proprio account, ma esiste. In ogni caso non sembra che quello del WSJ sia definibile nei termini di uno scoop giornalistico.  

Le accuse del quotidiano americano, però, non finiscono qui. Secondo il WSJ esiste infatti una lista nera dei siti da non visualizzare fra i risultati delle ricerche. E non si tratta dei siti collocati in black list per motivi legali, né di spam. Infine, Google Search tenta di influenzare le scelte che i quality rater – o «valutatori» – sono chiamati a compiere per determinare la qualità dei siti e delle singole pagine. Si tratta, com’è noto, di alcune migliaia di collaboratori che forniscono feedback sull’efficacia degli algoritmi valutando fra l’altro la reputazione delle fonti.

Big G e i valutatori

Ricordiamo che i valutatori sono selezionati da Google secondo criteri non pubblici e che periodicamente la società aggiorna le linee guida del Search Quality Rating Program, relativo alle due fondamentali dimensioni di analisi: PQ (page quality) e NM (needs met). Nel primo caso si tratta di stabilire in che misura una pagina raggiunga lo scopo per cui è stata creata, mentre nel secondo di valutare la capacità di quella pagina di soddisfare i bisogni di un utente mobile.

La metodologia sembra rigorosa e tende a ridurre al minimo la soggettività del giudizio del singolo valutatore, che opera sulla base di articolate liste di controllo. Le linee guida, inoltre, sono aggiornate periodicamente. In ogni caso i valutatori non hanno alcuna possibilità di intervenire direttamente sugli algoritmi, ma solo di fornire un feedback a Google Search. Certo, la scarsa trasparenza nella selezione dei valutatori è un fatto indiscutibile. Il WSJ suggerisce poi che siano sottopagati e, forse per questo, facilmente condizionabili da Google.

Il quotidiano americano sembra comunque porre una questione di principio. Le pratiche di manomissione sui risultati delle ricerche, comunque le voglia giudicare, smentiscono l’idea che Google Search non eserciti alcun controllo editoriale sui contenuti mostrati agli utenti. Si tratta di un punto importante, dal momento che proprio a questo argomento ricorre la stessa Google ogni volta che risponde alle contestazioni dei regolatori, quando è accusata di condurre pratiche lesive della concorrenza o di condizionare il sistema dell’informazione.

L’‘aiutino’ di Google Search a eBay

L’articolo del WSJ illustra i retroscena del confronto fra eBay e Google Search, ricostruiti attraverso testimonianze non sempre ufficiali. In sostanza emergerebbe una certa disponibilità di Google a venire incontro alle esigenze di eBay, per migliorare il posizionamento delle sue pagine. Secondo gli autori dell’inchiesta, tutto ebbe inizio nel 2014. All’epoca eBay si ritrovò improvvisamente penalizzata dai nuovi criteri di ranking del motore di ricerca, perdendo visibilità e traffico in misura significativa. Il noto sito di vendite e aste online riceve infatti da Google circa il 30% delle sue visite. Per ottenere un trattamento più favorevole, eBay considerò la possibilità di minacciare una riduzione degli investimenti pubblicitari a favore di Big G (circa 30 milioni di dollari a trimestre), ma poi decise di seguire una strategia diversa. Un’intensa attività di lobbying, fatta di incontri, richieste di supporto, consulenze e modifiche delle clausole contrattuali portò ai risultati sperati.

Che cosa ha dovuto fare eBay, in concreto, per migliorare il proprio posizionamento? Le fonti consultate dal WSJ parlano di un intervento complesso e costoso, finalizzato a rendere le pagine del proprio sito più utili e rilevanti per l’utente. In fondo – verrebbe da dire – si tratta di ciò che Google Search si aspetta da ogni sito web, come sa bene chi si occupa di SEO. Pubblicare contenuti utili e rilevanti per l’utente è una buona pratica SEO. Anzi, è la migliore pratica SEO.

Il punto è che, secondo il WSJ, le società senza il peso di eBay ricevono da Google un trattamento diverso, anche quando si rivolgono a consulenti di provata esperienza. E il tentativo di contattare Google non sortisce grandi risultati. Il traffico che riceviamo da Google Search – è la conclusione di un imprenditore intervistato nell’ambito dell’inchiesta – precipita e risale senza che riusciamo a trovare una spiegazione plausibile.

Umano, troppo umano

In generale l’impressione è che l’inchiesta del WSJ sveli l’ovvio, ovvero che non è possibile governare un meccanismo così complesso come Google Search, il quale indicizza centinaia di miliardi di risorse e risponde a 3,8 milioni di query ogni minuto, in modo totalmente automatico e senza continui aggiustamenti manuali. Per quanto Google affermi il contrario, il lavoro del suo motore di ricerca è il prodotto della costante collaborazione fra algoritmi e persone. Una collaborazione che si svolge su tre piani: il primo è quello degli ingegneri di Mountain View, che intervengono sugli algoritmi modificandoli in continuazione (3200 cambiamenti solo nel 2018, 2700 l’anno precedente); il secondo è quello dei quality rater, che mettono alla prova l’efficacia degli algoritmi stessi dal punto di vista dell’utente; il terzo è quello di tutti coloro che utilizzano il servizio ogni giorno e, in tal modo, forniscono agli algoritmi i dati necessari al loro funzionamento.

Si tratta semmai di capire in che misura sia ancora giustificabile tanta segretezza intorno al funzionamento del motore di ricerca più famoso del mondo. Una maggiore trasparenza ridurrebbe forse contenziosi e polemiche, come quella del WSJ. Com’è noto, Google ha sempre sostenuto che la riservatezza intorno ai propri algoritmi è necessaria per proteggere la piattaforma da eventuali tentativi di sabotaggio. È la famosa «security through obscurity». Ma se si trattasse di un alibi? Intanto dietro l’angolo c’è BERT.

Paolo Costa
Paolo Costa
Socio fondatore e Direttore Marketing di Spindox. Insegno Comunicazione Digitale e Multimediale all’Università di Pavia. Da 15 anni mi occupo di cultura digitale e tecnologia. Ho fondato l’associazione culturale Twitteratura, che promuove l’uso di Twitter come strumento di lettura attraverso la riscrittura.

Potrebbe piacerti anche

Cybersecurity, arriva la NIS 2: cosa cambia per le infrastrutture critiche e come Spindox aiuta i suoi clienti

Cybersecurity, arriva la NIS 2: cosa cambia per le infrastrutture critiche e come Spindox aiuta i suoi clienti

Dal 17 ottobre 2024 la NIS 2 è pienamente vigente. La direttiva introduce nuove regole per la sicurezza informatica delle infrastrutture critiche e dei servizi essenziali in Europa. Le aziende nei settori energetico, sanitario, delle telecomunicazioni e altri sono chiamate ad adeguarsi a standard più elevati. Chi è impattato, i rischi di non conformità e il ruolo di Spindox nell’aiutare i clienti a migliorare la propria sicurezza.

I principali trend di Intelligenza Artificiale per il 2025

I principali trend di Intelligenza Artificiale per il 2025

Il campo dello sviluppo software sta subendo una trasformazione radicale grazie all’intervento dell’Artificial Intelligence. L’AI non sta solo automatizzando le attività, sta diventando un assistente indispensabile, migliorando l’efficienza e la qualità del codice. Ma quali sono le aree chiave in cui l’Intelligenza Artificiale sta rivoluzionando la programmazione?