NOEMA Home › IDEAS
Tecnologie e Società

 

Google, più bianco non si può?
Stefano Barni

 

[Articolo tratto da ZEUS News - Notizie dall'Olimpo informatico]


Il motore di ricerca più famoso di Internet è accusato di alterare secondo il proprio interesse i risultati delle query. E' proprio vero che in Rete i contenuti sono incontrollabili?


Quella di Google è una fama guadagnata sul campo. Grazie alla sua effettiva capacità di fornire risultati utili, cioè di proporre agli utenti siti che riguardano effettivamente gli argomenti di loro interesse, in poco tempo ha sorpassato la concorrenza per notorietà e gradimento: si stima che quattro ricerche su cinque siano affidate al suo potente e veloce indice.

Ma qualcosa rischia di incrinare l'immagine di fedele specchio della Rete che molti ormai gli attribuiscono. Andrew Orlowski, collaboratore di The Register, ha formulato una pesante accusa: Google "addomesticherebbe" i risultati delle ricerche per assecondare il proprio interesse o quello di gruppi di pressione.

All'origine della polemica vi è un articolo di Patrick Tyler, pubblicato in febbraio dal New York Times, nel quale l'autore conia il neologismo second superpower (seconda superpotenza) per indicare la massa mondiale dei pacifisti, contrapposta alla superpotenza per antonomasia, gli Stati Uniti. Nel giro di qualche tempo l'articolo e le pagine web dedicate al diffuso dibattito che ne segue vengono indicizzate da Google, come del resto ci si sarebbe aspettati. Ma, sostiene Orlowski, in meno di un mese e mezzo, quelle pagine scendono in coda nei risultati forniti da Google per "second superpower", nonostante quell'articolo del New York Times sia stato ripreso e commentato da diverse centinaia di migliaia di persone. Ai primi posti ora campeggia ripetutamente uno scritto di tale James Moore, tratto dal suo weblog personale, in cui l'espressione "second superpower" è effettivamente presente, ma con un significato totalmente diverso: la seconda superpotenza sarebbe l'insieme degli utenti di Internet, grazie alla loro capacità di autoorganizzarsi e di formare una sorta di popolo virtuale.

Strano, dal momento che il "blog" di Moore non può certamente godere dello stesso seguito del blasonato New York Times: possibile che Google si faccia ingannare da una presenza statisticamente trascurabile? O potrebbe trattarsi di qualche forma di "pilotaggio"? Di fatto, affidandosi esclusivamente a Google e ricavando dai risultati ottenuti la propria percezione della Rete, difficilmente si arriverebbe a capire che, almeno in origine, la locuzione second superpower rappresentava qualcos'altro. Incidentalmente, qualcosa di più scomodo e, per qualcuno che "conta", assai inopportuno.

Nasce così, nell'articolo pubblicato da The Register, un altro neologismo: Googlewash , il quale, con quella concisa efficacia peculiare della lingua inglese, allude alla presunta attitudine di Google a "lavare" gli esiti delle ricerche prima di esporli agli utenti, filtrandoli secondo opportunità.

Trascorre qualche settimana e Orlowski torna alla carica. Chissà perche', si domanda il buon Andrew, cercando "Googlewash" su Google il risultato include numerosi siti che citano o commentano il suo articolo, ma l'originale di The Register è assente? O meglio, a ben guardare, in fondo alla lunga lista di link, ne compare uno che dice press'a poco: " Per evitare confusione, abbiamo omesso i link a pagine giudicate non rilevanti, in quanto probabili doppioni di quelle già in elenco "; ebbene, cliccando proprio quel link, ecco, confuso in mezzo ad altri, il riferimento a The Register. Anche questo è un "problema" statistico?

La questione non è banale e sarebbe un errore liquidarla come orgoglio ferito di un giornalista che ambisce a una maggiore visibilità. Le obiezioni di Orlowski non sembrano del tutto infondate, perché uno dei diversi algoritmi utilizzati da Google per attribuire rilevanza ai siti "trovati" nelle ricerche si basa proprio sul numero di link, riscontrati nel web, ad essi referenti. In pratica, quanto più una pagina è linkata da altre che trattano lo stesso argomento, tanto più essa è giudicata autorevole in materia e, di conseguenza, tanto più elevato è il punteggio ( rank ) che il motore di Google le attribuisce: il sito apparirà nei primi posti dell'elenco proposto all'utente. Tale algoritmo, chiamato PageRank , è stato ideato e brevettato dai fondatori di Google: essi affermano che si tratta di un metodo di valutazione intrinsecamente democratico, perché sono gli stessi utilizzatori di Internet ad attribuire maggiore o minore importanza ai siti, e aggiungono che, a garanzia di imparzialità, non è possibile modificare i punteggi che il sistema assegna automaticamente.

Ora, se tali affermazioni corrispondono a verità, l'articolo pubblicato da The Register, che possiamo presumere linkato dalle pagine web che lo commentano, dovrebbe effettivamente essere tra i primi siti proposti da Google in risposta alla ricerca della parola "Googlewash". Invece, secondo quanto afferma Orlowski, esso è addirittura confinato tra i doppioni. Una contraddizione che forse sarebbe meno difficile da spiegare se l'implementazione di PageRank non fosse tenuta gelosamente segreta dai suoi stessi ideatori.

E, indagando un poco, si scoprono altre recenti polemiche nelle quali Google si è ritrovato in una posizione scomoda.

Nell'ottobre 2002, due ricercatori dell'università di Harvard scoprono che Google filtra i risultati delle ricerche richieste da utenti tedeschi, svizzeri e francesi per impedire che vengano loro proposti siti il cui contenuto razzista o, comunque, provocatorio, potrebbe essere considerato fuorilegge nei loro Paesi. E' comprensibile il desiderio della dirigenza di evitare problemi legali, ma, come osserva Wired, una tale scelta avvia Google su una china pericolosa. E, sulla vicenda, il riserbo dei portavoce di Google è assoluto.

Ma non basta: siamo a fine dicembre 2002; il titolare del sito Emnme.com sottoscrive il servizio a pagamento AdWords, offerto da Google a chi desidera accrescere la propria visibilità in Rete tramite i cosiddetti sponsored link , visualizzati in bella evidenza nelle prime pagine dei risultati. Immediatamente dopo la sottoscrizione, Emnme.com è già ben piazzato nei risultati delle ricerche di Google e Yahoo! (che utilizza lo stesso motore). Per un paio di giorni tutto va a meraviglia, finché dal Supporto AdWords giunge l'avviso che il contenuto dello sponsored link non è coerente con gli standard previsti dal servizio. A seguito di un rapido controllo, il sottoscrittore scopre che non solo è stata sospesa la visualizzazione del link a pagamento, ma, addirittura, il suo sito è completamente scomparso dai risultati delle ricerche, sia in Google che in Yahoo!. Una volta modificato il contenuto del messaggio pubblicitario, lo sponsored link riappare, ma non i link al sito, nonostante le parole chiave ricercate siano presenti in entrambi. La spiegazione, secondo Emnme.com, consisterebbe in un conflitto di interessi con la Oakley, uno dei maggiori sponsor di Google.

E veniamo al caso di SearchKing, consorzio di portali che offre servizi di ricerca e web hosting . Nel 2002, stabilisce SearchKing di chiedere agli inserzionisti compensi legati al rank delle proprie pagine in Google. In pratica, quanto più una pagina di SearchKing appare "in alto" nei risultati delle ricerche, tanto più gli inserzionisti dovranno pagare per vedervi visualizzati i loro banner. Tutto bene finché, ad un tratto, il rank delle pagine di SearchKing precipita sensibilmente: ovvia la rabbia degli inserzionisti; un po' meno ovvia, forse, ma non del tutto imprevedibile, la decisione di Bob Massa, "patron" di SearchKing, di fare causa a Google. L'accusa? Avere approfittato della propria posizione dominante, alterando ad arte il ranking per danneggiarlo: in breve, concorrenza sleale.

Replicano in Google che SearchKing avrebbe sfruttato la struttura consortile per "gonfiare" il proprio ranking utilizzando link reciproci tra i portali membri: l'abbassamento della sua posizione in classifica sarebbe perciò stato provocato da una modifica apportata all'algoritmo di PageRank proprio con l'obiettivo, generalizzato, di correggere tali distorsioni. Ma l'implementazione di PageRank rimane un segreto.

E' ovviamente molto difficile stabilire, da semplici osservatori, chi abbia torto o ragione, chi dica la verità e chi, invece, stia tentando di difendere con qualche bugia la propria posizione. Formulare un giudizio sull'imparzialità degli alogritmi usati da Google, poi, sarebbe quanto meno avventato. Tuttavia, dai fatti si ricavano indicazioni piuttosto interessanti.

In primo luogo, in Internet esistono poli di forte aggregazione dell'interesse degli utenti e Google, con i suoi milioni di contatti giornalieri, è sicuramente uno dei più importanti. Lo è a un punto tale che il suo nome è diventato un verbo: to google , "cercare su Google", quasi sinonimo, ormai del "cercare in Rete" tout court . Un polo di aggregazione così potente non può non attirare l'attenzione di chi cerca opportunità di business: un vero successo per Sergey Brin e Larry Page, fondatori e presidenti della società Google. La quale, si stima, avrebbe un giro d'affari intorno ai 70 milioni di dollari, derivante in parte dalle licenze concesse sulla propria tecnologia e in parte dagli sponsored links . Ma il business e il successo portano con sé problemi seri. E' del tutto verosimile che, con simili cifre in gioco, e con una tale visibilità a livello mondiale, le strategie aziendali siano sottoposte a pressioni di ogni tipo: economiche, certamente, ma anche politiche. Bisogna ammettere che, in tali casi, qualche compromesso può significare, per gli utenti, più benefici che svantaggi: se, nel settembre 2002, Brin e Page non avessero accettato che i firewall del governo cinese modificassero i risultati delle ricerche di argomento politico (suggerendo essi stessi, si dice, il modo per farlo), i Cinesi, ora, non potrebbero sfruttare le capacità di Google neppure per ricerche di altro tipo. Il sito era infatti stato oscurato dalle autorità cinesi, come del resto altri motori di ricerca, proprio con finalità di censura politica.

Il difficile sta, piuttosto, nel valutare quanti e quali compromessi rappresentino un reale beneficio per gli utenti e quali, invece, avvantaggino esclusivamente il fornitore del servizio. Non dimentichiamo che la società Google è tuttora controllata dai suoi fondatori: dunque, siamo in presenza di un potere enorme concentrato nelle mani di pochi soggetti privati. Ma, anche se la struttura societaria evolvesse nella direzione di un azionariato diffuso, il pericolo di condizionamenti non sarebbe affatto scongiurato: l'obiettivo diverrebbe, a quel punto, garantire agli azionisti un dividendo interessante, con tutte le conseguenze del caso. Del resto, una gestione governativa non potrerebbe miglioramenti: anzi, considerata la situazione politica mondiale attuale, il rischio di pesanti manipolazioni si farebbe davvero concreto.

Ciò premesso, è interessante soffermarsi sul potere di cui i siti più visibili dispongono: essi sono in grado di condizionare, a loro volta, la visibilità di altri siti e decretarne, di conseguenza, le sorti. Chi riesce ad apparire ai primi posti nelle risposte di Google ha una elevatissima probabilità di ricevere frotte di visitatori, come ha intelligentemente intuito Bob Massa di SearchKing. Ma per chi ha la sfortuna di restare indietro, diciamo oltre la terza o quarta pagina di risultati, si materializza l'incubo dell'invisibilità, dell'oblio, dell'inutilità. Quello di Google, a prescindere dal grado di trasparenza con cui è esercitato, è un vero e proprio potere di vita o di morte (virtuale, per fortuna) nei confronti di chiunque esponga contenuti in Internet.

Ne discende una conseguenza molto importante: Google, come ogni altro attore particolarmente accreditato, non solo descrive la Rete e permette di conoscerla, ma, in qualche misura, la modella . Se ciò che Google non "trova" (o si limita a valutare relativamente poco interessante) finisce con l'essere marginalizzato, allora l'Internet che conta, quella che "appare" e che, in una parola, esiste , finisce là dove terminano i risultati della ricerca. Quante idee meritevoli di successo rischiano di essere stroncate sul nascere? E quanta spazzatura, invece, prospererà? Nell'interesse di chi? Quanto business si può creare o distruggere in questo modo? E quanto vale il business dei motori di ricerca? Le risposte dipendono in larga misura dalla consapevolezza esercitata nel nostro utilizzo dei search engine . Una accettazione acritica e passiva dei risultati espone concretamente al rischio che Internet ci appaia "più piccola" e, forse, diversa da quello che è in realtà. Certamente più povera e "omologata".

Si delinea un quadro piuttosto sconsolante: a quanto pare, non è affatto impossibile esercitare un certo potere di controllo sui contenuti circolanti in Rete. Infatti, la teoria secondo la quale in Internet non sarebbero possibili censure realmente efficaci proprio grazie alla sua struttura articolata, distribuita e priva di rigide gerarchie, trova sicuramente conferma sotto il profilo del modo in cui le informazioni vengono immesse e mantenute in Rete, ma si scontra con la modalità ormai prevalente di accesso alle medesime. Si utilizzano i motori di ricerca per reperire contenuti dei quali non si conosce l'indirizzo, o dell'esistenza dei quali non si è certi; di conseguenza, si trovano solamente quelli che il motore di ricerca ha indicizzato, o "ritiene opportuno" farci trovare. La situazione dei Paesi oppressi da regimi dittatoriali è ancora peggiore, in quanto è molto probabile che in quelle realtà, come insegna l'esperienza cinese, il traffico che attraversa i backbones nazionali di connessione a Internet sia sottoposto a un attento monitoraggio da parte delle forze di polizia: si ripropone così il tema del controllo dei contenuti attraverso il controllo del mezzo di trasporto.

Dobbiamo insistere, dunque, sulla necessità di garantirci comunque quella trasparenza e reale democrazia alle quali abbiamo diritto, sia come produttori di contenuti, sia come semplici utenti. Ma quali mezzi abbiamo a disposizione?

Uno strumento presumibilmente efficace è rappresentato dai searchbot , programmi in grado di proporre una richiesta a più motori di ricerca contemporaneamente e presentarne in modo integrato i risultati. Diventa così possibile superare l'unilateralità intrinseca all'uso di un solo motore, a prezzo di un poco di entropia in più: sotto tale aspetto è fondamentale la capacità del searchbot di confrontare i ranking dei motori di ricerca contattati e di eliminare i doppioni. Un elenco di searchbot per Windows è disponibile su DigiFriends; gli amici del Pinguino possono dare un'occhiata a GwSearch. Vale la pena di provare anche Vivisimo: un online searchbot che ha, in più, la capacità di categorizzare per argomenti, in base ai contenuti, i risultati forniti dai motori interpellati.

Ma, in ultima analisi, l'arma migliore di cui disponiamo è, come sempre, il nostro senso critico, soprattutto se rafforzato dalla preziosa abitudine a non accontentarsi mai di una fonte unica di informazione. La tecnologia, in questo caso, rappresenta soltanto un aiuto, da sfruttare con prudenza.

http://www.theregister.co.uk/content/6/30087.html
http://www.theregister.co.uk/content/6/30195.html
http://www.wired.com/wired/archive/11.01/google_pr.html
http://www.emnme.com/google
http://www.pandia.com/sw-2002/28-searchking.html














Cerca dentro NOEMA - Search inside NOEMA



Iscriviti! - Join!

 

RSS

 

Top