Google censura?

[Cari tutti, ho letto un libro per un esame, e mi ha preso la manìa di scavare quel che non mi convinceva. E’ interessante, dà tanti spunti informatico-politico-filosofici. Dài, ciellini, perché non ci fate un gruppo di studio? Altro che arte moderna. Comunque, credo vi sorbirete le mie elucubrazioni in diverse puntate.]

"Luci e ombre di Google" (scritto dall’autore collettivo "Ippolita" e liberamente scaricabile), evidenzia (presunte) censure in due ambiti che devono essere distinti: gli Adwords, cioè i link pubblicitari che compaiono accanto ai risultati, e i risultati normali. Se vi interessano le diatribe sui primi, leggete del caso Oceana; a me interessano di più i secondi perché, mi sembra, un’azienda che vende pubblicità può venderla un po’ a chi le pare, per quanto noi possiamo giudicarlo marcio e squallido. 
Invece, è ben più importante che siano trasparenti i risultati delle nostre ricerche.

Secondo Ippolita non lo sono affatto, perché la query, cioè la richiesta al database, cioè "la frasina che scrivi nello spazio bianco" (più semplice di così, ve lo disegno) non va a interrogare tutti i dati indicizzati da Google: ci metterebbe troppo tempo. Ippolita stessa ammette che è inevitabile per qualunque motore di ricerca: "su quantità di dati elevate, è impensabile impiegare algoritmi trasparenti, cioè che vadano a toccare tutti i nodi della rete; è necessario introdurre manipolazioni, semplificazioni o riduzione delle possibilità di analisi". 
Dunque suppone che la ricerca sia eseguita su una "sezione" del database, in base a dei filtri segreti
Chissà cosa ci nascondono!

Pensate: i filtri sono così segreti che, proprio cercando su Google, ho trovato il testo del brevetto "Sistema e metodo per focalizzare la ricerca in parti del database", pubblicato nel 2007 (alcuni mesi dopo quel libro, a discolpa degli autori).
Nel "summary" si spiega che Google è dotato di "un indice standard e uno esteso. Ogni motore di ricerca include un sistema logico configurato per cercare nell’indice standard, in base alla relativa query, e per ricevere un segnale basato sulla ricerca dell’indice standard. […] Ad esempio, il segnale può indicare se sono stati ottenuti solo pochi risultati dalla ricerca nell’index standard. Quando questo segnale corrisponde a criteri definiti, si esegue la ricerca su un indice esteso condiviso, per ottenere risultati estesi. Almeno una parte dei risultati della ricerca estesa sono trasmessi all’utente." 
Quindi: se ci sono tanti risultati, si limita la ricerca (tanto, andresti a leggere tutte le centinaia di pagine di risultati?); se invece cerchi qualcosa di molto preciso, scava tutto quel che ha per trovarlo.

Ma queste potrebbero essere balle, no? Allora proviamo
Crea una pagina; aspetta che sia indicizzata da Google (e questa è la cosa difficile, come ogni webmaster sa: se è un sito nuovo ci vuole tempo, bisogna essere linkati… ma, prima o poi, si esce anche dalla sandbox) e infine cerca una frase esatta che hai scritto (giusto per non sfogliare duemila risultati).
Ed ecco che la tua pagina apparirà a salutare il suo babbo/mamma… eppure non sei famoso, non hai pagato Google, hai pubblicato su un server di millesima categoria, hai scritto frasi in aramaico antico e un indice "standard" dovrebbe ignorarti!

Ma è solo perché tu non sei un nemico di Google, dell’America, della tecnocrazia occulta. Se avessi scritto qualcosa di scomodo, ti avrebbero censurato. O no? Facciamo alcune semplici osservazioni.

1) Con la mole di documenti prodotti quotidianamente, se Google volesse controllarne i contenuti attraverso censori "umani", non ce la farebbe nemmeno assumendo tutti i Cinesi in blocco.

2) Se il controllo fosse automatico, dovrebbe essere in grado di capire la portata eversiva di un testo. Non basta che contenga determinate parole, con una certa frequenza, ecc.; altrimenti non si otterrebbe nessun risultato nemmeno cercando, che ne so, il nome di un modello di bomba, che potrebbe essere citato da un innocente giornale come da una Guida Rapida del Piccolo Kamikaze. 
A oggi, che io sappia, l’intelligenza "semantica" di un computer non sarebbe capace di cogliere il significato complessivo di un testo, almeno non tanto da operare una selezione precisa, che non escluda risultati "innocenti": se si falciassero sommariamente centinaia di paginesi verrebbe a sapere – non puoi chiudere a Guantanamo orde di webmaster inferociti.

3) E’ un fatto che su Google si trova, in quanto a visioni del mondo, tutto e il contrario di tutto; dai peli del culo di Bush fino alle prove "inoppugnabili" sui complotti americani per auto-attentarsi le Torri Gemelle. Perché rimangono? 
Senza contare gli articoli che denunciano la censura: che censura è quella che si lascia dichiarare?

Si possono trovare (…su Google, naturalmente!), decine di accuse di censura da parte di singoli siti. Molte sono palesemente ingenue e sbugiardabili in poche mosse, altre addirittura in malafede (magari farò un post con qualche esempio); in altre ancora non ho trovato "punti deboli" evidenti e chissà, potrebbero essere fondate.

Detto ciò, è vero che Google censura
Lo fa, per sua ammissione, quando è obbligato da un governo. Governo che può abusare della censura (come in Cina) o usarla contro i soliti siti razzisti, pedofili ecc. (Nonostante ciò, Google pullula di siti che promuovono azioni illegali, quindi…)

Conclusioni. 
1) Una censura volontaria "di massa" di interi settori di database, come quella ipotizzata da Ippolita, mi sembra poco verosimile, così come l’eliminazione siti le cui informazioni sono pienamente accessibili su altri siti in forma analoga.
 2) La censura di singoli siti è attualmente applicata e dipendente dai rapporti col potere politico. Questo è potenzialmente pericoloso, soprattutto considerando che Google si appresta a diventare, per i più, l’unico punto d’accesso alle informazioni in rete. 
Per questo condivido il messaggio fondamentale di Ippolita, pur impaludato fra imprecisioni e ideologia: bisogna mantenere attiva una pluralità di mezzi per lo scambio di informazioni in rete, prediligendo quelli non controllabili da un’unica entità (come il peer-to-peer).