Monthly Archives: luglio 2008

Arte contemporanea?

Manichini rotti nel cortile della mediateca
 

Si accettano scommesse sul significato di tutto ciò. Cliccate sulla foto per ingrandire: i dettagli meritano.

Però adesso smettetela

di passare giusto il tempo di annodare un filo, per poi allontanarvi tirando col gomitolo in tasca.

Google censura?

[Cari tutti, ho letto un libro per un esame, e mi ha preso la manìa di scavare quel che non mi convinceva. E' interessante, dà tanti spunti informatico-politico-filosofici. Dài, ciellini, perché non ci fate un gruppo di studio? Altro che arte moderna. Comunque, credo vi sorbirete le mie elucubrazioni in diverse puntate.]

"Luci e ombre di Google" (scritto dall’autore collettivo "Ippolita" e liberamente scaricabile), evidenzia (presunte) censure in due ambiti che devono essere distinti: gli Adwords, cioè i link pubblicitari che compaiono accanto ai risultati, e i risultati normali. Se vi interessano le diatribe sui primi, leggete del caso Oceana; a me interessano di più i secondi perché, mi sembra, un’azienda che vende pubblicità può venderla un po’ a chi le pare, per quanto noi possiamo giudicarlo marcio e squallido. 
Invece, è ben più importante che siano trasparenti i risultati delle nostre ricerche.

Secondo Ippolita non lo sono affatto, perché la query, cioè la richiesta al database, cioè "la frasina che scrivi nello spazio bianco" (più semplice di così, ve lo disegno) non va a interrogare tutti i dati indicizzati da Google: ci metterebbe troppo tempo. Ippolita stessa ammette che è inevitabile per qualunque motore di ricerca: "su quantità di dati elevate, è impensabile impiegare algoritmi trasparenti, cioè che vadano a toccare tutti i nodi della rete; è necessario introdurre manipolazioni, semplificazioni o riduzione delle possibilità di analisi". 
Dunque suppone che la ricerca sia eseguita su una "sezione" del database, in base a dei filtri segreti
Chissà cosa ci nascondono!

Pensate: i filtri sono così segreti che, proprio cercando su Google, ho trovato il testo del brevetto "Sistema e metodo per focalizzare la ricerca in parti del database", pubblicato nel 2007 (alcuni mesi dopo quel libro, a discolpa degli autori).
Nel "summary" si spiega che Google è dotato di "un indice standard e uno esteso. Ogni motore di ricerca include un sistema logico configurato per cercare nell’indice standard, in base alla relativa query, e per ricevere un segnale basato sulla ricerca dell’indice standard. [...] Ad esempio, il segnale può indicare se sono stati ottenuti solo pochi risultati dalla ricerca nell’index standard. Quando questo segnale corrisponde a criteri definiti, si esegue la ricerca su un indice esteso condiviso, per ottenere risultati estesi. Almeno una parte dei risultati della ricerca estesa sono trasmessi all’utente." 
Quindi: se ci sono tanti risultati, si limita la ricerca (tanto, andresti a leggere tutte le centinaia di pagine di risultati?); se invece cerchi qualcosa di molto preciso, scava tutto quel che ha per trovarlo.

Ma queste potrebbero essere balle, no? Allora proviamo
Crea una pagina; aspetta che sia indicizzata da Google (e questa è la cosa difficile, come ogni webmaster sa: se è un sito nuovo ci vuole tempo, bisogna essere linkati… ma, prima o poi, si esce anche dalla sandbox) e infine cerca una frase esatta che hai scritto (giusto per non sfogliare duemila risultati).
Ed ecco che la tua pagina apparirà a salutare il suo babbo/mamma… eppure non sei famoso, non hai pagato Google, hai pubblicato su un server di millesima categoria, hai scritto frasi in aramaico antico e un indice "standard" dovrebbe ignorarti!

Ma è solo perché tu non sei un nemico di Google, dell’America, della tecnocrazia occulta. Se avessi scritto qualcosa di scomodo, ti avrebbero censurato. O no? Facciamo alcune semplici osservazioni.

1) Con la mole di documenti prodotti quotidianamente, se Google volesse controllarne i contenuti attraverso censori "umani", non ce la farebbe nemmeno assumendo tutti i Cinesi in blocco.

2) Se il controllo fosse automatico, dovrebbe essere in grado di capire la portata eversiva di un testo. Non basta che contenga determinate parole, con una certa frequenza, ecc.; altrimenti non si otterrebbe nessun risultato nemmeno cercando, che ne so, il nome di un modello di bomba, che potrebbe essere citato da un innocente giornale come da una Guida Rapida del Piccolo Kamikaze. 
A oggi, che io sappia, l’intelligenza "semantica" di un computer non sarebbe capace di cogliere il significato complessivo di un testo, almeno non tanto da operare una selezione precisa, che non escluda risultati "innocenti": se si falciassero sommariamente centinaia di paginesi verrebbe a sapere - non puoi chiudere a Guantanamo orde di webmaster inferociti.

3) E’ un fatto che su Google si trova, in quanto a visioni del mondo, tutto e il contrario di tutto; dai peli del culo di Bush fino alle prove "inoppugnabili" sui complotti americani per auto-attentarsi le Torri Gemelle. Perché rimangono? 
Senza contare gli articoli che denunciano la censura: che censura è quella che si lascia dichiarare?

Si possono trovare (…su Google, naturalmente!), decine di accuse di censura da parte di singoli siti. Molte sono palesemente ingenue e sbugiardabili in poche mosse, altre addirittura in malafede (magari farò un post con qualche esempio); in altre ancora non ho trovato "punti deboli" evidenti e chissà, potrebbero essere fondate.

Detto ciò, è vero che Google censura
Lo fa, per sua ammissione, quando è obbligato da un governo. Governo che può abusare della censura (come in Cina) o usarla contro i soliti siti razzisti, pedofili ecc. (Nonostante ciò, Google pullula di siti che promuovono azioni illegali, quindi…)

Conclusioni. 
1) Una censura volontaria "di massa" di interi settori di database, come quella ipotizzata da Ippolita, mi sembra poco verosimile, così come l’eliminazione siti le cui informazioni sono pienamente accessibili su altri siti in forma analoga.
 2) La censura di singoli siti è attualmente applicata e dipendente dai rapporti col potere politico. Questo è potenzialmente pericoloso, soprattutto considerando che Google si appresta a diventare, per i più, l’unico punto d’accesso alle informazioni in rete. 
Per questo condivido il messaggio fondamentale di Ippolita, pur impaludato fra imprecisioni e ideologia: bisogna mantenere attiva una pluralità di mezzi per lo scambio di informazioni in rete, prediligendo quelli non controllabili da un’unica entità (come il peer-to-peer).

“Qualità della didattica”

[A lezione di biblioteconomia, con tanto di esperto venuto a parlare di temi informatici]

Prof1 -  …lo spider di Google indicizza le pagine che trova saltando da un link all’altro…
I – Prof, quindi se una pagina non è linkata da nessuna parte non potrà essere mai indicizzata
Prof1 – Ehm, no beh ci sono anche altri metodi…
Prof2 – Certo, il sistema genera indirizzi casuali, provando tutte le combinazioni possibili finché non trova una pagina esistente, e la indicizza!

[I. pensa ai suoi vari siti che non sono mai entrati in Google prima di essere linkati altrove, e ha la vaga impressione di trovarsi a una lezione di FantaInformatica; tuttavia si piega al principio di autorità.

Tempo dopo, legge nel libro su Google in programma d'esame: "se una pagina non è citata da nessun altro sito, allora essa non comparirà mai in nessuna interrogazione compiuta da un utente, perché lo spider non ha mai avuto modo di trovarla".

Cioè.
Almeno LEGGI i libri che metti in programma, no?

Tristezza.
Tornate a fare i biblioteconomi, che siete più bravi.
]