2003
Il controllo politico dei motori di ricerca
I media antagonisti sul web (e il loro ambito è in esso completamente racchiuso) hanno una visibilità irrisoria se comparata a quella dei media istituzionali (che lo concepiscono invece ancora come una estensione ulteriore, addirittura secondaria).
I motivi di questa discrepanza sono svariati, tutti subordinati alla sproporzione delle risorse economiche a disposizione.
Non ho intenzione, per ora, di occuparmi di tali motivazioni generali, lo farò in futuro.
Dico soltanto, banalmente, che il primo obiettivo dell’attivismo è ora tentare di colmare questa distanza. La cosiddetta “opinione pubblica” è ancora disastrosamente distante da questo “nuovo mondo”…fare in modo che approdi è forse un modo perché non affoghi!
Vengo quindi a una delle motivazioni particolari : il funzionamento e il controllo politico dei motori di ricerca, le porte d’accesso ad internet, gli sguardi che, mi si conceda di alludere a Berkeley, determinano, “percependoli” in una sorta di “sentenza del page rank”, l’esistenza degli “oggetti web”.
La mia attenzione verterà principalmente sul motore di ricerca Google, non soltanto perché è indubbiamente il più famoso e il tecnicamente più efficiente ma anche perché, proprio in virtù di questo, è sia il più osannato che il più contestato.
Aggiungo anche che ci sono fondati indizi sulla sua oggettiva e deliberata scorrettezza.

Tentare di scovare sul web documenti seri sulla disonestà dei motori di ricerca è lavoro ben arduo, non soltanto perché la documentazione a riguardo è ben scarna ma anche perché chi se ne occupa solitamente è stato ne è stato obbiettivo e, di conseguenza, la sua visibilità è irrimediabilmente inficiata.
Essere esclusi dai motori di ricerca equivale al sequestro legale del sito, con una ben peggiore conseguenza: non si ha la possibilità di recriminare. Anzitutto perché ciò è difficilmente dimostrabile ma, quand’anche lo fosse, tale dimostrazione non cambierebbe lo stato delle cose: nessuna “search engine” è obbligata ad indicizzare una determinata pagina.
Aggrava tutto questo il fatto che chiunque venga escluso dall’indicizzazione non ha nessuna possibilità di venire a conoscenza di tale esclusione: non esiste motore che offra, tra i suoi servizi, la possibilità di controllare se, nei confronti del proprio sito, esista un qualche filtro.
L’esclusione dall’indicizzazione è comunque spesso il risultato di un “intervento umano”, a meno che un determinato sito web non “spammi” il motore stesso (e su cosa sia “spam” ci sarebbe da discutere in maniera approfondita perché ogni motore ha sue proprie “direttive” e non esiste ancora un “paradigma” comune) tale esclusione è stata deliberata.
Penso, e non sono il solo a pensarlo, che nei confronti dei siti “antagonisti” esistano filtri che determinano non l’esclusione totale ma una forzata limitazione della visibilità in base a parametri facilmente configurabili, primo fra tutti il tipo di registrazione del sito, o il server sul quale ci si trova (i siti che fanno capo a privati cittadini o a piccole associazioni tendono ad essere penalizzati) e, ovviamente, filtri semantici.

Questa situazione non è tollerabile: come non è tollerabile il fatto che non esistano ancora motori di ricerca “open source”, indipendenti dalle pianificazioni commerciali delle multinazionali alle quali fanno capo.
Penso che l’esigenza dello sviluppo e l’utilizzo di motori di ricerca fondati sul peer to peer, e gestiti coralmente, sia un’esigenza primaria.
Esistono a riguardo dei progetti come widesource…non posso dire se tale progetto sia serio, l’idea di fondo lo è sicuramente.
Tale esigenza si manifesta particolar modo in questo periodo: la volontà di blindare il web, sia in Italia sia in tutto l’occidente è chiara.
Sono eloquenti a riguardo i cambiamenti delle policy delle comunità virtuali, fino a poco tempo fa tutte assolutamente libere.
Sono ancora più eloquenti le legislazioni e le nuove regolamentazioni, capeggiate e guidate dallo strapotere statunitense, che quotidianamente saltano fuori.