segunda-feira, 5 de novembro de 2012
The Filter Bubble: What the Internet Is Hiding from You
Eli Pariser (2011). The Filter Bubble: What the Internet Is Hiding from You. Nova Iorque: Penguin Press.
Uma das virtudes da web é a facilidade com que coloca na ponta dos dedos a capacidade de aceder à informação. Virtude que é um problema. A quantidade disponível é enorme. Na rede global encontrar a informação que se precisa tornou-se mais complicado do que encontrar uma proverbial agulha no palheiro.
Um dos pilares da cidadania na sociedade contemporânea é a informação. A liberdade de acesso, o conhecimento sobre o que nos rodeia, são elementos cruciais para conhecer o mundo que nos rodeia, tomar decisões e participar na sociedade global e local. É algo que está consagrado nos direitos humanos e é uma herança essencial do iluminismo.
Estes dois factores estão em colisão na internet contemporânea. Se o sonho de acesso à informação pareceu realizar-se para lá das expectativas mais entusiastas, a enorme quantidade gera problemas de fiabilidade e capacidade de leitura. Somos humanos, a nossa capacidade de atenção tem limites e a quantidade de estímulos disparou para níveis estratosféricos. Simplesmente não há tempo para absorver mais do que uma pequena parte das vastas quantidades de ideias que nos chegam todos os dias.
Uma solução de engenharia para este problema social está no uso de filtros. Essencialmente são algoritmos que filtram a informação que nos chega ao ecrã do computador. Tecnologias que se adaptam aos interesses dos utilizadores, escolhendo automaticamente o que lhes é apresentado por relevância são à primeira vista uma solução elegante para o problema da sobrecarga informativa. Tecnicamente impressionam. O vasto poder computacional disponível hoje permite a algumas empresas estabelecer padrões a partir das acções dos milhões de utilizadores da internet. Esses padrões afinam algoritmos que estão em constante refinamento. O resultado? A quase assustadora precisão com que a Google nos apresenta resultados de pesquisas ou os avançados algoritmos de sugestão literária da Amazon, que parece conhecer os nossos gostos melhor do que nós. E de facto conhecem-nos. Misturando padrões globais com um refinamento conseguido a partir da análise das escolhas do utilizador, estes algoritmos condicionam boa parte da informação a que acedemos. E é aí que reside o seu perigo para a coesão social e a necessidade de acesso à informação.
Pode parecer paradoxal. Se os filtros facilitam o acesso e gestão de informação, porque é que são perigosos? A resposta está na forma como o fazem. Aprendendo com as nossas escolhas, refinando-se ao longo do tempo, vão-nos apresentando informação que consideramos relevante para os nossos interesses. De fora fica aquilo que não nos interessa, que não faz parte do nosso horizonte, que não encaixa no padrão de utilização. No entanto a necessidade de informação para decidir e participar em cidadania exige precisamente o oposto, a capacidade de conhecer com alguma profundidade outros pontos de vista que entrem em conflito com o nosso.
Facilitando o acesso e gestão das vastas quantidades de informação que a internet nos traz, os filtros encerram-nos numa bolha de ideias construída a partir dos nossos padrões de interesses, que se ramifica apenas para outras bolhas similares. Atomiza e balcaniza a sociedade em grupos de interesse altamente especializados na sua área e quase ignorantes de outros pontos de vista. Sublinha a necessidade de manter o controlo humano sobre a tecnologia. Se os filtros são necessários e úteis, ainda mais necessária é a capacidade de cada utilizador, cada um de nós estar consciente do risco de isolamento dentro dos seus padrões de interesse e agir em contravenção. É simples. Basta confundir as previsões algorítmicas com acesso a informações ou produtos culturais que não caibam no padrão normal.