Precisamos falar dos algoritmos

Por Ronaldo Lemos
FOLHA DE SÃO PAULO

Na semana passada grandes jornais do mundo anunciaram que vão publicar notícias
diretamente no Facebook. Isso confirma que a rede social mais popular do planeta
está se convertendo também em “infraestrutura” para a disseminação de conteúdos.
A situação lembra o que acontecia com a TV a cabo nos EUA em meados dos anos
1970: a princípio, as empresas tinham de convencer as emissoras a aceitar serem
incluídas na programação.

Pouco depois a maré mudou. Várias companhias começaram a produzir conteúdo
especialmente para o cabo, que passou então a cobrar para carregar os conteúdos.
Um exemplo disso é a campanha “I want my MTV” (eu quero a minha MTV), do
início dos anos 1980. O objetivo era convencer as TVs por assinatura a transmitir o
sinal da emissora musical, que ainda engatinhava.

Curiosamente, dias antes do anúncio do pacto entre os jornais e o Facebook, o site
havia publicado um estudo sobre o funcionamento do algoritmo que controla o que
cada usuário vê em seu feed de notícias. O nome do documento é “Exposição a
Notícias e Opiniões Ideologicamente Diversas no Facebook”.

O estudo tem várias limitações metodológicas, mas a conclusão é interessante. Ele
apresenta evidências de que as fórmulas do site nos mostram mais notícias que
refletem aquilo que pensamos e reduz nossa exposição ao que discordamos.
Se alguém é a favor da redução da maioridade penal, vai ver mais opiniões similares
à sua do que contrárias. É um erro crasso achar que o que vemos na “timeline” do
Facebook representa a opinião pública.

Essa filtragem traz problemas. Quem se expõe apenas ao que pensa fica ainda mais
convencido das próprias ideias. E se torna avesso a posições contrárias.
A questão é se esse viés seria culpa do algoritmo em si ou dos próprios usuários,
que, por meio dos seus “likes”, ensinariam a rede social a privilegiar alguns
conteúdos. Acadêmicos importantes, como a pesquisadora Zeynep Tufekci
apelidaram o estudo de “it’s not our fault” (não é nossa culpa), dizendo que a rede
social estaria usando o documento para afirmar que a culpa do viés seria mais dos
usuários.

O fato é que hoje 30% das pessoas nos EUA leem notícias apenas pelo Facebook.
Com isso, faz sentido pensar sobre a importância de uma diversidade editorial.
Algoritmos vieram para ficar. Mas não podem se tornar “filtro” para tudo. Quanto
mais pluralidade de editorias, humanas e digitais, melhor para a esfera pública.
No caso de um jornal, pode-­se discordar de sua linha editorial, mas ao menos ela é
um dado objetivo e em geral visível. No caso de algoritmos, a linha editorial é
invisível. Só que ela existe. Algoritmos não são neutros, como mostra o estudo
recém-­publicado. Sempre que você não gostar daquilo que leu no jornal, saiba que
isso é bom para você.

*
JÁ ERA
algoritmos só como modelos teóricos
JÁ É
algoritmos tomando decisões automatizadas de investimentos financeiros
JÁ VEM
algoritmos tomando decisões militares

Comentários

Seja o primeiro a comentar

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

ao topo