Polarização gerada por redes sociais se mantém mesmo com mudança em algoritmo

Por REINALDO JOSÉ LOPES

SÃO CARLOS, SP (FOLHAPRESS) - O estudo mais amplo já feito sobre os algoritmos das redes sociais e seu impacto no comportamento e opiniões dos usuários sugere que não há soluções tecnológicas simples para a polarização política na web. Mudanças no funcionamento dos algoritmos, conduzidas durante as pesquisas ao longo de três meses, não alteraram a visão dos internautas sobre quem está do outro lado do espectro ideológico.

Os resultados, detalhados em quatro artigos nas duas maiores revistas científicas do mundo, a Science e a Nature, são uma colaboração entre pesquisadores de universidades americanas e o conglomerado de tecnologia Meta, enfocando duas de suas maiores redes, o Facebook e (em grau bem menor) o Instagram.

Todas as análises foram realizadas com base em informações colhidas durante a eleição de 2020 nos EUA, na qual Joe Biden foi eleito presidente em meio a falsas acusações de fraude feitas por Donald Trump, o então ocupante da Casa Branca.

"Como usuários, todos temos intuições sobre como as redes sociais funcionam, mas esse senso comum muitas vezes está errado. Estudos como esses ajudam a testar essas intuições", explicou em entrevista coletiva online a coordenadora de um dos trabalhos, Sandra González-Bailón, da Universidade da Pensilvânia.

O estudo em que González-Bailón é a primeira autora mostra como a exposição a notícias sobre política durante a eleição americana estabeleceu uma segregação entre "liberais" e "conservadores" (ou, como se diz com mais frequência no Brasil, esquerda e direita) no Facebook.

Os outros dois trabalhos, liderados por Andrew Guess, da Universidade Princeton, foram experimentais, alterando a maneira como os usuários do Facebook e do Instagram recebiam informações na "linha do tempo" (a sequência de postagens que vão aparecendo).

Num deles, a mudança experimental foi transformar a "linha do tempo" numa lista exclusivamente cronológica de postagens, da mais recente para a mais antiga, conforme a pessoa vai descendo a página. É algo bem diferente do que acontece hoje: o algoritmo atual apresenta ao internauta postagens numa ordem supostamente ligada aos interesses dele com base no que ele clicou, curtiu e comentou anteriormente, na sua rede de "amigos" etc.

Já o outro estudo chefiado por Guess eliminou em grande parte a exposição das pessoas a conteúdo compartilhado ?digamos, uma postagem feita originalmente por um famoso ou político que um dos "amigos" do usuário compartilhou na linha do tempo.

Propostas cujo objetivo é tornar as redes sociais um ambiente mais decente ?e menos polarizado politicamente? defendem esse tipo de medida já faz algum tempo. Ambas, em tese, seriam capazes de expor os usuários a uma gama de opiniões e personalidades menos restrita, sem reforçar o tempo todo os interesses que aquela pessoa já tinha manifestado. Além disso, ajudariam a minimizar a chance de que notícias falsas e conteúdo ofensivo ou chocante viralizasse rapidamente.

No caso do estudo que adotou a ordem cronológica da linha do tempo, da qual participaram ?com consentimento informado? 23 mil usuários do Facebook e 21 mil pessoas com contas no Instagram, um efeito muito claro da mudança foi a diminuição do tempo passado na rede social, de 20% e 15%, respectivamente, diz Guess. Por outro lado, os usuários tentaram compensar essa relativa abstinência acessando plataformas de vídeos. As pessoas também passaram a receber menos conteúdo de "amigos" e mais de páginas e grupos que curtiram e ficaram expostas a pessoas mais moderadas politicamente.

Por outro lado, houve um ligeiro aumento da presença de conteúdos com informações não confiáveis na linha do tempo. E não houve nenhuma mudança mensurável em fatores como medidas de polarização política dos usuários ou interesse por eleições e outros temas políticos.

No caso da mudança que impediu o compartilhamento de postagens, os resultados foram parecidos. Embora, nesse caso, a exposição das pessoas a notícias políticas e informações falsas tenha diminuído, não houve efeito mensurável sobre a polarização dos usuários das redes.

Por sua vez, o estudo sobre o ecossistema de notícias consumidas por "liberais" e "conservadores" dentro do Facebook revelou que existe um "funil da polarização" na plataforma. Isso significa que o algoritmo começa mostrando às pessoas notícias significativamente diferentes na linha do tempo, dependendo da orientação política. Essa diferença se afunila ainda mais e fica mais intensa quando se mede o engajamento direto das pessoas ?curtindo e comentando, por exemplo.

Esse trabalho mostrou ainda que a "bolha" formada por conservadores no Facebook é menos permeável a visões diferentes do que a dos liberais, além de estar mais recheada de notícias falsas do que a do campo político oposto.

Joshua Tucker, pesquisador da Universidade de Nova York que é um dos coordenadores do conjunto de estudos, aponta que os trabalhos têm uma série de limitações. Além do período de três meses ?muito longo para o padrão das pesquisas feitas até agora, mas talvez curto levando em conta os anos de convívio das pessoas com redes sociais?, há também o fato de que ele foi feito justamente durante as eleições americanas e nas condições já muito polarizadas dos EUA.

Mesmo assim, os dados são importantes para refletir sobre intervenções sobre o problema. "O que temos visto é que os efeitos das intervenções às vezes acontecem simultaneamente em direções opostas e que eles produzem muitas consequências não pretendidas", diz Guess.