Algoritmos do Facebook são perigosos – veja como eles podem manipulá-lo

Um estudo mostra que quanto maior o número de pessoas que respondem a um item de baixa qualidade na mídia social, menos provável que outras pessoas questionem e mais provável que compartilhem.

A denunciante do Facebook, Frances Haugen, testemunha durante um Comitê do Senado dos EUA, 5 de outubro

A ex-gerente de produto do Facebook, Frances Haugen, testemunhou perante o Senado dos Estados Unidos em 5 de outubro de 2021, que as plataformas de mídia social da empresa “ prejudicam as crianças, alimentam a divisão e enfraquecem nossa democracia ”.

Haugen foi a principal fonte de uma exposição do Wall Street Journal sobre a empresa. Ela considerou os algoritmos do Facebook perigosos, disse que os executivos do Facebook estavam cientes da ameaça, mas colocaram os lucros antes das pessoas, e pediu ao Congresso que regulasse a empresa.

As plataformas de mídia social dependem muito do comportamento das pessoas para decidir sobre o conteúdo que você vê. Em particular, eles observam o conteúdo ao qual as pessoas respondem ou “se envolvem” por curtir, comentar e compartilhar. Troll farms , organizações que espalham conteúdo provocativo, exploram isso copiando conteúdo de alto engajamento e publicando-o como seu próprio , o que os ajuda a atingir um público amplo.

Como um cientista da computação que estuda as maneiras como um grande número de pessoas interage usando a tecnologia, eu entendo a lógica de usar a sabedoria das multidões nesses algoritmos. Também vejo armadilhas substanciais em como as empresas de mídia social fazem isso na prática.

De leões na savana a curtidas no Facebook

O conceito de sabedoria das multidões pressupõe que usar sinais de ações, opiniões e preferências de outras pessoas como um guia levará a decisões acertadas. Por exemplo, as previsões coletivas são normalmente mais precisas do que as individuais. A inteligência coletiva é usada para prever mercados financeiros, esportes , eleições e até surtos de doenças .

Ao longo de milhões de anos de evolução, esses princípios foram codificados no cérebro humano na forma de vieses cognitivos que vêm com nomes como familiaridade , mera exposição e efeito de onda . Se todos começarem a correr, você também deve começar a correr; talvez alguém viu um leão vindo e correndo pode salvar sua vida. Você pode não saber por quê, mas é mais sensato fazer perguntas depois.

Seu cérebro capta pistas do ambiente – incluindo seus colegas – e usa regras simples para traduzir rapidamente esses sinais em decisões: Vá com o vencedor, siga a maioria, copie seu vizinho. Essas regras funcionam muito bem em situações típicas porque são baseadas em suposições sólidas. Por exemplo, eles presumem que as pessoas costumam agir racionalmente, é improvável que muitas estejam erradas, o passado prediz o futuro e assim por diante.

A tecnologia permite que as pessoas acessem sinais de um número muito maior de outras pessoas, a maioria das quais elas não conhecem. Os aplicativos de inteligência artificial fazem uso intenso desses sinais de popularidade ou “engajamento”, desde a seleção de resultados de mecanismos de pesquisa até a recomendação de músicas e vídeos, e desde a sugestão de amigos até a classificação de postagens em feeds de notícias.

Nem tudo que viraliza merece ser

Nossa pesquisa mostra que praticamente todas as plataformas de tecnologia da web, como mídias sociais e sistemas de recomendação de notícias, têm um forte viés de popularidade . Quando os aplicativos são movidos por pistas como engajamento, em vez de consultas explícitas do mecanismo de pesquisa, o viés de popularidade pode levar a consequências indesejáveis ​​prejudiciais.

Mídias sociais como Facebook, Instagram, Twitter, YouTube e TikTok dependem fortemente de algoritmos de IA para classificar e recomendar conteúdo. Esses algoritmos aceitam o que você gosta, comenta e compartilha – em outras palavras, o conteúdo com o qual você se envolve. O objetivo dos algoritmos é maximizar o envolvimento, descobrindo do que as pessoas gostam e classificando-o no topo de seus feeds.

Superficialmente, isso parece razoável. Se as pessoas gostam de notícias confiáveis, opiniões de especialistas e vídeos divertidos, esses algoritmos devem identificar esse conteúdo de alta qualidade. Mas a sabedoria das multidões faz uma suposição fundamental aqui: que recomendar o que é popular ajudará o conteúdo de alta qualidade a “borbulhar”.

Testamos essa suposição estudando um algoritmo que classifica os itens usando uma combinação de qualidade e popularidade. Descobrimos que, em geral, o viés de popularidade tem mais probabilidade de diminuir a qualidade geral do conteúdo. A razão é que o engajamento não é um indicador confiável de qualidade quando poucas pessoas foram expostas a um item. Nesses casos, o engate gera um sinal ruidoso e o algoritmo provavelmente amplifica esse ruído inicial. Quando a popularidade de um item de baixa qualidade for grande o suficiente, ela continuará sendo ampliada.

Os algoritmos não são os únicos afetados pelo viés de engajamento – eles também podem afetar as pessoas . As evidências mostram que as informações são transmitidas por meio de “ contágio complexo ” , ou seja, quanto mais vezes as pessoas são expostas a uma ideia online, maior é a probabilidade de adotá-la e compartilhá-la de novo. Quando a mídia social diz às pessoas que um item está se tornando viral, seus preconceitos cognitivos surgem e se traduzem no desejo irresistível de prestar atenção a ele e compartilhá-lo.

Multidões não tão sábias

Recentemente, realizamos um experimento usando um aplicativo de alfabetização jornalística chamado Fakey . É um jogo desenvolvido pelo nosso laboratório que simula um feed de notícias como os do Facebook e Twitter. Os jogadores veem uma mistura de artigos atuais de notícias falsas, junk science, fontes hiperpartidárias e conspiratórias, bem como fontes convencionais. Eles ganham pontos por compartilhar ou curtir notícias de fontes confiáveis ​​e por sinalizar artigos de baixa credibilidade para verificação de fatos.

Descobrimos que os jogadores são mais propensos a curtir ou compartilhar e menos propensos a sinalizar artigos de fontes de baixa credibilidade quando os jogadores podem ver que muitos outros usuários se envolveram com esses artigos. A exposição às métricas de engajamento, portanto, cria uma vulnerabilidade.

A popularidade aumenta o conteúdo de baixa qualidade

Um estudo mostra que quanto maior o número de pessoas que respondem a um item de baixa qualidade na mídia social, menos provável que outras pessoas questionem e mais provável que compartilhem. Estas são as taxas médias de “gostar” ou “compartilhar” e verificar os fatos de postagens de mídia social de baixa qualidade, dependendo da popularidade das postagens ou do “nível de engajamento”.

A sabedoria das multidões falha porque é construída sobre a falsa suposição de que a multidão é composta de fontes diversas e independentes. Pode haver vários motivos pelos quais esse não é o caso.

Em primeiro lugar, devido à tendência das pessoas de se associarem a pessoas semelhantes, seus bairros online não são muito diversos. A facilidade com que os usuários de mídia social podem afastar aqueles de quem discordam empurra as pessoas para comunidades homogêneas, freqüentemente chamadas de câmaras de eco .

Em segundo lugar, porque os amigos de muitas pessoas são amigos uns dos outros, eles influenciam uns aos outros. Um experimento famoso demonstrou que saber de qual música seus amigos gostam afeta suas próprias preferências declaradas. Seu desejo social de se conformar distorce seu julgamento independente.

Terceiro, os sinais de popularidade podem ser manipulados. Ao longo dos anos, os motores de busca desenvolveram técnicas sofisticadas para combater os chamados “ links farms ” e outros esquemas para manipular algoritmos de busca. As plataformas de mídia social, por outro lado, estão apenas começando a aprender sobre suas próprias vulnerabilidades .

Pessoas com o objetivo de manipular o mercado de informações criaram contas falsas , como trolls e bots sociais , e organizaram  redes falsas . Eles inundaram a rede para criar a aparência de que uma teoria da conspiração ou um candidato político é popular, enganando os algoritmos de plataforma e os preconceitos cognitivos das pessoas ao mesmo tempo. Eles até alteraram a estrutura das redes sociais para criar ilusões sobre as opiniões da maioria .

Reduzindo o engajamento

O que fazer? As plataformas de tecnologia estão atualmente na defensiva. Eles estão se tornando mais agressivos durante as eleições, retirando contas falsas e desinformação prejudicial . Mas esses esforços podem ser semelhantes a um jogo de whack-a-mole .

Uma abordagem preventiva diferente seria aumentar a fricção . Em outras palavras, para desacelerar o processo de divulgação de informações. Comportamentos de alta frequência, como gostar e compartilhar automatizados, podem ser inibidos por testes CAPTCHA , que exigem uma resposta humana, ou taxas. Isso não apenas diminuiria as oportunidades de manipulação, mas com menos informações as pessoas seriam capazes de prestar mais atenção ao que veem. Isso deixaria menos espaço para o viés de engajamento afetar as decisões das pessoas.

Também ajudaria se as empresas de mídia social ajustassem seus algoritmos para confiar menos em sinais de engajamento e mais em sinais de qualidade para determinar o conteúdo que atendem a você. Talvez as revelações dos denunciantes forneçam o ímpeto necessário.

Filippo Menczer é Luddy Distinguished Professor de Informática e Ciência da Computação na Universidade Indiana