O Facebook sabia
Por Pedro Doria
O Wall Street Journal está publicando nesta semana aquilo que talvez seja uma das mais importantes séries de reportagens sobre o impacto da tecnologia na sociedade — e na política — deste ano. Os repórteres do jornal puseram as mãos numa imensa quantidade de documentos internos do Facebook que mostram quanto a companhia compreende os resultados negativos de suas ações. Pois é: compreende, e muito
No início de 2018, o Face tocou uma profunda mudança de seu algoritmo que afetou diretamente o newsfeed. É aquela coluna central onde aparecem postagens, fotografias e vídeos logo que entramos na rede social. Eles vinham sofrendo críticas por causa da interferência de notícias falsas e publicidade financiada pela Rússia nas eleições presidenciais americanas em 2016. Insatisfeito com o que lhe parecia excessivo conteúdo noticioso, também preocupado com uma série de indicadores de uso na plataforma, o CEO Mark Zuckerberg encomendou estudos sobre como mudar.
O principal critério do algoritmo para selecionar o que aparece na tela de cada um, até ali, era auxiliar cada usuário a encontrar conteúdo que lhe fosse relevante. Passou a ser aumentar a interação com amigos e família. O objetivo era criar um ambiente menos carregado, mais amistoso.
Deu muito errado.
O método para fazer a alteração foi mudar a fórmula que dá valor a cada postagem. Um like, um joinha, vale um ponto. Um compartilhamento da postagem, cinco pontos. Se alguém faz um comentário maior, daqueles em que se gasta tempo, 30 pontos. Esses multiplicadores aumentam se a interação parte de um amigo, de um familiar. Diminuem se é de alguém estranho. Essa pontuação total auxilia os computadores do Face a decidir se uma postagem aparecerá para quem abre a rede e em que posição estará na ordem do que surge no deslizar do dedo.
O resultado foi mais peso, mais emoções inflamadas, mais raiva. E reclamações logo começaram a aparecer. Um partido polonês observou, a executivos da companhia, que percebeu uma mudança nos comentários. Se antes eram meio a meio entre positivos e negativos, passaram a 80% negativos. Atiçar a irritação do público passou a ser bom negócio. Quanto mais inflamados os ataques aos adversários, maiores e mais viscerais os comentários que chegavam, mais compartilhamentos provocavam.
Alguns partidos europeus, nessa onda negativa que veio, chegaram a mudar suas posições políticas a respeito de certos temas para aplacar a virulência na rede. Uma pesquisa espanhola detectou um aumento de 43% no número de insultos em páginas políticas. Números similares apareceram na Índia e em Taiwan.
Os objetivos do Face com a mudança do algoritmo eram dois. O primeiro, tornado público, era fazer com que a relação das pessoas com a rede se tornasse menos passiva. Em vez de um eterno assistir de vídeos, ver de fotos, que houvesse mais engajamento. Mais atenção. Uma relação ativa e maior contato com amigos e com família. O segundo objetivo, este discretamente evitado nas menções públicas, tem a ver com os números da companhia. Sua percepção é que, sem engajamento, com o tempo as pessoas poderiam abandonar a rede. O Facebook mudou para sobreviver.
Em 2020, já na pandemia, os técnicos fizeram uma experiência com posts de temas cívicos e ligados a saúde. Pararam de dar nota para aqueles muito compartilhados e comentados. O resultado foi imediato: a desinformação caiu muito, parou de ser distribuída. Foi proposto a Zuck ampliar a mudança.
Segundo os relatórios internos, ele não quis. Teme que diminua a relevância do Facebook na vida das pessoas. É uma escolha. Se, como está, amplia o ódio entre quem discorda politicamente, é um preço que o Face está disposto a pagar.
O GLOBO