Facebook está avaliando a confiabilidade de seus usuários em uma escala de zero a 1

Share:

O Facebook começou a atribuir aos seus usuários uma pontuação de reputação, prevendo sua confiabilidade em uma escala de zero a 1.
O sistema de classificações anteriormente não reportado, que o Facebook desenvolveu no ano passado, mostra que a luta contra o jogo de sistemas de tecnologia evoluiu para incluir a mensuração da credibilidade dos usuários para ajudar a identificar os agentes maliciosos.
O Facebook desenvolveu suas avaliações de reputação como parte de seu esforço contra notícias falsas, disse Tessa Lyons, gerente de produto que está encarregada de combater a desinformação, em uma entrevista. A empresa, assim como outras empresas de tecnologia, confia há muito tempo em seus usuários para relatar conteúdo problemático - mas como o Facebook deu às pessoas mais opções, alguns usuários começaram a falsificar os itens como falsos, uma nova virada na guerra de informações .
"Não é incomum as pessoas nos dizerem que algo é falso simplesmente porque elas não concordam com a premissa de uma história ou estão tentando intencionalmente atingir um determinado editor", disse Lyons.
A pontuação de confiabilidade de um usuário não deve ser um indicador absoluto da credibilidade de uma pessoa, disse Lyons, nem há uma única pontuação de reputação unificada à qual os usuários são atribuídos. Em vez disso, a pontuação é uma medida entre milhares de novas pistas comportamentais que o Facebook agora leva em consideração quando busca entender o risco. O Facebook também está monitorando quais usuários têm uma propensão a sinalizar o conteúdo publicado por outros como problemático e quais editores são considerados confiáveis ​​pelos usuários.

Não está claro quais outros critérios o Facebook mede para determinar a pontuação de um usuário, se todos os usuários têm uma pontuação e de que forma as pontuações são usadas.
As avaliações da reputação surgem no momento em que o Vale do Silício, diante de interferências russas, notícias falsas e atores ideológicos que abusam das políticas da empresa, está recalibrando sua abordagem ao risco - e está encontrando maneiras não testadas e algorítmicas de entender quem representa uma ameaça. O Twitter, por exemplo, agora influencia no comportamento de outras contas na rede de uma pessoa como um fator de risco para julgar se os tweets de uma pessoa devem ser distribuídos.

Mas como esses novos sistemas de credibilidade funcionam é altamente opaco, e as empresas têm receio de discuti-los, em parte porque fazê-lo pode incentivar mais jogos - uma situação na qual as empresas cada vez mais se encontram à medida que ponderam maior transparência em torno de suas decisões. fazer.
"Não saber como [o Facebook está] nos julgando é o que nos deixa desconfortáveis", disse Claire Wardle, diretora do First Draft, um laboratório de pesquisa da Harvard Kennedy School que se concentra no impacto da desinformação e que é um parceiro de verificação de fatos. Facebook. “Mas a ironia é que eles não podem nos dizer como estão nos julgando - porque se o fizerem, os algoritmos que eles construíram serão jogados.”
O sistema criado no Facebook para que os usuários sinalizem conteúdo potencialmente inaceitável tornou-se, em muitos aspectos, um campo de batalha. A ativista conta no Twitter Sleeping Giants pediu aos seguidores que levem as empresas de tecnologia para criticar o teorista de conspiração Alex Jones e seu site Infowars, levando a uma enxurrada de reportagens sobre o discurso de ódio que resultou nele e Infowars sendo banidos do Facebook e outras empresas de tecnologia ' Serviços. Na época, os executivos da empresa questionaram se a reportagem em massa do conteúdo de Jones era parte de um esforço para enganar os sistemas do Facebook. A denúncia falsa também se tornou uma tática em campanhas de assédio on-line de extrema-direita, dizem especialistas.

As empresas de tecnologia têm um longo histórico de uso de algoritmos para fazer todos os tipos de previsões sobre as pessoas, incluindo a probabilidade de comprar produtos e se estão usando uma identidade falsa. Mas, à medida que a desinformação se prolifera, as empresas estão fazendo escolhas editoriais cada vez mais sofisticadas sobre quem é confiável.

Em 2015, o Facebook deu aos usuários a capacidade de denunciar postagens que consideram falsas . Uma guia no canto superior direito de cada postagem no Facebook permite que as pessoas relatem conteúdo problemático por vários motivos, incluindo pornografia, violência, vendas não autorizadas, incitação ao ódio e notícias falsas.
Lyons disse que logo percebeu que muitas pessoas estavam denunciando as postagens como falsas simplesmente porque não concordavam com o conteúdo. Como o Facebook encaminha mensagens que são marcadas como falsas para verificadores de fatos de terceiros , ela disse que era importante construir sistemas para avaliar se as mensagens provavelmente seriam falsas para fazer uso eficiente do tempo dos verificadores de fatos. Isso levou sua equipe a desenvolver maneiras de avaliar se as pessoas que denunciavam as postagens como falsas eram confiáveis.
"Um dos sinais que usamos é como as pessoas interagem com os artigos", disse Lyons em um email de acompanhamento. "Por exemplo, se alguém nos deu um feedback de que um artigo era falso e o artigo foi confirmado como falso por um verificador de fatos, poderíamos avaliar o feedback de futuras notícias da pessoa mais do que alguém que forneça feedback falsamente informado sobre os lotes de artigos, incluindo aqueles que acabam sendo classificados como verdadeiros ”.
A pontuação é um sinal entre muitos de que a empresa fornece mais algoritmos para ajudar a decidir quais histórias devem ser revisadas.
"Eu gosto de fazer a piada de que, se as pessoas relatassem apenas coisas falsas, esse trabalho seria tão fácil!", Disse Lyons na entrevista. “As pessoas costumam relatar coisas com as quais simplesmente não concordam”.
Ela se recusou a dizer quais outros sinais a empresa usou para determinar a confiabilidade, citando preocupações sobre denunciar os maus atores.

Via: washingtonpost

Nenhum comentário