Facebook divulga seu primeiro relatório de transparência.

0

por Guy Rosen ,  vice-presidente de gerenciamento de produtos 15/05/2018.

Muitas vezes nos perguntam como decidimos o que é permitido no Facebook – e quanto material ruim está por aí. Durante anos, tivemos Padrões da Comunidade que explicam o que permanece e o que acontece. Há três semanas, pela primeira vez, publicamos as diretrizes internas que usamos para impor esses padrões. E hoje estamos lançando números em um Relatório de Cumprimento de Normas da Comunidade para que você possa julgar nosso desempenho por si mesmo.

Alex Schultz, nosso vice-presidente de análise de dados, explica com mais detalhes como exatamente nós medimos o que está acontecendo no Facebook, tanto no post deperguntas difíceis quanto no nosso guia para entender o relatório de aplicação de normas da comunidade . Mas é importante ressaltar que esse é um trabalho muito em andamento e provavelmente mudaremos nossa metodologia à medida que aprendemos mais sobre o que é importante e o que funciona.

Este relatório abrange os nossos esforços de fiscalização entre outubro de 2017 e março de 2018 e abrange seis áreas: violência explícita, nudez e atividade sexual de adultos, propaganda terrorista, discurso de ódio, spam e contas falsas. Os números mostram a você:

  • Quanto conteúdo as pessoas viram que viola nossos padrões;
  • Quanto conteúdo removemos; e
  • Quanto conteúdo detectamos proativamente usando nossa tecnologia – antes que as pessoas que usam o Facebook informassem isso.

A maioria das ações que tomamos para remover conteúdo ruim é relacionada ao spam e às contas falsas que eles usam para distribuí-lo. Por exemplo:

  • Reduzimos 837 milhões de spams no primeiro trimestre de 2018 – quase 100% dos quais foram encontrados e sinalizados antes que alguém o denunciasse; e
  • A chave para combater o spam é derrubar as contas falsas que o espalham. No primeiro trimestre, desativamos cerca de 583 milhões de contas falsas, a maioria das quais desativadas em minutos após o registro. Isso é um acréscimo às milhões de tentativas de contas falsas que impedimos diariamente de se registrarem no Facebook. No geral, estimamos que cerca de 3 a 4% das contas ativas do Facebook no site durante esse período ainda eram falsas.

Em termos de outros tipos de violação de conteúdo:

  • Reduzimos 21 milhões de nudez e atividade sexual em adultos no primeiro trimestre de 2018 – 96% dos quais foram encontrados e sinalizados pela nossa tecnologia antes de serem relatados. No geral, estimamos que de cada 10 mil conteúdos visualizados no Facebook, 7 a 9 exibições eram de conteúdo que violava nossos padrões de nudez e pornografia para adultos.
  • Para a violência gráfica, retiramos ou aplicamos rótulos de advertência a cerca de 3,5 milhões de conteúdos violentos no primeiro trimestre de 2018 – 86% dos quais foram identificados pela nossa tecnologia antes de serem reportados ao Facebook.
  • Para o discurso do ódio, nossa tecnologia ainda não funciona tão bem e por isso precisa ser verificada por nossas equipes de revisão. Removemos 2,5 milhões de peças de discurso de ódio no primeiro trimestre de 2018 – 38% das quais foram sinalizadas por nossa tecnologia.

Como Mark Zuckerberg disse no F8 , ainda temos muito trabalho a fazer para evitar abusos. É em parte que a tecnologia como a inteligência artificial, apesar de promissora, ainda está a anos de ser eficaz para a maioria dos conteúdos ruins, porque o contexto é tão importante. Por exemplo, a inteligência artificial ainda não é boa o suficiente para determinar se alguém está forçando o ódio ou descrevendo algo que aconteceu com ele para que possa aumentar a conscientização sobre o assunto. E mais geralmente, como expliquei há duas semanas, a tecnologia precisa de grandes quantidades de dados de treinamento para reconhecer padrões significativos de comportamento, que muitas vezes falta em idiomas menos usados ​​ou em casos que não são frequentemente relatados. Além disso, em muitas áreas – seja spam, pornografia ou contas falsas – enfrentamos adversários sofisticados que mudam continuamente de tática para contornar nossos controles, o que significa que devemos continuamente construir e adaptar nossos esforços. É por isso que estamos investindo pesadamente em mais pessoas e melhor tecnologia para tornar o Facebook mais seguro para todos.

É também por isso que estamos publicando essa informação. Acreditamos que o aumento da transparência tende a levar a uma maior responsabilização e responsabilidade ao longo do tempo, e publicar essas informações nos levará a melhorar mais rapidamente também. Esses são os mesmos dados que usamos para medir nosso progresso internamente – e agora você pode ver isso para julgar nosso progresso por si mesmos. Estamos ansiosos para o seu feedback.

Fonte: https://newsroom.fb.com

COMPARTILHAR

DEIXE SEU COMENTÁRIO

Please enter your comment!
Please enter your name here