por Guy Rosen , vice-presidente de gerenciamento de produtos 15/05/2018.
Muitas vezes nos perguntam como decidimos o que é permitido no Facebook – e quanto material ruim está por aí. Durante anos, tivemos Padrões da Comunidade que explicam o que permanece e o que acontece. Há três semanas, pela primeira vez, publicamos as diretrizes internas que usamos para impor esses padrões. E hoje estamos lançando números em um Relatório de Cumprimento de Normas da Comunidade para que você possa julgar nosso desempenho por si mesmo.
Alex Schultz, nosso vice-presidente de análise de dados, explica com mais detalhes como exatamente nós medimos o que está acontecendo no Facebook, tanto no post deperguntas difíceis quanto no nosso guia para entender o relatório de aplicação de normas da comunidade . Mas é importante ressaltar que esse é um trabalho muito em andamento e provavelmente mudaremos nossa metodologia à medida que aprendemos mais sobre o que é importante e o que funciona.
Este relatório abrange os nossos esforços de fiscalização entre outubro de 2017 e março de 2018 e abrange seis áreas: violência explícita, nudez e atividade sexual de adultos, propaganda terrorista, discurso de ódio, spam e contas falsas. Os números mostram a você:
- Quanto conteúdo as pessoas viram que viola nossos padrões;
- Quanto conteúdo removemos; e
- Quanto conteúdo detectamos proativamente usando nossa tecnologia – antes que as pessoas que usam o Facebook informassem isso.
A maioria das ações que tomamos para remover conteúdo ruim é relacionada ao spam e às contas falsas que eles usam para distribuí-lo. Por exemplo:
- Reduzimos 837 milhões de spams no primeiro trimestre de 2018 – quase 100% dos quais foram encontrados e sinalizados antes que alguém o denunciasse; e
- A chave para combater o spam é derrubar as contas falsas que o espalham. No primeiro trimestre, desativamos cerca de 583 milhões de contas falsas, a maioria das quais desativadas em minutos após o registro. Isso é um acréscimo às milhões de tentativas de contas falsas que impedimos diariamente de se registrarem no Facebook. No geral, estimamos que cerca de 3 a 4% das contas ativas do Facebook no site durante esse período ainda eram falsas.
Em termos de outros tipos de violação de conteúdo:
- Reduzimos 21 milhões de nudez e atividade sexual em adultos no primeiro trimestre de 2018 – 96% dos quais foram encontrados e sinalizados pela nossa tecnologia antes de serem relatados. No geral, estimamos que de cada 10 mil conteúdos visualizados no Facebook, 7 a 9 exibições eram de conteúdo que violava nossos padrões de nudez e pornografia para adultos.
- Para a violência gráfica, retiramos ou aplicamos rótulos de advertência a cerca de 3,5 milhões de conteúdos violentos no primeiro trimestre de 2018 – 86% dos quais foram identificados pela nossa tecnologia antes de serem reportados ao Facebook.
- Para o discurso do ódio, nossa tecnologia ainda não funciona tão bem e por isso precisa ser verificada por nossas equipes de revisão. Removemos 2,5 milhões de peças de discurso de ódio no primeiro trimestre de 2018 – 38% das quais foram sinalizadas por nossa tecnologia.
Como Mark Zuckerberg disse no F8 , ainda temos muito trabalho a fazer para evitar abusos. É em parte que a tecnologia como a inteligência artificial, apesar de promissora, ainda está a anos de ser eficaz para a maioria dos conteúdos ruins, porque o contexto é tão importante. Por exemplo, a inteligência artificial ainda não é boa o suficiente para determinar se alguém está forçando o ódio ou descrevendo algo que aconteceu com ele para que possa aumentar a conscientização sobre o assunto. E mais geralmente, como expliquei há duas semanas, a tecnologia precisa de grandes quantidades de dados de treinamento para reconhecer padrões significativos de comportamento, que muitas vezes falta em idiomas menos usados ou em casos que não são frequentemente relatados. Além disso, em muitas áreas – seja spam, pornografia ou contas falsas – enfrentamos adversários sofisticados que mudam continuamente de tática para contornar nossos controles, o que significa que devemos continuamente construir e adaptar nossos esforços. É por isso que estamos investindo pesadamente em mais pessoas e melhor tecnologia para tornar o Facebook mais seguro para todos.
É também por isso que estamos publicando essa informação. Acreditamos que o aumento da transparência tende a levar a uma maior responsabilização e responsabilidade ao longo do tempo, e publicar essas informações nos levará a melhorar mais rapidamente também. Esses são os mesmos dados que usamos para medir nosso progresso internamente – e agora você pode ver isso para julgar nosso progresso por si mesmos. Estamos ansiosos para o seu feedback.
Fonte: https://newsroom.fb.com