Facebook abre as portas da moderação de conteúdo para mostrar quem decide o que é certo ou errado na rede

07/06/2019 10:11

Para muita gente, parece quase óbvio pensar que todo trabalho de moderação de conteúdo de uma rede social do tamanho do Facebook é feito por computadores e uma inteligência artificial --nem sempre tão inteligente assim. Uma IA que implica com mamilos, não entende obras de arte com pelos pubianos ou fotos históricas de crianças no Vietnã. Então, não me surpreenderia se você achasse chocante o fato de que 15.000 pessoas revisam 24 horas por dia, sete dias por semana, os conteúdos reportados. E só agora, em 2019, o Facebook tenha achado um caminho para filtrar automaticamente (ou seja, via machine learning) mais de 98% de certos tipos de conteúdos com precisão aceitável. 

Veja a matéria de Fabiana Uchinaka do UOL em Barcelona, Espanha.
 

Voltar