O Facebook está desenvolvendo uma alerta automático para conteúdos ofensivos em transmissões de vídeo ao vivo, elevando o uso de inteligência artificial para monitorar conteúdo, disse o diretor de aprendizado de máquinas da empresa, Joaquin Candela.
A rede social está envolvida em várias controvérsias sobre moderação de conteúdo, em meio a um clamor internacional após a remoção de uma icônica foto da Guerra do Vietnã devido à nudez, até permitir a disseminação de notícias falsas em seu site.
O Facebook historicamente tem confiado principalmente em seus usuários para reportar postagens ofensivas, que então são verificadas por funcionários do Facebook seguindo os padrões da comunidade.
Candela disse que o Facebook usa cada vez mais a inteligência artificial para encontrar conteúdos ofensivos. É “um algoritmo que detecta nudez, violência ou qualquer uma das coisas que não está de acordo com nossas políticas”, ele disse.
A empresa já estava trabalhando no uso de sinalização automática do conteúdos extremistas, como a Reuters havia noticiado em junho.
Agora, o sistema automatizado também está sendo testado no Facebook Live, o serviço de transmissão que permite que usuários façam vídeos ao vivo.
O uso da inteligência artificial para sinalizar vídeos ao vivo ainda está em pesquisa e tem dois desafios, disse Candela.
“Um, o algoritmo computacional tem que ser rápido e acho que podemos nos esforçar nisso, e o outro é que você precisa priorizar as coisas da maneira certa para que um ser humano olhe aquilo, um especialista em nossas políticas, e o tire do ar”.