book_icon

Google testa machine learning para frear comentários abusivos

Tecnologia lançada examinou comentários rotulados como ofensivos por usuários para aprender como identificar linguagem potencialmente abusiva
Google testa machine learning para frear comentários abusivos

O Google e a Jigsaw, ambos controlados pela holding Alphabet, lançaram uma tecnologia para ajudar empresas de mídia e plataformas online a filtrar comentários abusivos, inapropriados, palavrões e assédios. Batizada de Perspectiva, a tecnologia usa o conceito de machine learning para revisar os textos, classificando-os com base na similaridade com o que pessoas consideram “tóxicas” ou que as levariam a deixar a conversa.

A iniciativa sucede esforços de Google e Facebook para conter a disseminação de notícias faltas na França, Alemanha e Estados Unidos. O serviço já foi testado pelo jornal New York Times e as empresas esperam disponibilizá-lo para outros veículos de imprensa, como o The Guardian e a revista The Economist.

 Tecnologia lançada examinou centenas de milhares de comentários rotulados como ofensivos por usuários para aprender como identificar linguagem potencialmente abusiva
“Os veículos de comunicação querem encorajar o engajamento e a discussão em torno de seu conteúdo. Porém, identificar em meio a milhares de comentários aqueles que são ofensivos ou abusivos requer muito dinheiro, trabalho e tempo. Como resultado, muitos sites bloquearam a função de uma vez por todas” disse Jared Cohen, presidente da Jigsaw, em uma publicação em seu blog.

A tecnologia lançada examinou centenas de milhares de comentários rotulados como ofensivos por usuários para aprender como identificar linguagem potencialmente abusiva. Para CJ Adams, gerente de produtos da Jigsaw, a empresa estava pronta para disponibilizar a tecnologia para todas as plataformas, incluindo as grandes como o Facebook e o Twitter, onde a publicação de comentários ofensivos pode se tornar uma dor de cabeça.

O serviço pode ser expandido no futuro, de modo a identificar ataques pessoais ou comentários fora de contexto. Segundo Cohen, a tecnologia não decide o que fazer com os comentários considerados potencialmente abusivos. Em vez disso, ela os ressalta para os moderadores ou desenvolve ferramentas para ajudar usuários a entender o impacto do que escrevem. De acordo com ele, uma porção significativa de comentários abusivos parte de pessoas que estão “apenas tendo um dia ruim”.

As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.