YouTube recomenda vídeos que violam a sua própria política de uso

[ad_1]

O algoritmo do YouTube recomenda vídeos que violam as próprias políticas de conteúdo da plataforma, contribuindo para a desinformação, disseminação de discursos de ódio e o extremismo político. É o que afirma um estudo divulgado nesta quarta-feira (7) pela Fundação Mozilla.

Na pesquisa, baseada em dados compartilhados voluntariamente por 30 mil usuários do serviço do Google, os investigadores descobriram que 71% dos vídeos marcados como “nocivos” foram sugeridos pelo YouTube. Curiosamente, a recomendação de conteúdos “perturbadores” é 60% maior entre os não falantes da língua inglesa.

Em meio aos conteúdos sugeridos pela inteligência artificial que contrariam os termos de uso, há desde fake news sobre covid-19 até animações inadequadas às crianças, segundo os pesquisadores. O estudo deu alguns exemplos de como isso ocorre.

A maior parte dos conteúdos assistidos no YouTube é de sugestões, segundo a pesquisa.A maior parte dos conteúdos assistidos no YouTube é de sugestões, segundo a pesquisa.Fonte:  Unsplash 

Um dos casos mencionados cita um usuário que assistiu a vídeos de militares americanos e, na sequência, recebeu sugestão de uma gravação na qual um homem humilhava uma feminista. Em outra amostra, o internauta vê um vídeo sobre direitos de softwares e é recomendado a ver um filme sobre o direito de usar armas.

Como melhorar o sistema?

De acordo com o líder da pesquisa, Brandi Geurkink, o algoritmo do YouTube “é projetado de forma a prejudicar e desinformar as pessoas”. Ele aponta que as descobertas são apenas a “ponta do iceberg” e espera que elas levem a gigante das buscas a ser mais transparente em relação à ferramenta.

A Mozilla também apresentou sugestões para melhorar o sistema. Conforme Geurkink, o YouTube e as demais plataformas precisam dar aos usuários a opção de não receber recomendações personalizadas, além de detalharem melhor como funcionam estes mecanismos.

Ele ainda indica a criação de sistemas de gerenciamento de risco dedicados às sugestões por IA e a formulação de novas leis para regular o uso dos algoritmos.

[ad_2]
Source link

× Consulte-nos!