Saiba como foi aplicada a manipulação de emoções no feed do Facebook

Aplicada pelo Facebook, uma experiência feita na rede social alterava o que os usuários viam em seus feeds para analisar como isso impactava o humor das pessoas. Cerca de 690 mil usuários da versão em inglês do site participaram do estudo, mesmo sem terem sido avisados previamente que as configurações de seus feeds estavam sendo alteradas ou dar qualquer permissão para a mudança. Facebook responde reações negativas sobre a manipulação de feed de 600 mil Entenda como foi aplicada a pesquisa do Facebook que manipulou emoções de usuários (Foto: Divulgação/Facebook) A pesquisa dividia os usuários em dois grupos em relação a um grupo-controle (aquele que não tem nada alterado): um com maior exposição à postagens positivas de seus amigos e outro com maior exposição à postagens negativas. O resultado mostrou que os usuários em teste realmente tinham maior propensão a mudarem de humor: aqueles expostos à determinadas expressões afetivas começaram a postar textos com termos semelhantes, o que caracterizava “contágio emocional”. O que era mostrado ou omitido no feed de notícias dos “cobaias” se baseou em um algoritmo de classificação que o Facebook utiliza para determinar o que é mais relevante para seus usuários. A única coisa alterada foi o que as pessoas visualizavam em seus feeds, e não as postagens em si (como conteúdo, curtidas e comentários) ou a organização destas em um perfil de linha do tempo. De acordo com o relatório da pesquisa, pessoas expostas á determinados tipos de conteúdo têm mais propensão a postar conteúdos semelhantes no Facebook (Foto: Reprodução /PNAS) Apesar da Política de Uso de Dados do Facebook prever a utilização de informações dos usuários para pesquisas, muitos deles se mostraram insatisfeitos por não terem sido consultados. Até a editora do relatório que apresentava o estudo considerou a questão como um problema ético. Afinal, uma empresa tem o direito de mexer com a emoção das pessoas sem que elas estejam dispostas a isso? O experimento aconteceu durante uma semana de janeiro de 2012. saiba mais Cinco dicas ajudam a proteger sua privacidade nas redes sociais; veja lista Como encontrar listas para seguir no Facebook; use a página de interesses Como bloquear o acesso ao Facebook em um computador Dez coisas que você precisa saber sobre mensagens privadas no Facebook Orkut vai acabar dia 30 de setembro de 2014; saiba recuperar seu perfil Algoritmos são amplamente utilizados na indústria tecnológica para influenciar positivamente os usuários. O Foursquare recomenda lugares próximos de acordo com ações anteriores e de amigos; o Google exibe resultados de busca considerando comportamentos verificados na conta de cada usuário; o Facebook mostra mensagens de amigos com os quais o usuário é mais propenso a interagir, e por aí vai. Até então, sem prejudicar ninguém. Como cancelar o Unfriend Alert do Facebook? Veja no Fórum do TechTudo. Um dos cientistas do Facebook que conduziu a pesquisa, Adam Kramer, admitiu que a empresa falhou em deixar os objetivos mais claros para os usuários. “Eu posso entender por que algumas pessoas têm preocupações quanto ao assunto, e eu e meus coautores estamos muito tristes pela forma como a pesquisa foi explicada no relatório e toda a ansiedade que causou”, lamentou em um post no Facebook . “Nós sentimos que era importante investigar uma preocupação comum: se pessoas que postavam conteúdo positivo levavam os amigos a se sentirem mal ou deixados de fora. Ao mesmo tempo, estávamos preocupados se a exposição à negatividade poderia levar pessoas a evitarem entrar no Facebook”, tentou explicar Adam.  

× Consulte-nos!