Tecnologia

Em experimento secreto, Facebook manipula emoções de usuários

[caption id="attachment_13131" align="alignnone" width="600"]Foto: DivulgaçãoFoto: Divulgação[/caption]

Um estudo detalhando como o Facebook manipulou secretamente o feed de notícias de aproximadamente 700 mil usuários com o objetivo de avaliar o “contágio emocional” desencadeou revolta na rede social.

Published

on

Foto: Divulgação

Um estudo detalhando como o Facebook manipulou secretamente o feed de notícias de aproximadamente 700 mil usuários com o objetivo de avaliar o “contágio emocional” desencadeou revolta na rede social.

Durante uma semana em 2012 o Facebook manipulou o algoritmo usado para distribuir os posts no feed de notícias do usuário para verificar como isso afetou o seu humor.

O estudo, conduzido por pesquisadores associados ao Facebook, pela Universidade de Cornell, e pela Universidade da Califórnia, foi publicado em junho na 17ª edição dos Anais da Academia Nacional de Ciência (http://www.pnas.org/content/111/24/8788.full.pdf).

Os pesquisadores pretendiam verificar se o número de palavras positivas ou negativas nas mensagens lidas pelos usuários resultaria em atualizações positivas ou negativas de seus posts nas redes sociais. Observou-se que os usuários que tiveram o feed manipulado utilizaram palavras positivas ou negativas dependendo do conteúdo ao qual foram expostos.

Os resultados do estudo foram propagados quando a revista online Slate and The Atlantic abordou o assunto no sábado (28/6).

“Estados emocionais podem ser transferidos para os outros por meio do contágio emocional, levando as pessoas a experimentarem as mesmas emoções de modo inconsciente”, afirmam os autores da pesquisa. “Estes resultados provam que as emoções expressas pelos outros no Facebook influenciam nossas próprias emoções, o que evidencia o contágio em larga escala via redes sociais”, completam.

Enquanto outros estudos usam metadados para estudar tendências, este parece ser o primeiro a manipular dados para verificar se há reação. A pesquisa é considerada legal de acordo com as normas do Facebook, mas seria ética?

 “#Facebook FEED DE USUÁRIOS MANIPULADOS PARA EXPERIMENTO PSICOLÓGICO EM MASSA… Sim, está na hora de encerrar a conta do FB!“, lia-se em post do Twitter.

Outros tweets usavam expressões como “super perturbador”, “assustador” e “mau”, assim como manifestações irritadas, para descrever o estudo. Susan Fiske, professora da Universidade de Princeton que editou o artigo para publicação, disse a The Atlantic que ela ficou preocupada com a pesquisa e entrou em contato com os autores.

Eles disseram que o conselho institucional aprovou o estudo, já que “o Facebook manipula a atualização do feed dos usuários o tempo todo”.

Fiske admitiu ter ficado “um pouco assustada” com o estudo.  Facebook disse a The Atlantic que “considera cuidadosamente” a pesquisa e que há “um processo de avaliação interna”. O Facebook, maior rede social do mundo, informa ter mais de um bilhão de usuários ativos.

Fonte: CORREIO BRAZILIENSE

EM ALTA

Sair da versão mobile