O objetivo do estudo era avaliar o 'contágio emocional' dos usuários.
Washington (AFP) - Um estudo detalhando como o Facebook manipulou secretamente o feed de notícias de aproximadamente 700 mil usuários com o objetivo de avaliar o "contágio emocional" desencadeou revolta na rede social.
Durante uma semana em 2012, o Facebook manipulou o algoritmo usado para distribuir os posts no feed de notícias do usuário para verificar como isso afetou o seu humor.
O estudo, conduzido por pesquisadores associados ao Facebook, pela Universidade de Cornell, e pela Universidade da Califórnia, foi publicado em junho na 17ª edição dos Anais da Academia Nacional de Ciência
Washington (AFP) - Um estudo detalhando como o Facebook manipulou secretamente o feed de notícias de aproximadamente 700 mil usuários com o objetivo de avaliar o "contágio emocional" desencadeou revolta na rede social.
Durante uma semana em 2012, o Facebook manipulou o algoritmo usado para distribuir os posts no feed de notícias do usuário para verificar como isso afetou o seu humor.
O estudo, conduzido por pesquisadores associados ao Facebook, pela Universidade de Cornell, e pela Universidade da Califórnia, foi publicado em junho na 17ª edição dos Anais da Academia Nacional de Ciência
(http://www.pnas.org/content/111/24/8788.full.pdf).
Os pesquisadores pretendiam verificar se o número de palavras positivas ou negativas nas mensagens lidas pelos usuários resultaria em atualizações positivas ou negativas de seus posts nas redes sociais.
Observou-se que os usuários que tiveram o feed manipulado utilizaram palavras positivas ou negativas dependendo do conteúdo ao qual foram expostos.
Os resultados do estudo foram propagados quando a revista online Slate and The Atlantic abordou o assunto.
"Estados emocionais podem ser transferidos para os outros por meio do contágio emocional, levando as pessoas a experimentarem as mesmas emoções de modo inconsciente", afirmam os autores da pesquisa.
"Estes resultados provam que as emoções expressas pelos outros no Facebook influenciam nossas próprias emoções, o que evidencia o contágio em larga escala via redes sociais."
Enquanto outros estudos usam metadados para estudar tendências, este parece ser o primeiro a manipular dados para verificar se há reação.
A pesquisa é considerada legal de acordo com as normas do Facebook, mas seria ética?
"#Facebook Feed de usuários manipulados para experimento psicológicos em massa... Sim, está na hora de encerrar a conta do FB!", lia-se em post do Twitter.
Outros tweets usavam expressões como "super perturbador", "assustador" e "mau", assim como manifestações irritadas, para descrever o estudo.
Susan Fiske, professora da Universidade de Princeton que editou o artigo para publicação, disse a The Atlantic que ela ficou preocupada com a pesquisa e entrou em contato com os autores.
Eles disseram que o conselho institucional aprovou o estudo, já que "o Facebook manipula a atualização do feed dos usuários o tempo todo".
Fiske admitiu ter ficado "um pouco assustada" com o estudo.
O Facebook disse a The Atlantic que "considera cuidadosamente" a pesquisa e que há "um processo de avaliação interna".
O Facebook, maior rede social do mundo, informa ter mais de um bilhão de usuários ativos.
Os pesquisadores pretendiam verificar se o número de palavras positivas ou negativas nas mensagens lidas pelos usuários resultaria em atualizações positivas ou negativas de seus posts nas redes sociais.
Observou-se que os usuários que tiveram o feed manipulado utilizaram palavras positivas ou negativas dependendo do conteúdo ao qual foram expostos.
Os resultados do estudo foram propagados quando a revista online Slate and The Atlantic abordou o assunto.
"Estados emocionais podem ser transferidos para os outros por meio do contágio emocional, levando as pessoas a experimentarem as mesmas emoções de modo inconsciente", afirmam os autores da pesquisa.
"Estes resultados provam que as emoções expressas pelos outros no Facebook influenciam nossas próprias emoções, o que evidencia o contágio em larga escala via redes sociais."
Enquanto outros estudos usam metadados para estudar tendências, este parece ser o primeiro a manipular dados para verificar se há reação.
A pesquisa é considerada legal de acordo com as normas do Facebook, mas seria ética?
"#Facebook Feed de usuários manipulados para experimento psicológicos em massa... Sim, está na hora de encerrar a conta do FB!", lia-se em post do Twitter.
Outros tweets usavam expressões como "super perturbador", "assustador" e "mau", assim como manifestações irritadas, para descrever o estudo.
Susan Fiske, professora da Universidade de Princeton que editou o artigo para publicação, disse a The Atlantic que ela ficou preocupada com a pesquisa e entrou em contato com os autores.
Eles disseram que o conselho institucional aprovou o estudo, já que "o Facebook manipula a atualização do feed dos usuários o tempo todo".
Fiske admitiu ter ficado "um pouco assustada" com o estudo.
O Facebook disse a The Atlantic que "considera cuidadosamente" a pesquisa e que há "um processo de avaliação interna".
O Facebook, maior rede social do mundo, informa ter mais de um bilhão de usuários ativos.
Fonte: Dom Total
Via: Revellati Online
Nenhum comentário:
Postar um comentário
Obrigado por querer comentar, mas antes saiba algumas regras para que seu comentário seja aceito:
1 - Não use palavrões, não faça ironias ou qualquer outro tipo de comentário desagradável e sem conteúdo sobre os assuntos aqui tratados.
2 - Sem expressões de fanatismo, o blog é sobre Conspiração e a Volta do Senhor Jesus Cristo, e não um blog fã de algum artista ou coisa do tipo.
Se seu comentário não apareceu é devido ao não cumprimento de algumas regras acima ou porque os administradores ainda não o liberaram por falta de tempo.