Algoritmo de 700 mil usuários foi manipulado por uma semana em 2012.
Resultado mostrou que humor de usuários varia de acordo com conteúdo. Durante uma semana em 2012 o Facebook manipulou o algoritmo usado para distribuir os posts no feed de notícias do usuário para verificar como isso afetou o seu humor.
O estudo, conduzido por pesquisadores associados ao Facebook, pela Universidade de Cornell, e pela Universidade da Califórnia, foi publicado em junho na 17ª edição dos Anais da Academia Nacional de Ciência.
Os pesquisadores pretendiam verificar se o número de palavras positivas ou negativas nas mensagens lidas pelos usuários resultaria em atualizações positivas ou negativas de seus posts nas redes sociais.
Observou-se que os usuários que tiveram o feed manipulado utilizaram palavras positivas ou negativas dependendo do conteúdo ao qual foram expostos.
Os resultados do estudo foram propagados quando a revista online Slate and The Atlantic abordou o assunto no sábado.
"Estados emocionais podem ser transferidos para os outros por meio do contágio emocional, levando as pessoas a experimentarem as mesmas emoções de modo inconsciente", afirmam os autores da pesquisa.
"Estes resultados provam que as emoções expressas pelos outros no Facebook influenciam nossas próprias emoções, o que evidencia o contágio em larga escala via redes sociais."
Enquanto outros estudos usam metadados para estudar tendências, este parece ser o primeiro a manipular dados para verificar se há reação.
A pesquisa é considerada legal de acordo com as normas do Facebook, mas seria ética?