Facebook: pesquisador se desculpa, mas reforça benefício de estudo polêmico

Imagens ''ofensivas'' - A foto acima foi excluída da página Theories of the deep understanding of things (algo como 'teoria do conhecimento profundo das coisas'), que quis testar a política de exclusão de conteúdo do Facebook. Motivo: o sistema de moderação da rede social confundiu os cotovelos da mulher com seios. Pode isso, Arnaldo?

Imagens ”ofensivas” – A foto acima foi excluída da página Theories of the deep understanding of things (algo como ‘teoria do conhecimento profundo das coisas’), que quis testar a política de exclusão de conteúdo do Facebook. Motivo: o sistema de moderação da rede social confundiu os cotovelos da mulher com seios. Pode isso, Arnaldo?

 

 

Um experimento realizado pelo Facebook causou polêmica, pelo fato de ter sido realizado sem o consentimento dos usuários envolvidos no estudo. Em 2012, a rede social manipulou o feed de aproximadamente 700 mil pessoas para avaliar se o conteúdo das mensagens recebidas afetaria seu humor e suas atualizações.

 

Nessa pesquisa de contágio emocional, descobriu-se que os usuários são influenciados pelo tom das mensagens. Quando mais conteúdo positivo recebem, mais informações positivas postam. O mesmo vale para dados considerados negativos: quanto maior a exposição, maior a divulgação.

 

Diante das críticas referentes à manipulação sigilosa dos feeds, o pesquisador do Facebook responsável pelo estudo fez um post em seu perfil. No texto, ele se desculpa pela “ansiedade causada”, defende os benefícios trazidos pelo levantamento e detalha quais eram seus objetivos. O experimento, realizado em parceria com as universidades norte-americanas de Cornell e da Califórnia, foi divulgado na publicação científica “PNAS”.

 

“O objetivo de todas as nossas pesquisas no Facebook é entender como oferecer um melhor serviço. Sendo o responsável por esse experimento, posso dizer que nossa meta nunca foi aborrecer ninguém. Entendo por que algumas pessoas se preocupam, e eu e meus coautores nos desculpamos pela forma como o levantamento foi descrito e a ansiedade que gerou. Em retrospecto, os benefícios trazidos pelo estudo podem não justificar toda essa ansiedade”, escreveu Adam Kramer, pesquisador de dados no Facebook.

 

Ele reconheceu que as motivações para o levantamento não ficaram claras e, por isso, as detalhou em seu texto. “Fizemos isso porque nos preocupamos com o impacto emocional do Facebook e com as pessoas que usam nosso produto. Achamos que seria importante investigar a hipótese de que ver amigos postando conteúdo positivo deixa outros usuários se sentindo negativos e deixados de fora.”

 

“Ao mesmo tempo, estávamos preocupados que a exposição à negatividade dos amigos poderia levar as pessoas a evitarem o Facebook”, afirmou. “Descobrimos exatamente o oposto […]: ver alguns tipos de emoções [positivas] as encorajam, em vez de oprimi-las.” Segundo ele, o estudo atingiu 0,04% dos usuários (ou um em cada 2.500) pelo período de uma semana.

 

A “Forbes” afirma que, quatro meses depois de realizar o estudo, a rede social alterou seus termos de uso. Na versão mais recente, a empresa comunica que as informações do usuário podem ser usadas para “operações internas”, incluindo “pesquisas”. “Em janeiro de 2012, a política não dizia nada sobre os internautas serem usados como cobaias, tendo um dia péssimo em nome da ciência. Nem sobre essa ‘pesquisa’ ser feita na plataforma”, diz a “Forbes”.

 

Preocupação

Jim Sherida, parlamentar do Partido Trabalhista do Reino Unido, pediu uma investigação sobre o assunto. Em entrevista ao jornal “The Guardian”, ele defendeu uma legislação para proteger as pessoas contra este tipo de prática.

 

“Eles estão manipulando material da vida pessoal dos usuários. Estou preocupado com a habilidade do Facebook e de outros de controlarem os pensamentos das pessoas em política e em outras áreas”, criticou Sherida.

 

Susan Fiske, professora da Universidade de Princeton que editou o artigo para publicação, disse ao “The Atlantic” que ficou preocupada com a pesquisa e entrou em contato com os autores: ela admitiu ter ficado “um pouco assustada”. Eles disseram que o conselho institucional aprovou o estudo, pois “o Facebook manipula a atualização do feed dos usuários o tempo todo”. (Tecnologia UOL)

 

Deixe uma Resposta

Preencha os seus detalhes abaixo ou clique num ícone para iniciar sessão:

Logótipo da WordPress.com

Está a comentar usando a sua conta WordPress.com Terminar Sessão / Alterar )

Imagem do Twitter

Está a comentar usando a sua conta Twitter Terminar Sessão / Alterar )

Facebook photo

Está a comentar usando a sua conta Facebook Terminar Sessão / Alterar )

Google+ photo

Está a comentar usando a sua conta Google+ Terminar Sessão / Alterar )

Connecting to %s