Robert Booth. Artigo tirado de Outras Palavras (aqui) e traduzido por Gabriela Leite desde o original publicado em The Guardian.

Ele já sabe se você está solteiro ou em um relacionamento; a primeira
escola onde estudou; se ama ou odeia Justin Bieber. Mas agora o
Facebook, a maior rede social
do mundo, está enfrentando uma tempestade de protestos ao se revelar
que descobriu como fazer usuários se sentirem mais tristes ou felizes,
com apenas alguns toques no teclado.
O Facebook acaba de publicar detalhes de um amplo experimento, no
qual manipulou informações postadas nas páginas de 689 mil usuários, e
descobriu que poderia fazê-los sentir-se mais positivos ou negativos,
por meio de um processo de “contágio emocional”.
Em um estudo [leia o relatório] com acadêmicos da Universidade de Cornell e da Universidade da Califórnia, o Facebook filtrou o feed
de notícias de usuários — a corrente de comentários, vídeos, imagens e
links postados por outras pessoas em sua rede social. Um teste reduziu a
exposição de usuários ao “conteúdo emocional positivo” de seus amigos.
Em consequência, os usuários submetidos a este conteúdo manipulado
também postavam menos posts positivos. Outro teste reduziu a exposição a
“conteúdo emocional negativo”: os usuários reagiram de maneira oposta à
do primeiro grupo.
O estudo concluiu: “Emoções expressas por amigos, via redes
sociais, influenciam nossos próprios humores, constituindo, segundo
sabemos, a primeira evidência experimental de contágio emocional em
escala maciça, via redes sociais.”
Advogados, ativistas
que debatem o futuro da internet e políticos afirmaram, neste final de
semana, que o experimento de massa sobre manipulação emocional era
“escandaloso”, “assustador” e “incômodo”.
Na noite de domingo, um membro experiente do Parlamento Britânico
pediu uma investigação parlamentar sobre como o Facebook e outras redes
sociais manipularam respostas emocionais e psicológicas de seus
usuários, ao editar informações oferecidas a eles.
Jim Sheridan, um membro do comitê de mídia da Câmara dos Comuns
britânica, disse que o experimento era intrusivo. “Trata-se de algo
extraordinariamente poderoso, e se ainda não há uma legislação para
isso, deveria haver, para proteger as pessoas”, disse. “Estão
manipulando informações da vida pessoal de seres humanos, e me preocupa a
capacidade do Facebook e de outros para manipular os pensamentos
relacionados a política ou outras áreas. Se as pessoas estão sendo
controladas dessa maneira, segundo o que pensam, é necessário que haja
uma proteção, e elas precisam ao menos ter consciência disso.”
Uma porta-voz do Facebook disse que a pesquisa,
publicada este mês na revista de Procedimentos da Academia Nacional de
Ciências dos EUA, foi realizada para “melhorar nossos serviços e tornar o
conteúdo que os usuários veem no Facebook o mais relevante e envolvente
possível”.
Ela acrescentou: “Uma grande razão da pesquisa é entender como as
pessoas respondem a tipos diferentes de conteúdo, seja em um tom
positivo ou negativo, notícias de amigos, ou informações sobre as
páginas que seguem.”
Mas alguns outros comentaristas expressaram receio de que o processo
poderia ser usado para propósitos políticos em disputas eleitorais ou
para encorajar internautas a se manterem focados no site, alimentando-os
com pensamentos felizes, e permitindo bombar as receitas de publicidade
do próprio Facebook.
Em uma série de posts
no Twitter, Clay Johnson, o co-fundador da Blue State Digital, a
empresa que construiu e gerenciou a campanha online de Barack Obama à
presidência em 2008, disse: “O experimento do Facebook de ‘trasmissão de raiva’ é aterrorizante.”
Ele pergunta: “A CIA poderia iniciar uma revolução no Sudão
pressionando o Facebook a promover descontentamento? Isso seria legal?
Mark Zuckerberg poderia virar o resultado de uma eleição ao promover
posts do Upworthy [um site que agrega conteúdo viral] duas semanas antes de os cidadãos irem às urnas? Isso seria legal?”
Alega-se também que o Facebook possa ter quebrado normas éticas e
legais, ao não informar seus usuários que estavam sendo manipulados no
experimento, realizado em 2012.
A rede afirmou que alterar o feed de notícias foi “consistente com a
política de uso de dados do Facebook, com a qual usuários devem
concordar antes de criar uma conta no Facebook, constituindo
consentimento informado para esta pesquisa”.
Mas Susan Fiske, acadêmica de Princeton que editou o estudo, disse
estar preocupada. “As pessoas devem ser avisadas quando vão participar
de estudos e concordar com isso, além de terem a opção de discordar sem
serem penalizadas.”
James Grimmelmann, professor de Direito da Maryland University, disse
que o Facebook não obteve “consentimento informado”, segundo os padros
definidos pela política federal dos EUA para a proteção da subjetividade
das pessoas. A lei demanda explicação sobre os propósitos da pesquisa e
a duração estimada de participação do indivíduo, uma descrição de
quaisquer riscos razoavelmente previsíveis e uma confirmação de que o
envolvimento é voluntário. “Este estudo é um escândalo porque trouxe as
práticas problemáticas do Facebook a um reino — a academia — onde ainda
temos como padrão tratar pessoas com dignidade e servir ao bem comum”,
disse em seu blog.
Não é novidade para as empresas de internet usar algorítimos que
selecionam o conteúdo que mostram aos seus usuários. Jacob Silverman,
autor do livro Terms of Service: Social Media, Surveillance, and the Price of Constant Connection (em tradução livre, “Termos de serviço: mídias sociais, vigilância e o preço da conexão constante”), disse à revista Wired, no domingo, que a internet já é “uma coleção ampla de estudos de pesquisa de mercado; nós somos os objetos”.
“O que é perturbador sobre como o Facebook agiu sobre isso,
entretanto, é que eles essencialmente manipularam os sentimentos de
centenas de milhares de usuários sem pedir permissão”, disse. “As coisas
com as quais o Facebook mais se importa são as seguintes: envolvimento e
publicidade. Se o Facebook, digamos, decide que filtrar nossos posts
negativos ajuda-o a manter as pessoas felizes e clicando, há pouco
motivo para pensar que eles não irão fazê-lo. Enquanto a plataforma se
mantiver na condição de um filtrador tão decisivo — e conservar seus
algorítimos completamente opacos — nós devemos ficar cautelosos com o
poder e confiança que delegamos a ele.”
Robert Blackie, diretor digital da agência de marketing Ogilvy One,
disse que a maneira que as empresas de internet filtram informações que
mostram a seus usuários é fundamental para seus modelos de negócio, o
que as faz relutantes para abri-los.
“Para garantir aceitação continuada de público, estas empresas terão
que rediscutir tal questão de maneira mais aberta no futuro”, ele disse.
“Será preciso introduzir ou críticos independentes, capazes de analisar
o que elas fazem, ou regulação governamental. Se o Facebook e similares
não compreenderem isso, as pessoas ficarão relutantes ao utilizar seus
serviços, o que é potencialmente um grande problema de negócios.”
Nenhum comentário:
Postar um comentário