terça-feira, 1 de julho de 2014

O Facebook está certo ou errado?


Tornou-se público nos últimos dias que o Facebook fez, secretamente, alguns experimentos com seus usuários. Durante o período de uma semana em Janeiro de 2012, usuários da rede social fizeram parte de um estudo que investigava como a exposição a emoções positivas ou negativas afetavam o conteúdo do que esses usuários posteriormente postavam. O estudo foi feito em parceria  com professores da Universidade de Cornell e Califórnia em San Francisco e envolveu cerca de 689 mil usuários. 

Quais as conclusões do experimento? 
O artigo com o resultado do experimento foi publicado na última edição da PNAS, a revista da Academia Nacional de Ciências dos EUA. Os autores acharam evidência no experimento de que existem algum grau de contágio emocional entre as pessoas mesmo sem interação física, puramente via expressões verbais na rede. O gráfico abaixo mostra os resultados do experimento. Veja que os usuários que estavam no tratamento em que os posts com conteúdo emocional positivo no feed de notícias foram reduzidos (barras da direita), as atualizações de status dessas pessoas tiveram um percentual de palavras negativas relativamente maior. O contrário aconteceu com as atualizações de status do subgrupo que teve conteúdo negativo no seu feed de notícias reduzido.


Os próprios autores reconhecem, entretanto, que o efeito é mínimo, com as pessoas postando uma palavra com conteúdo emocional a menos, por blocos de mil palavras, ao longo da semana de observação. O artigo completo pode ser visto aqui.

Violações éticas?
A questão agora é: o Facebook violou as regras do "Termos de Uso" que seus usuários "assinam" ao aderir à plataforma? Economistas "experimentais" acharão a questão, suspeito, extremamente interessante. A resposta não é óbvia, penso. Antes de dizer o porquê, algumas breves digressões.

Pesquisa com serem humanos
Uma série de pesquisas  médicas desastrosas ao longo dos últimos cinquenta anos deram forma aos códigos de conduta que hoje regulam todo e qualquer tipo de pesquisa envolvendo seres humanos. 

A mais famosa delas é o "Estudo de Tuskegee", no qual cerca de 399 afro-americanos do Alabama com Sífilis, foram intencionalmente não diagnósticados com a doença (a Penicilina ficou disponível nos anos 50...) e até mesmo impedidos de buscar tratamento a fim de que a equipe do Serviço Público de Saúde dos EUA (responsáveis pelo experimento) investigassem as consequências de longo prazo da doença quando não-tratada. A maioria dos "subjects" no grupo de tratamento (i.e., infectados) morreram e várias filhos desses nasceram infectados com a doença. O experimento foi interrompido em 1974 por denúncia de um membro da equipe. O estudo serviu para "raise awareness" da necessidade de proteger seres humanos (anos depois, algumas dessas regras começaram a ser estendidas para pesquisas com animais) de experimentos médicos e de obter o consentimento informado deles e garantir a natureza voluntária da participação nessas pesquisas.

Em 1997, em nome do governo americano, Bill Clinton pediu perdão e indenizou os sobreviventes e familiares das vítimas do experimento de Tuskegee (ver vídeo aqui).

O Relatório Belmont e o início dos Institutional Review Boards (IRBs)
Como diz o provérbio, há males que vêm para bem. Como resposta ao horror do experimento de Tuskegee, o congresso americano aprovou um "National Research Act" e montou uma comissão de ética para pesquisa comportamental e biomédica com seres humanos. Essa comissão produziu o "Relatório Belmont". Esse relatório define uma série de princípios para pesquisa com seres humanos que foi a base de uma série de normas de conduta e criação de "Review Boards" para esse tipo de pesquisa que se tornaram práticas comuns nas universidades e instituições de pesquisa de todo o mundo. O Brasil começa a "catch up" com a prática (a resolução do Ministério da Saúde que trata do assunto é de 1996 e a resolução mais atualizada sobre o assunto é de 2012). Há aqui na FEA/USP, por exemplo, um comitê desse tipo sendo formado. Mas ainda é absolutamente incomum pedir que os pesquisadores brasileiros envolvidos nesse tipo de pesquisa obtenham algum tipo de certificação básica de que conhecem os "guidelines" éticos a serem adotados no desenho da pesquisa, na coleta e no tratamento dos dados resultantes. We'll get there.

Que protocolos éticos pesquisas com seres humanos, como a do Facebook, devem seguir?
Há obviamente pequenas variações nos códigos de conduta para pesquisa com seres humanos de instituição para instituição. Mas há alguns princípios fundamentais comum a todos esses códigos. São princípios que emanam do Relatório Belmont que estudos como esse do Facebook supostamente deveria seguir. Dois deles são importantes para entender se o estudo do Facebok representa uma violação ética:

Princípio do respeito: solicitação de consentimento, divulgação aos participantes da natureza da pesquisa; certificação de compreensão e respeito à natureza voluntária da decisão de participar.

Princípio da beneficência: minimizar riscos e tentar maximizar benefícios dos "subjects" participantes.

Não enrola: o Facebook tá certo ou errado? 
À primeira vista, parece que o Facebook errou feio mesmo: não pediu consentimento para essa pesquisa e fez uma espécie de manipulação sentimental do feed de notícias dos participantes do estudo, expondo-os, argumenta-se, a potenciais danos psicológicos. Mas uma olhada mais detalhada nos "Termos de Uso" da plataforma torna a questão um pouco cinzenta.

Na seção "Como usamos as informações que recebemos", o Facebook deixa claro que, ao aderir aos termos de uso da rede, o usuário está consentindo com o uso de dados para fins de pesquisa. Essa sessão deixa claro os vários usos que podem vir a ser feitos com seus dados.

Códigos éticos de conduta em pesquisas experimentais frequentemente estabelecem que o "consentimento informado" deve envolver a divulgação para os potenciais participantes (a) do procedimento de pesquisa, (b) do propósito e (c) dos riscos e benefícios potenciais envolvidos. É possível argumentar que o consentimento implícito na adesão aos "Termos e Uso"do Facebook não provê esse tipo de informação, que varia de experimento para experimento -- e o Facebook "roda" experimentos em sua plataforma todo o tempo. Mas aí entra uma complicação comum na questão da obtenção do consentimento: e se a divulgação dessas informações destruir a validade da pesquisa (por causa, por exemplo, do chamado "Hawthorne effect")?

Riscos mínimos
Quando a provisão de "consentimento informado" ameaça a validade do estudo, é comum que um consentimento mais fraco, que apenas indica aos participantes que eles podem estar participando de uma pesquisa -- como especificado nos Termos de Uso do Facebook --, seja aceitável desde que:

(1) a divulgação apenas parcial de detalhes da pesquisa seja realmente necessária para a consecução de seus objetivos científicos;

(2) não existem riscos aos participantes que sejam "mais do que mínimo" -- o que é geralmente interpretado como significando que a probabilidade de danos físicos e psicológicos ao participar do estudo não é maior do que aquela encontrada normalmente nas nossas atividades diárias.

(3) existem planos para divulgar os resultados aos participantes.

No harm, no foul
Minha avaliação é que o experimento em debate no Facebook não cometeu nenhuma violação das normas de conduta que geralmente são requeridas para esse tipo de pesquisa. Por três razões:

Primeiro que é aceitável que os "Termos de Uso" da rede já configurem como consentimento informado suficiente para experimentos desse tipo.

Segundo que a pesquisa claramente não envolve risco mais do que mínimo. É verdade que o experimento envolvia algo mais do que a simples coleta de dados; envolvia controlar o conteúdo emocional do feed de notícias de seus usuários a fim de testar se o "sinal emocional" desse conteúdo afetava na mesma direção o "sinal emocional" do que o usuário postava na sua atualização de status. O argumento dos pesquisadores e do Facebook era de que a pesquisa ajudaria a entender o impacto emocional do Facebook e como a exposição a conteúdo negativo afeta a permanência/uso dos usuários na/da rede.

É possível fazer o ponto que o Facebook não tem informações médicas sobre seus usuários e que no meio desses 700 mil participantes houvesse "indivíduos vulneráveis" (deprimidos, suicidas, psicóticos etc), para os os quais a exposição a notícias emocionalmente negativas poderia "disparar" ações de consequências nefastas para si mesmo e para outrem. Mas essa parece uma conjectura de improvável veracidade dado que os filtros aplicados sobre o feed de notícias das pessoas nessa pesquisa envolviam simplesmente a omissão de posts com mais ou menos positividade emocional que entrariam no feed de notícias delas de qualquer forma. Seria difícil comprar, portanto, a tese de que isso expôs os participantes do experimento a algum risco que já não estivesse presente no uso da plataforma mesmo na ausência da intervenção experimental.

Terceiro que os resultados foram divulgados e os usuários e o próprio Facebook podem agora se beneficiar desses resultados -- optando por "filtros emocionais" tanto de notícias quanto de conteúdo comercial que podem vir a serem criados. Não que potenciais benefícios da pesquisa justifique não obter o devido consentimento informado das pessoas que participam desse tipo de pesquisa, mas não me parece que os experimentos administrados pelo Facebook ofereçam risco que tornem anti-ético a não adoção de procedimentos mais detalhados de obtenção desse consentimento para além do que o usuário já é informado nos "Termos de uso" do serviço.

Auge e declínio do Facebook
Mesmo que não tenha cometido nenhuma violação ética e que "rode" experimentos todo o tempo em sua plataforma, o fato é que os usuários não ficarão felizes com a ideia -- agora mais pública do que nunca -- de que são "ratos de laboratório". Talvez a empresa deve-se adotar procedimentos para tornar mais explícito a participação em certos experimentos. Me parece que o risco de invalidar um ou outro estudo é mais aceitável e menos custoso do que se deparar com a crítica que agora recai sobre ela e os riscos de aumentar o que muitos dizem ser inevitável nesse ramo: o abandono dos usuários e eventual "morte" da plataforma.

4 comentários:

  1. Wrong!

    No paper eles falam de "informed consent" - nada pode estar mais longe da verdade (ou seja, seu 1o ponto é furadíssimo). Fazer com que todos os usuários aceitem uma lista "catch-all" não uma clara, específica descrição do estudo, nem f***, ou seja, desrespeitando o http://www.hhs.gov/ohrp/policy/belmont.html.

    Claramente não envolve riscos? Wrong again. Talvez não envolva, mas eu e vc não temos como julgar.

    O terceiro ponto? Wrong!! O resultado da pesquisa poderia ser um remédio pro p** do cara ter 25 cm, não importa. Ele tem que saber que faz parte do teste.

    Quando oo pessoal fala mal das ad firms que fazem testes, pelo menos eles contratam pessoas pra isso, e pagam.

    Fuck facebook

    ResponderExcluir
    Respostas
    1. Entendo sua ira. Mas o fato, independente do que eu disse, é que os IRBs de Cornell e U of California SF, assim como os editores da PNAS, julgaram que os protocolos do estudo não feriram os guidelines desse tipo de pesquisa. Mas o choro é livre.

      Excluir
  2. Dado que a maioria das pessoas acredita sim que não foi lá tão ética a "pesquisa", e que alertou para algo que possa estar sendo feito com as cobaias e que não é divulgado, fico contente em estar com eles no chororô...

    ResponderExcluir
  3. O FB, Google, etc, vendem dados sigilosos à NSA há muito tempo, mas as pessoas só se irritam de saber que o like que ela deu foi possivelmente manipulado por uma pesquisa inútil.

    Eu tenho pouca fé na humanidade.

    ResponderExcluir