segunda-feira, 30 de julho de 2018

Facebook não consegue responder o que deve ficar fora da rede



Antes, o Facebook era a companhia mais ágil da sua geração. A velocidade à qual se adaptava a qualquer desafio era lendária. A empresa precisou só uma década para sair de uma startup criada num dormitório e se tornar a maior e mais influente plataforma de comunicações do mundo.

Mas depois de dois anos, desde a campanha presidencial americana em que a companhia foi o principal vetor de desinformação e interferência política patrocinada por um Estado, e a rede social ainda parece paralisada sem saber o que responder sobre isso - enquanto tenta resolver o problema, se vê pressionada pelas surpresas do mercado.

Em conversas com jornalistas e legisladores nas últimas semanas, seus líderes, incluindo Mark Zuckerberg, presidente executivo do Facebook, comicamente tropeçaram com relação aos problemas mais básicos que o site enfrenta. Zuckerberg, em entrevista para a jornalista Kara Swisher, afirmou que o Facebook não iria banir quem nega o Holocausto no site porque "há coisas que diferentes pessoas entendem errado".

Posteriormente, Zuckerberg explicou que havia muitas outras maneiras de os que negam o Holocausto serem penalizados pelo Facebook - mas faltou clareza na sua afirmação.

Os comentários feitos por ele se encaixam num quadro mais amplo. Questionados diretamente sobre o prejuízo realmente causado pela desinformação no seu serviço, os executivos do Facebook manifestaram seu desconforto, pediram paciência, proclamaram seu compromisso firme com a neutralidade política e insistiram que estão tão surpresos quanto qualquer pessoa que, "acidentalmente", esteja na posição de ter de elaborar regras de discurso para bilhões de pessoas.

Ao depor perante o Congresso no começo do ano, Zuckerberg prometeu solucionar as preocupações dos legisladores sobre o site. Embora sua empresa continue a prosperar, por várias vezes alertou os investidores que vai adotar medidas para lidar com o impacto social do Facebook que poderão influenciar negativamente no resultado final.

Negligência? Mas as ponderações torturadas dos executivos da empresa nas últimas semanas sugerem que a tarefa à frente é difícil. A companhia que outrora foi criticada por sua negligência - seu lema era "mova-se rápido e quebre coisas", com cartazes pregados nos seus escritórios perguntando aos funcionários "O que você faria se não tivesse medo?" - hoje se move lentamente, resolve pouco e não assume nenhuma posição.

"Acho que o Facebook tenta afirmar que não tem responsabilidades no caso, quando na verdade tem", disse Sarah Szalavitiz, diretora executiva da agência Robot, que segue de perto os esforços das empresas de mídia social para solucionar suas deficiências. "Mas eles precisam ter uma perspectiva", acrescentou ela.

A presente contenda começou na semana passada quando Oliver Darcy, jornalista da CNN, fez uma pergunta óbvia numa coletiva de impressa convocada pelo Facebook para explicar seu novo plano de combate à desinformação. "Por que permitir que o Info Wars, site especialista em teorias de conspiração - incluindo a de que o tiroteio na escola em Sandy Hooks era falso - mantenha uma página no Facebook?", perguntou Darcy.

Segundo o repórter, o pessoal do Facebook pareceu ter sido pego de surpresa pela pergunta. John Hegeman, que chefia o News Feed da rede social, tropeçou na resposta dizendo que "apenas ser falso não viola os padrões da comunidade", e que o Info Wars era apenas alguém com "um ponto de vista diferente". Posteriormente, a rede social alegou que banir organizações que repetidamente disseminam desinformação é "contrário aos princípios básicos da liberdade de expressão".

A companhia insistiu que, mesmo se Infowars e outros websites que pregam a desinformação não forem banidos, ainda assim devem ser penalizados - depois de muita polêmica, a página do Info Wars acabou sendo suspensa na última sexta-feira, 27.

O Facebook tem contrato com dezenas de organizações especializadas na checagem dos fatos em todo o mundo; se elas determinarem que uma reportagem específica do Infowars é falsa, as pessoas podem compartilhá-la com seus amigos, mas o Facebook colocaria no ponto mais baixo possível nos feeds de notícias de todo mundo que muitas pessoas nem a veriam.

Parte da razão pela qual o Facebook defendeu o Infowars ficou evidente esta semana no Congresso. Foi quando Monika Bickert, vice-presidente da área de gestão de política global do Facebook , apareceu na audiência com outros executivos de mídia social para responder a perguntas se eles tinham algum preconceito contra os conservadores. Bicker pediu desculpas a Diamond & Silk, duas estrelas das redes sociais pró-Trump que afirmaram estar sendo tratadas injustamente pelo Facebook.

Depois vieram os comentários de Zuckerberg para Swisher ao abordar o negacionismo do Holocausto - e a questão quanto a se o Facebook permitiria ou não em seu site foi ainda mais confusa.

Mesmo deixando de lado a idéia bizarra de Zuckerberg de que aquele que negam o Holocausto são de boa fé, mas apenas desinformados sobre o passado, seu argumento levantou várias outras questões, incluindo o discurso de ódio. O código de conduta do Facebook proíbe discursos de ódio, que define como ataques a pessoas com base em "características protegidas" como raça, etnia ou religião. Negar o Holocausto não se insere nessa categoria?

Uma porta-voz do Facebook explicou que seria possível, teoricamente, negar o Holocausto sem desencadear a cláusula sobre discurso de ódio.

Desinformação. Mas não foi tudo. Na quarta-feira, o Facebook também divulgou uma nova política a respeito da desinformação que complicou um pouco mais o assunto. A companhia declarou ter decidido remover - e não apenas rebaixar - determinadas postagens falsas se ficasse determinado que podem levar a violência iminente.

A política é global, mas até agora é aplicada apenas em Mianmar e Sri Lanka, onde as postagens na rede estão ligadas a limpeza étnica e genocídio. E o que constitui exatamente a "violência iminente" é uma frase que pode mudar - a companhia ainda está "reafirmando" sua política, e as regras podem ser alteradas.

Assim, recapitulando: o Facebook está profundamente comprometido com a liberdade de expressão e permitirá que as pessoas postem qualquer coisa, inclusive negar o Holocausto, salvo se esta negação constituir um discurso de ódio, e neste caso a empresa vai removê-la. Mas se uma postagem contiver uma imprecisão factual, ela não será removida, mas poderá ser exibida para poucas pessoas, reduzindo seu impacto.

Por outro lado, se ficar determinado que a desinformação incita uma violência iminente, o Facebook a removerá, mesmo que não seja considerada discurso de ódio. E de outro outro lado, se um website mente repetidamente, jorra teorias de conspiração ou mesmo incita a violência, ele pode manter sua presença na rede social porque no final não existe nenhuma falácia que o leve a ser chutado do Facebook.

Tudo isto falha neste ponto: não é coerente. É um imbróglio de declarações e exceções e exceções das exceções. "Pessoalmente, acho que você tem de estabelecer limites claros no caso de conteúdo de ódio que não precisam ser assim tão complicados", disse Szalavitz. "Negar o Holocausto é discurso de ódio. Isto não é difícil". / TRADUÇÃO DE TEREZINHA MARTINO





Curta nossa Página

Nenhum comentário:

Postar um comentário