Enquanto no Brasil o Facebook está apagando páginas por motivos diversos, que vão de alegação de “discurso de ódio” a “propagação de Fake News”, o fundador e CEO da empresa deu uma entrevista ao site "Recode", dos Estados Unidos, explicando como vê essa questão.
Enquanto no Brasil o Facebook está apagando páginas por motivos diversos, que vão de alegação de “discurso de ódio” a “propagação de Fake News”, o fundador e CEO da empresa deu uma entrevista ao site "Recode", dos Estados Unidos, explicando como vê essa questão.
O caso mais emblemático por aqui foi da página Corrupção Brasileira Memes, que, como o nome indica, majoritariamente fazia memes sobre temas políticos. Com mais de um milhão de seguidores, foi eliminada da rede social sem uma explicação coerente do motivo. O mesmo aconteceu com a página do site de notícias Ceticismo Político em março.
Enquanto isso, nos EUA, Zuckerberg, afirmou que, apesar da pressão da CNN, ele não está disposto a simplesmente apagar a página do site InfoWars, que manteve nas eleições um duro discurso conta Hillarry Clinton e continua denunciando ações escusas do partido democrata.
Para exemplificar como vê a questão da censura aberta, o fundador do Facebook, usou um caso extremo. "Eu sou judeu e há um grupo de pessoas que negam que o Holocausto aconteceu. Eu acho isso profundamente ofensivo. Mas no final das contas, não acredito que nossa plataforma deva derrubar isso porque acho que há coisas que diferentes pessoas entendem errado. Eu não acho que elas estão errando intencionalmente", disse ele ao Recode.
Acrescentou ainda que "É difícil entender a intenção [das publicações]... eu não acho que seja a coisa certa a dizer: 'Vamos tirar alguém da plataforma se ele entendeu errado, mesmo que várias vezes'. O que faremos é dizer: 'Ok, você tem a sua página e, se não estiver causando danos ou atacando alguém, pode colocar esse conteúdo em sua página, mesmo que as pessoas discordem dele ou achem ofensivo'. Mas isso não significa que temos a responsabilidade de distribuí-lo amplamente no Feed de Notícias".
Ele faz assim, uma referência à alardeada diminuição de alcance que é bastante nítida desde a mudança do algoritmo, no início do ano.
A questão que se apresenta então é: por que o Facebook do Brasil não segue as diretrizes da empresa, segundo estabelecida pelo próprio Zuckerbrg?
Modelo europeu também diverge do brasileiro
O canal de TV britânico Channel 4 colocou um repórter disfarçado para trabalhar durante sete semanas na CPL Resources, uma das empresas terceirizadas que moderam conteúdo para o Facebook desde 2010.
A reportagem divulgada esta semana revela que o Facebook tem algumas “regras secretas” sobre como tratar conteúdo ofensivo, embora nem sempre sejam obedecidas à risca. A investigação do canal confirma que a rede social prefere não remover posts promovendo violência, abuso infantil e racismo.
O motivo para isso seria manter a audiência. Roger McNamee, um de seus primeiros investidores, acredita que se trata de uma decisão planejada.
“Esse conteúdo realmente extremo e perigoso atrai as pessoas mais engajadas na plataforma”, afirmou ele ao Channel 4. “O Facebook entendeu ser desejável que as pessoas passem mais tempo no site porque trata-se de um modelo de negócios baseado em publicidade.”
Além disso, avalia, McNamee que “o Facebook aprendeu que as pessoas nos extremos são realmente valiosas, porque elas podem frequentemente provocar 50 ou 100 outras pessoas”.
Corrobora para isso o que um membro da CPL Resources disse ao repórter disfarçado: “se você começa a censurar demais, as pessoas perdem o interesse na plataforma”.
Obviamente, a promoção da violência, do abuso infantil ou do racismo seja boa ou desejável. O que fica no ar é a percepção que a censura afastaria as pessoas pela rede social, mas o Facebook Brasil ignora isso e vem agindo como censor, tentando pautar a narrativa a todo custo, o que preocupante uma vez que estamos às vésperas da eleição.
Com informações de
https://www.recode.net/2018/7/18/17575156/mark-zuckerberg-interview-facebook-recode-kara-swisher
http://www.channel4.com/info/press/news/dispatches-investigation-reveals-how-facebook-moderates-content