As grandes plataformas: Pantagruel ou o novo Leviatã?



Refeição de Pantagruel, de "Pantagruel" por François Rabelais (1494-1553)

gravada por Paul Jonnard-Pacel (d.1902)




— Jesus! dis-je, il y a icy um nouveau monde?


— Certes, dist-il, il n'est mie nouveau, mais l'on dist bien que hors d'icy y a une terre neufve où ilz ont et soleil et lune et tout plein de belles besoignes; mais cestuy-cy est plus ancien.

(Livro II – Capítulo XXXII – Comment Pantagruel de sa langue couvrit toute une armée, et ce que l’auteur vit dans as bouche. Gargantua; Pantagruel (1532) / précédé de la préface de M. René Doumic – François Rabelais. Paris: Éditions du Monde moderne, 1930, p. 205-206.) (1)



As redes sociais são tidas frequentemente como tribunais. Nessa metáfora usual, se faz alusão aos julgamentos que os usuários realizam uns sobre os outros, desde a crítica moral do comportamento à atualização para a cultura do cancelamento. Entretanto, no desenvolvimento da Web 2.0, essa alegoria é uma cortina para o papel ativo que hoje as grandes plataformas exercem sobre armazenamento, organização, controle e moderação dos conteúdos que os usuários compartilham em seus serviços.


As plataformas são semelhantes ao personagem mítico Pantagruel de Rabelais, redes descomunais constantemente insaciáveis pela alimentação e o fornecimento de infindáveis dados.


Nesse sentido, o poder privado das grandes plataformas concentra no seu funcionamento funções em regra de natureza pública, sintetizadas na clássica e complexa tríade da separação moderna de poderes: legislar, executar e julgar. Sob a ótica da liberdade privada extremada, esta observação não faria qualquer sentido, pois empresas e corporações em regra seriam despidas de restrições e limites similares aos dos Estados na livre promoção dos seus empreendimentos.


Porém, seu crescimento e envolvimento na regulação e no direcionamento de conteúdos (discursos, obras intelectuais, informações etc.) que circulam na internet, demandam outra atenção e abordagem aos problemas e perigos que acarretam sobre os direitos fundamentais dos usuários, principalmente a liberdade de expressão, a proteção de dados pessoais e a privacidade, mas também sobre as democracias, na medida em que este papel ativo não é desinteressado, tampouco neutro.


Maior gravidade e desconfiança imperam sobre as práticas de moderação quando as decisões das plataformas se baseiam exclusivamente em sistemas automáticos de filtragem para identificação de infrações que, sem verificação humana, é praticamente impossível de se chegar a uma conclusão razoável e proporcional acerca do que bloquear ou remover.


Por essa razão, crescem as demandas regulatórias no mundo por exigências de transparência das grandes plataformas sobre seus termos e políticas de moderação de conteúdo e de garantias de direitos procedimentais mínimos dos usuários, como a possibilidade, dentro dos mecanismos internos dessas redes, de contestar bloqueios indevidos. Isso porque, apesar de não serem julgadores investidos nessa função, as plataformas realizam diariamente grandes julgamentos difíceis sobre as liberdades de expressão, culturais e artísticas e os direitos autorais, determinando o que lícito e ilícito.


Embora a abordagem relativa à censura seja em regra definida no plano vertical, na relação entre Estado e cidadão, o poder das plataformas no controle dos conteúdos, na intermediação das relações interpessoais e no tráfego de grande quantidade de informações sob seu domínio, sem os limites das salvaguardas necessárias aos usuários e sem regulação das autoridades estatais, gera não apenas censura colateral, mas engendra autocontenção indesejada dos usuários e legitima bloqueios excessivos em nome da preservação da imagem e da ausência de responsabilidade jurídica dessas empresas.


Enquanto isso, muitos comportamentos abusivos e inautênticos de grupos e perfis em seus serviços, com substrato em tecnologias invasivas e no propósito de fato de cometer ilicitudes, ao contrário, são mantidos e protegidos com apoio, paradoxalmente, nos direitos fundamentais, cujo respeito a outros usuários que se veem desprotegidos, sem saber a quem recorrer, é negado.


Recentemente, o Facebook anunciou a criação do Oversight Board (FOB) (2), um Comitê de Supervisão independente de garantia da liberdade de expressão em procedimentos de remoção ou bloqueio de conteúdo, tanto na rede social mencionada quanto no Instagram.


O organismo independente funciona como uma instância recursal acessível de apelação com poderes vinculantes de manter ou revogar as decisões da plataforma sobre processos de moderação de conteúdo, desde que não viole a lei. Assim também, emite recomendações para as políticas da plataforma a partir desses casos. Este órgão colegiado é composto por uma diversidade de membros oriundos de várias partes do mundo, com formações acadêmicas distintas.


Esse sistema proposto pelo Facebook somente fortalece um modelo de adjudicação privada de conteúdo (3), cujos impactos são sentidos na democracia e na garantia dos direitos dos usuários.


Afora isso, há um ruído de tradução no contexto do conteúdo publicado pelo usuário que vezes um Comitê mundial de revisão não conseguirá necessariamente alcançar.

Em certa medida, há uma delegação de funções públicas, como a jurisdicional das Cortes Constitucionais, a um organismo autorregulado sem controle das autoridades públicas e sem a participação dos cidadãos.


Além disso, a independência do FOB estaria comprometida visto que é remunerado por um fundo financiado pela plataforma, que exerce o papel de escolha dos casos apresentados ao Comitê, cuja competência também está limitada a remoções ou não de conteúdo. O que aparentemente se apresenta como independente para resolver os problemas de moderação de conteúdo, parece só reforçar os poderes privados globais dessa rede.


Em dezembro do ano passado, a União Europeia apresentou uma proposta de Regulamento de Serviços Digitais (RSD) (4) que reforça o vínculo direto com questões sobre direitos fundamentais afetas ao funcionamento das grandes plataformas. No discurso de anúncio do projeto, durante a Lisbon Web Summit, a Comissária Europeia destacou que:

“As Plataformas não podem ser o novo Leviatã”. (5)


Não há meias palavras no receio de que episódios como o da Cambridge Analytica e do Facebook se repitam mediante o uso de padrões algorítmicos discriminatórios e direcionais com o escopo de influenciar processos eleitorais, ou seja, que, do ponto de vista coletivo, continue a se sentir os efeitos da publicidade política enganosa e da desinformação, com impactos negativos que transcendem, a curto e a longo prazo, a esfera política. Afinal, a difusão desses conteúdos tem impactos significativos na sociedade, no campo cultural e também na economia.


Internamente, a União Europeia demarca um limite maior ao poder das Gigantes da Internet, não apenas sob o argumento concorrencial de proteção do mercado europeu, mas como prevenção a “consequências de longo alcance para a liberdade de expressão e informação e para a liberdade e o pluralismo dos meios de comunicação”. (6)


É inegável que o futuro Regulamento contém disposições que podem minimizar os efeitos deletérios dos usos das plataformas, com normas gerais sobre procedimentos de moderação de conteúdo, maior dever de transparência das plataformas, contenção de comportamentos abusivos e gestão de riscos sistêmicos (o uso abusivo mediante compartilhamento e difusão de conteúdos ilegais; o impacto sobre os direitos fundamentais protegidos pela Carta Europeia, principalmente em decorrência de padrões algorítmicos discriminatórios e falsas notificações; e a manipulação intencional com previsão de afetar o interesse e a ordem pública, em particular mediante comportamento inautêntico de perfis falsos e bots maliciosos).


Todavia, não obstante o mérito da proposta de RSD para os direitos dos usuários, uma das consequências previsíveis dos efeitos transfronteiriços da norma europeia para plataformas planetárias é estender reflexamente sua vinculabilidade e obrigatoriedade para fora do território da União Europeia alcançando outros países que sequer terão a oportunidade de participar das discussões do processo legislativo.


É certo que a proposta encontrará oposição das Gigantes de Internet, no entanto, espera-se que se instaure uma tendência desses negócios multinacionais a forçar a importação mimética do modelo europeu, eventualmente aprovado, para o mundo, nas matérias abordadas pelo Regulamento, substituindo a legislação internacional que resulta da contribuição e participação de fóruns e organismos competentes com representação de outros continentes do globo.


Para que isso não aconteça, nem para que fiquem à mercê das plataformas, tampouco da União Europeia, é aconselhável que os países se mexam e comecem a pensar a sério uma normatização internacional sobre direitos e garantias dos usuários no ambiente digital compatível com os marcos dos direitos humanos, ou no mínimo repensem se seus modelos são suficientemente seguros para seus cidadãos contra a tirania das grandes plataformas.

Rodrigo Vieira - Investigador Visitante em Estágio Pós-Doutoral no Centro de Estudos Sociais da Universidade de Coimbra/Docente do Mestrado em Direito da UFERSA. Articulista do Instituto Brasileiro de Direitos Culturais

(1) Disponível em: https://gallica.bnf.fr/ark:/12148/bpt6k96112224/f55.texteImage.


(2) Facebook Oversight Board. Appeal of decisions on Facebook or Instagram content. Maio 2020. Disponível em: https://oversightboard.com/appeals-process/. Acesso: fev. 2021.

(3) Pollicino, Oreste; De Gregorio, Giovanni. Shedding Light on the Darkness of Content Moderation: The First Decisions of the Facebook Oversight Board. VerfBlog. 02 fev. 2021. Disponível em: https://verfassungsblog.de/fob-constitutionalism/. Acesso em: fev. 2021.

(4) Comissão Europeia. Proposta do Parlamento Europeu e do Conselho de Regulamento relativo a um mercado único de serviços digitais (Regulamento Serviços Digitais) e que altera a Diretiva 2000/31/CE. 15 dez. 2020. COM (2020) 825 final. Disponível em: https://eur-lex.europa.eu/legal-content/PT/TXT/HTML/?uri=CELEX:52020PC0825&from=pt. Acesso em: dez. 2020.

(5) Comissão Europeia. Speech by President von der Leyen at the Lisbon Web Summit. 2 dez. 2020. Disponível em: https://ec.europa.eu/commission/presscorner/detail/en/SPEECH_20_2266. Acesso em: dez. 2020.

(6) Parlamento Europeu. Resolução do Parlamento Europeu, de 20 de outubro de 2020, sobre a Lei dos Serviços Digitais e questões de direitos fundamentais colocadas ( 2020/2022 (INI) ). 20 out. 2020. Disponível em: https://www.europarl.europa.eu/doceo/document/TA-9-2020-0274_EN.html. Acesso em: jan. 2021.

103 visualizações0 comentário