DIREITO DIGITAL

Por  e 

O Legal Grounds Institute e a Faculdade de Direito da USP (FDUSP) organizaram o seminário "Democracia e Plataformas Digitais", que teve um painel dedicado a tratar sobre "fake news, news e contra-fake" com a participação da jornalista Patrícia Campos Mello, da assessora especial do Ministério da Justiça, Estela Aranha, do jornalista e escritor Pedro Doria e do diretor do Legal Grounds e professor da FDUSP, Juliano Maranhão [1].

O citado painel tratou sobre o atual estado da regulação da internet no Brasil, tema que de forma direta impacta o combate à desinformação, assim como apresentou o status recente (jurídico e filosófico) das plataformas de redes sociais, especialmente no tocante à disseminação de fake news. No contexto em que este é o tema do momento no Congresso Nacional brasileiro, este artigo propõe tecer comentários sobre as principais perspectivas do estado da regulação no Brasil em debate e os contornos da proposta de regulação brasileira.

Uma das maiores dificuldades diante do cenário mundial atual de bombardeamento constante de informações no mundo digital é fazer com que os usuários da internet tenham acesso à informações adequadas e que sejam capazes de identificar e diferenciar notícias verdadeiras de notícias falsas. Recentemente, os efeitos das fake news ganharam maiores proporções no contexto das eleições, em que o Tribunal Superior Eleitoral (TSE) adotou uma série de medidas específicas para mitigar riscos da desinformação contra o sistema eleitoral, candidatos e partidos, inclusive, com participação e auxílio das plataformas digitais [2].

A regulação pode auxiliar por meio da criação de obrigações que permitam a adoção de diretrizes legais a serem observadas e a verificar a transparência dos meios utilizados pelas plataformas na moderação de conteúdo com caráter desinformativo. Assim, o começo do painel foi dedicado a resumir os debates sobre a regulação, com especial foco na União Europeia, no Brasil e nos Estados Unidos.

Quanto à União Europeia, foi tratado do Digital Services Act (DSA), recente legislação do bloco que trata sobre a regulação das plataformas, um dos atores centrais na disseminação de conteúdo online [3]. O DSA busca apresentar regras e diretrizes para que os direitos fundamentais dos usuários sejam garantidos, assim como que a competitividade e a inovação dessa nova economia digital sejam protegidos diante dos grandes players do mercado [4]. O DSA é o documento normativo que tem inspirado as últimas versões da regulação brasileira.

Nos Estados Unidos, existem propostas de lei que tramitam no Congresso e há legislações com foco em transparência algorítmica, proteção de crianças na internet, desinformação no âmbito da saúde e financiamento do jornalismo, mas com poucas perspectivas de avanço, como acredita Patrícia Campos Mello. No contexto americano, a discussão está centrada no tema de responsabilidade dos intermediários pela remoção de conteúdo por meio do julgamento dos casos Gonzalez vs. Google e Twitter vs. Taamneh, nos quais a Suprema Corte avaliará se os provedores têm responsabilidade por permitirem a publicação e/ou recomendarem conteúdos violentos [5]. Essa discussão perpassa pela análise da seção 230 do Communications Decency Act (CDA), que elenca que as plataformas não são editores de conteúdo e que permitem que elas façam a moderação de conteúdo quando cabível [6].

Por sua vez, o Brasil está agregando as duas discussões. No aspecto regulatório, o país reflete sobre a adoção de uma lei geral para as plataformas por meio do PL 2.630/2020, que, na nova versão encaminhada pelo governo, ainda pendente de divulgação oficial, se assemelha ao DSA, o que enseja debates sobre alguns temas presentes nessa lei europeia, como o dever de cuidado e os riscos sistêmicos. No aspecto judicial, o Brasil também discute a constitucionalidade do artigo 19 do Marco Civil da Internet no Supremo Tribunal Federal, o qual aponta que a responsabilidade do provedor de aplicação por conteúdo gerado por terceiro é iniciada após descumprimento de ordem judicial [7].

Assim, não se questiona mais se deve ou não haver regulação para tratar desses temas, mas sim qual tipo de regulação será adotada pelos países. Isso porque as plataformas têm papel de permitir o debate público, a discussão ampla da sociedade pela via digital, e, por isso, se transforma em uma praça pública. Mas com o viés privado, já que é gerida por empresas de tecnologias que estão acumulando mais capital e poder por conta do uso das suas aplicações.

Em sua fala, Patrícia Campos Mello levantou questões que circundam o debate no contexto regulatório, o que ela chamou de "nós da regulação brasileira". Entre os pontos, destacam-se a responsabilização por conteúdo monetizado e impulsionado; a dificuldade de consenso sobre a remoção de conteúdo publicado por parlamentares, o que poderia violar a imunidade parlamentar online; a remuneração de conteúdo jornalístico, com financiamento ao jornalismo profissional e cobrança de direitos autorais para jornalistas, nos moldes do News Media Bargaining Code, adotado na Austrália em 2021; e a existência de espaços de interpretação em aberto sobre os tipos de conteúdo que devem ser removidos pelas plataformas.

Sobre esse último ponto, Campos Mello mencionou que já há certo consenso sobre tipos de remoção de conteúdo para violações nos casos de pedofilia, direitos autorais (copyright) e pornografia, detectadas automaticamente por mecanismo de inteligência artificial das plataformas, antes mesmo de notificação judicial. Com referência à fala do ministro Alexandre de Moraes no painel anterior do evento, a jornalista contou que essa moderação ainda não ocorre, nos mesmos moldes, nos casos que envolvem estímulo ao terrorismo e violação ao Estado Democrático de Direito, o que para Moraes, seria uma medida necessária, contra a "liberdade de agressão [tipicamente associada às] milícias digitais" [8].

Quanto à proposta legislativa brasileira, foi destacada a imunidade parlamentar presente tanto no substitutivo da Comissão Especial da Câmara sobre o PL 2.630/2020, que busca instituir a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet, quanto na proposta do governo. Apesar de nuances diferentes sobre o tema entre os dois textos, ambos concedem certas prerrogativas para a moderação de conteúdos e de contas de parlamentares.

Também foi destacada a discussão a ser realizada pelo Supremo Tribunal Federal sobre a constitucionalidade do artigo 19, que tem o condão de mudar a responsabilização das plataformas, inclusive com a definição de temas sensíveis que devem estar sujeitos a remoção a partir da ciência do conteúdo (e não da ordem judicial como é hoje), como o terrorismo e violações ao Estado Democrático de Direito.

Ademais, foi defendido que essa "praça pública privatizada nas redes sociais" não pode estar condicionada a um monopólio privado, isto é, apesar de as empresas serem as proprietárias das plataformas, o seu papel deve ser regulado pelo poder público para zelar pela integridade do debate público, como destaca Pedro Doria ao comentar qual o papel da liberdade de expressão e de imprensa no ambiente digital. Neste sentido, o painel expôs que as empresas de tecnologia não podem ter o monopólio para dizer o que pode ou não ser dito pela sociedade, o que fundamenta a necessidade de regulação.

Além disso, foi exposta a necessidade de refletir sobre critérios filosóficos próprios para esse momento de imersão na vida online, em diversos aspectos. Existem muitas reflexões sobre os impactos da tecnologia na sociedade, mas, talvez, fosse interessante também pensar em um "pacote filosófico" amplo sobre o tema para estabelecer premissas éticas e centrais sobre o assunto como um todo, para que sejam replicadas nas discussões setoriais.

Para Doria, o grande problema está no que ele chama de mecanismo das redes sociais: a distribuição de conteúdo por algoritmos, movida pelo engajamento e pela publicidade, com produção de conteúdo baseada em raiva e fanatismo promovido pelas plataformas, o que finda por "quebrar a democracia" e reduzir a promoção do debate público na internet. Ele acredita que a regulação nos moldes propostos, tanto a europeia e americana quanto a que se discute no Brasil, não será forte o suficiente para solucionar o problema dos algoritmos.

O painel ainda fez a distinção entre regime de responsabilidade e gestão de transparência e de riscos das plataformas, que, apesar de serem temas correlatos, são diferentes e devem ser tratados de forma a atender às suas peculiaridades, para que possa existir um cenário regulatório efetivamente capaz de enfrentar essas demandas, como destacou Juliano Maranhão.

Estela Aranha considera que, atualmente, "as plataformas não são intermediadoras de conteúdos de terceiros; elas são mediadoras de discursos". A mudança no fluxo de informações, a questão da transparência, as interfaces que influenciam o comportamento do usuário (dark patterns) [9] e os algoritmos de recomendação não devem ser vistos como ferramentas neutras, na medida em que são programados para buscar o lucro e o incentivo econômico para as big techs. Esses padrões criam riscos sistêmicos, principalmente para grupos vulneráveis, como as mulheres e pessoas negras, e nas palavras dela, há a necessidade de uma responsabilização na medida desses riscos sistêmicos, com cumprimento do dever de cuidado pelas plataformas digitais.

No contexto do PL 2.630/2020, chamado de PL das fake news, previsto para ser votado nesta última semana de abril na Câmara dos Deputados, o debate tem gerado críticas das big techs, que criticam a urgência do projeto, alegam pouca discussão e pedem adiamento na votação. O texto foi apresentado pelo senador Alessandro Vieira (Cidadania), aprovado pelo Senado em 2020, e tem como relator o deputado federal Orlando Silva (PCdoB), na Câmara dos Deputados, que já tem um relatório da Comissão Especial constituída para tratar do tema emitido em 2021.

Em carta aberta, o Google pede que haja mais tempo para debater o PL. Para a gigante de tecnologia, a possibilidade de o texto ser votado em caráter de urgência, como tem sido proposto na Câmara, é precipitada porque houve pouca discussão com a sociedade sobre o assunto. A empresa argumenta que é preciso "um processo coordenado e mais tempo para construir uma legislação que seja eficiente e equilibrada e a criação de uma comissão especial", como tem sido defendido por parlamentares da oposição [10]. Além disso, de acordo com o Estadão, um bloco com mais de cem deputados pressiona o presidente da Câmara, Arthur Lira (PP-AL), a retardar a votação sob o equivalente argumento da necessidade de debate público, mesmo a proposta estando em discussão no Congresso Nacional há três anos [11].

É certo que a digitalização cada vez mais intensa da sociedade tem como consequência uma série de transformações profundas e aceleradas na estrutura política, democrática e social, que impacta de forma significativa na visão acerca de valores básicos intrínsecos do conceito de democracia.

É inegável o papel que as redes sociais têm desempenhado como facilitadores, simplificando a forma de se comunicar e expressar socialmente. Com o avanço tecnológico e popularização do uso da internet, tivemos que nos habituar com novas formas de comunicação e expressão impensáveis às gerações anteriores. Com a rotina cada vez mais dinamizada e frente aos novos desafios, hoje, nos deparamos com a comunicação repleta de discursos simbólicos, como por exemplo, a massificação de transmissão de mensagens via uso de "memes" que se disseminam em velocidade relâmpago, "viralizando" informações, as quais ganham alcances de dimensões amplificadas em poucos segundos, o que pode gerar fatores complicadores, que podem devastar o contexto político e social em diferentes países. Torna-se, assim, primordial o debate sobre o uso e a regulação das redes sociais.


[1] Disponível em: https://www.youtube.com/watch?v=ANfK8RIY1ho&t=12602s. Acesso em: 16/4/2023.

[2] Exemplo medidas adotadas é o Sistema de Alerta de Desinformação contra as Eleições, canal do TSE que possibilita o envio de denúncias de violações de termos de uso de plataformas digitais, especificamente relacionadas com a desinformação (fake news) sobre urnas e o trabalho realizado pela Justiça Eleitoral. Entre os temas relacionados à desinformação contra as eleições passíveis de denúncias, estiveram: fraude eleitoral; adulteração de votos; contagem fraudulenta de votos; violação das urnas; urnas inauditáveis; resultado equivocado da eleição; ataque hacker às urnas/ao TSE; informações falsas sobre horários, locais, ordem de votação e documentos exigidos; contas falsas da Justiça Eleitoral; e ameaças aos locais de votação. Disponível em: https://www.tse.jus.br/eleicoes/eleicoes-2022/sistema-de-alerta-desinformacao. Acesso em: 23/4/2023.

[3] A Coluna Direito Digital, do Legal Grounds Institute, na Conjur, possui vasto material sobre o DSA na perspectiva do Direito Comparado. Disponível em: https://www.conjur.com.br/secoes/colunas/direito-digital

[7] O diretor do Legal Grounds Institute, Ricardo Campos, participou da audiência pública promovida pelo Supremo Tribunal Federal para tratar do tema. A síntese da participação pode ser conferida em: https://institutolgpd.com/blog/legal-grounds-participa-de-audiencia-publica-no-stf-sobre-o-marco-civil-da-internet/.

[8] Para saber mais a perspectiva de Moraes, recomenda-se a leitura do seguinte artigo: https://www.conjur.com.br/2023-abr-18/direito-digital-liberdade-expressao-limites-tempos-pos-verdade. Acesso em: 22/4/2023.

[9] Para saber mais a respeito da discussão sobre dark patterns, recomenda-se a leitura do artigo de Amália Batocchio nesta coluna, em: https://www.conjur.com.br/2022-jul-05/direito-digital-guia-32022-edpb-discussao-dark-patterns. Acesso em: 22/4/2023.



Ani Karini Muniz Schiebert é pesquisadora no Legal Grounds Institute, doutoranda em Direito pela Humboldt-Universität zu Berlin (Alemanha) e pela Universidade do Estado do Rio de Janeiro (Uerj) com ênfase em Direito Civil, Direito Digital e IA, mestre em Direito Alemão e Europeu e Prática Jurídica pela Humboldt-Universität zu Berlin com enfoque em Direito Digital, Direito das Mídias, Proteção de Dados e IA, pós-graduada em Direito Público pela Universidade Cândido Mendes (UCAM-Centro), graduada em Direito pela Ucam-Centro, graduada em Letras (Língua e Literatura Alemã) pela Universidade Federal Fluminense (UFF), docente convidada da Escola Superior do Ministério Público da União, advogada, membro associada da Robotics & AI Law Society (RAILS) e.V. (Alemanha) e membro associada da International Association for Artificial Intelligence (I2AI).

Francisco Cavalcante é gestor executivo no Legal Grounds Institute, graduando em Direito na Universidade do Estado do Rio Grande do Norte (Uern), pesquisador do Observatório do Direito à Educação na Universidade de São Paulo (USP), membro-pesquisador do Grupo de Estudos e Pesquisa em Direitos Humanos, Desenvolvimento e Cotidiano, discente colaborador do Núcleo de Pesquisa em Memória Institucional e Direito à Informação e autor de livros e artigos nacionais e internacionais.

Jéssica Guedes é pesquisadora no Legal Grounds Institute, estranda em Direito pela Universidade de Brasília (UnB), especialista em Direito Constitucional e graduada pelo Instituto Brasiliense de Direito Público (IDP), pesquisadora do Observatório de Raça e IA do Lawgorithm e advogada.

Revista Consultor Jurídico

https://www.conjur.com.br/2023-abr-25/direito-digital-fake-news-news-fake-perspectivas-estado-regulacao