Artigo

Artigos Recentes

Análise sobre a regulação de moderação de conteúdo no Estado Brasileiro

Roberta Battisti e Ernara Adélia de Jesus Vasconcelos

Roberta Battisti é mestranda em Direito Político Econômico na Universidade Presbiteriana Mackenzie. Pesquisadora no Instituto Liberdade Digital. E-mail para contato: rbattistip@gmail.com. Ernara Vasconcelos é graduanda em Direito na Universidade Estadual Vale do Acaraú. Fellow do Instituto Liberdade Digital. E-mail: ernara16@gmail.com.

Compartilhe este texto

RESUMO: As tentativas de moderação de discurso se avolumam a cada dia e, mesmo que a manutenção do ambiente online reclame ações regulatórias, é necessário que a governança pelos Estados e canais de comunicação conserve também direitos, no entanto sem tornar a internet meio para a livre disseminação de matérias danosas ou inverídicas. Este trabalho tem vistas a examinar o quadro de modulação de conteúdo no governo brasileiro que, por intermédio de recentes proposições legislativas, busca modificar a atual política de intervenção sobre o que circula nas redes. Assim, o presente estudo valeu-se de revisões bibliográficas para traçar um diálogo entre a filtragem de mídias, os direitos dos usuários e os projetos de leis que versam sobre a responsabilização das plataformas digitais nessa matéria. Conclui-se que, à luz da importância desses espaços interativos para a construção de saberes e conexão entre pessoas, a crescente preocupação com o tratamento de conteúdo, seja pelo ente estatal ou pelos próprios intermediários, é fundamental para preservar a harmonia na internet.

 

1 NOÇÕES INTRODUTÓRIAS ACERCA DA MODERAÇÃO DE CONTEÚDO

 

Frente ao avanço da tecnologia, houve a inserção massiva dos indivíduos na rede, culminando na modernização das relações humanas. Hoje, o ambiente digital é sinônimo de livre acesso, publicação e fluxo de conteúdos, à luz de sua natureza transfronteiriça, que permite a interconexão entre pessoas e ideias ao redor do globo. Este cenário só é possível graças às empresas de comunicação online, em especial, as conhecidas como plataformas de conteúdo gerado pelo usuário, que funcionam como meio para que os internautas divulguem e encontrem aquilo que é de seu interesse. São exemplos destas redes sociais o Instagram, o Twitter e o Facebook.

No entanto, a democratização dessas ferramentas resultou também no compartilhamento e maior alcance de matérias danosas, a exemplo do assédio, das ameaças físicas e da incitação de violência, além da própria desinformação, consoante ao estudo divulgado pelo Berkman Klein Center for Internet & Society. Assim, as plataformas digitais passaram a elaborar respostas a essa classe de condutas, instituindo certas limitações ao que circula na internet. As gigantes da tecnologia passaram, por conseguinte, a impor regras e a filtrar as mídias veiculadas. Daí surge a moderação de conteúdo, com vistas a mitigar os efeitos da divulgação de publicações nocivas, mesmo que potencialmente, aos internautas e à coletividade.

Conforme teorizado em “Transparência na moderação de conteúdo: tendências regulatórias nacionais”, pesquisa do Instituto Referência em Internet e Sociedade, o tratamento da informação pode ocorrer de modos distintos. As práticas que mais se destacam são a de (i) remoção, que elimina por completo a publicação considerada ilícita ou inapropriada; de (ii) indisponibilização, na qual o conteúdo torna-se inacessível por determinado período de tempo ou em certa localidade; de (iii) restrição, que limita o acesso daquele material na plataforma, a exemplo da restrição por idade; de (iv) sinalização, que alerta sobre o tipo de conteúdo, se ele é patrocinado ou carece de fontes confiáveis, por exemplo; e de (v) ranqueamento, que faz uso de algoritmos para classificar alguns conteúdos como mais “relevantes” naquela rede.

Nos moldes atuais, a intervenção sobre conteúdo não ocorre de forma prévia, guardando proximidade com o ideal da livre manifestação de pensamento e, em razão disso, a análise da publicação ocorre somente depois desta já ser de domínio público. Invocando os dizeres de Do Carmo, Kurtz e Vieira (2021, p. 9):

Isso pode se dar de maneira proativa (pelos moderadores da plataforma ou automaticamente pelos próprios algoritmos) ou motivada, seja por denúncias de participantes da comunidade, seja por ordens de autoridades locais, seja por pressão midiática.

De acordo com Barrie Sander (2019), o tratamento da informação sofre influência de alguns fatores, quais sejam, (i) a filosofia da empresa, partindo do princípio que cada plataforma visa oferecer uma experiência diferente da dos seus pares; (ii) a conformidade regulatória, isso porque embora sediada em um país, a empresa atua em jurisdições distintas; (iii) a maximização dos lucros, haja vista o caráter marcadamente econômico das big techs; e  (iv) a opinião pública, tomando por base o impacto das ações promovidas pelo corpo societário ou pelos participantes da comunidade online nas políticas desses espaços interativos.

Nesse contexto, a análise dos termos de uso e das políticas de comunidade sobreleva-se, a julgar pela incidência de seus enunciados na comunicação mediada. O primeiro grupo versa sobre os parâmetros instituídos para a utilização dos serviços da plataforma, sua tônica é contratual e, por isso, em caso de conflito de ordem jurídica, os termos de uso permitem a empresa “[…] exigir determinado comportamento do usuário” (RODRIGUES e KURTZ, 2021, p.26). Já o segundo tem feição regulatória, ao dispor de regras e diretrizes que identificam certos conteúdos como violadores na perspectiva daquela empresa. Merece realce o fato de que o material não precisa revestir-se, necessariamente, de ilicitude para que possa ser limitado. Em síntese, “as políticas de comunidade são, antes de tudo, declarações públicas de intenções e valores” (RODRIGUES e KURTZ, 2021, p.31).

Ademais, à luz da influência das big techs e do montante de dados por elas controlados, os Estados não ficaram silentes e passaram a estabelecer ações regulatórias em matéria de governança de conteúdo. O fato da maioria dos canais de comunicação terem sede norte-americana, de certo, contribuiu para que o ideal do livre discurso e a isenção de responsabilidade das plataformas prosperasse.

Registre-se que a Section 230 (artigo 230) do Communications Decency Act, ou Lei de Decência das Comunicações, de 1996, dos Estados Unidos, fundamenta esse entendimento e disciplina que “provedores de aplicações de Internet não são responsáveis por eventuais danos a terceiros decorrentes do que é publicado por seus usuários” (DURIGAN e MACHADO, p.6). Significa dizer, em simples palavras, que os complexos digitais se encarregam apenas de hospedar os conteúdos e não de criá-los, não sendo atribuição deles editar ou restringir as informações, salvo disposição legal em contrário. Já a segunda parte da seção traz a cláusula do “Bom Samaritano”, que “incentiva a remoção espontânea de conteúdo considerado lesivo pelo provedor” (DURIGAN e MACHADO, p. 7). É facultado, portanto, às plataformas a elaboração de medidas para a fim de preservar seu funcionamento, bem como suas atividades comerciais, em sintonia com termos de uso e as políticas daquele sistema.

No ordenamento brasileiro, a Lei 12.965/2014, apelidada de Marco Civil da Internet, é o dispositivo que trata sobre a modulação de conteúdo online. Segundo a dicção de seu artigo 19, os intermediários também são isentos de responsabilidade, sendo passíveis de reprimenda somente em caso de descumprimento de ordem judicial. Todavia, a legislação sob comento difere-se da americana ao não prevê o mesmo tratamento quando o material é removido em face das políticas de comunidade, contrastando com o “bloqueio do bom samaritano”.

 

2 DIREITOS DOS INDIVÍDUOS E MEDIDAS REGULATÓRIAS 

 

De início, reitera-se a importância da internet na promoção de discursos e conexão entre pessoas, além de, no caso das plataformas midiáticas, servir de atrativo para atividades comerciais, haja vista a presença de anunciantes. Todavia, as práticas de modulação de conteúdo são alvo de críticas, tendo como justificativa o direito à liberdade de expressão que estaria sendo lesado. A liberdade de expressão figura o rol de garantias fundamentais, segundo os termos do artigo 5º, inciso IV, da Lei Maior de 1988.

Nessa esteira, é digno de nota que nenhum direito detém o status de absoluto e, por consequência, em caso de conflito com outro, mesmo que este também seja fundamental, surge a necessidade de ponderá-los. Assim, no que tange à exposição de ideias e de conteúdos e o papel dos canais de comunicação na filtragem deles, o direito à livre manifestação de pensamento não pode servir de justificativa para o compartilhamento de matérias danosas, a exemplo das fake news, em ataque direto a outra garantia: o acesso à informação. Destarte, “a preocupação em manter a internet como ambiente democrático e em garantir direitos dos usuários leva os critérios e abordagens para moderação de conteúdo a escrutínio internacional” (RODRIGUES e KURTZ, 2021, p. 22)”.

Os Princípios de Manilla e os Princípios de Santa Clara descrevem boas práticas às redes de interação, com o intuito de norteá-las.  O primeiro documento, em seu sexto princípio, versa sobre a transparência no tratamento das informações, recomendando a publicação pelas plataformas da política adotada, bem como tornar de conhecimento do usuário os motivos para que ela intervenha, além de sinalizar publicamente o porquê e qual conteúdo foi removido. Já as recomendações dos Princípios de Santa Clara se subdividem em três, abordando sobre a publicização do total de remoções, a notificação do usuário sobre os pretextos para a retirada do conteúdo e os meios de reaver as decisões já proferidas nessa matéria, respectivamente.

Em arremate, consoante a Rodrigues e Kurtz (2021, p.25), os pareceres do Relator Especial para a Liberdade de Expressão e de Opinião, da Organização das Nações Unidas (ONU), divulgados anualmente, já discorrem sobre a importância de estabelecer diretrizes a nível internacional de direitos humanos e seletividade de conteúdo. Similarmente, ainda em paralelo aos autores, o Guia dos Direitos Humanos para os Utilizadores de Internet, do Conselho da Europa disserta que o direito à liberdade de expressão e o direito à informação também se fazem presentes na seara virtual, devendo toda e qualquer tentativa de cerceamento destes fundamentar-se em fins legítimos à luz das garantias inerentes ao homem. No mais, os mecanismos, tal qual as políticas utilizadas para a governança de conteúdo devem ser transparentes, tencionando resguardar um ambiente digital harmônico, propício à livre manifestação de pensamento, sem prejuízo à viabilidade comercial das empresas e de seus contratantes.

Jhon Bowers e Jonathan Zittrain (2020) pontuam que a evolução da governança do conteúdo online ocorreu em três grandes eras, sendo a era dos direitos, a era da saúde pública e a era do processo. A era dos direitos se estendeu do início de 1990 até 2020 momento em que o conteúdo que circulava na internet era dividido entre duas categorias e em canais distintos de fornecimento de conteúdo, de um lado havia o conteúdo difundido e elaborado por editoras tradicionais que passaram a ocupar o espaço online e por outro havia o conteúdo gerado pelo usuário (UGC) em plataformas de mensagens, blogs, seções de comentários e sites pessoais.

Nas décadas seguintes à aprovação da Section 230 Zittrain (2020, s/p) observou uma mudança na forma como o discurso online ocorria, segundo ele “ao abrir a porta para a desinformação viral e outros males relacionados à fala, essa mudança lançou as bases para o alvorecer da era da saúde pública de governança da internet”. Assim a segunda era da governança do discurso online, nomeada como “saúde pública” iniciou-se em 2010 e permanece até o presente, abordando as consequências negativas das novas tecnologias para as relações humanas, principalmente na esfera política e democrática. Nesse momento as plataformas introduziram um novo modelo para o consumo de conteúdo construído em torno de feeds de notícias, resultados de pesquisa classificados por algoritmos que otimizavam o engajamento dos usuários.

Nesse sentido, Tim Wu (2019) descreveu o discurso que antes era “aberto e livre” nos primeiros vinte anos da internet mudando para uma “ênfase generalizada, senão universal, entre as principais plataformas sobre a criação de ambientes de fala “saudáveis e seguros”. A partir disso, as plataformas passaram a ser pressionadas por diversos atores para adotarem medidas a mitigar os efeitos de condutas como desinformação, censura, ataques cibernéticos entre outros.

Diante disso, as plataformas passaram a ser impelidas a mitigar danos específicos e contextuais às normas e instituições decorrentes das interações entre os usuários em grande escala. Belli et al. (2017) afirmam que se trata de um movimento contrário, no qual as plataformas vêm assumindo cada vez mais funções de regulação, seja por auto atribuição a partir de seus Termos de Serviço ou por delegação do Estado. Um exemplo é a legislação Alemã de monitoramento e derrubada de conteúdo ilegal (NetzDG). A legislação aprovada em junho de 2017 obriga redes sociais e outros provedores, com mais de dois milhões de usuários, a remover conteúdos que sejam “manifestamente ou obviamente ilegais” dentro de um prazo de 24 horas a 7 dias após a notificação da plataforma, sob pena de multa de até cinquenta milhões de euros. (FILHO, 2021, p. 114). Percebe-se que a legislação Alemã assume uma posição mais conservadora em relação a section 230 e terceiriza para as plataformas a tarefa de interpretar conteúdos que se caracterizariam ilícitos ou não, o que poderia resultar em um incentivo para que as empresas pequem pelo excesso a fim de evitar sanções.

Jhon Bowers e Jonathan Zittrain (2020) afirmam que paralelamente a era da saúde estamos vivenciando a era do processo em que é preciso superar a discussão de quais conteúdos podem ou não ser limitados na internet, sendo necessário, portanto, focar na promoção da transparência e prestação de contas para a promoção de valores mínimos por parte das plataformas. Ou seja, o objetivo desse modelo é desenvolver e construir legitimidade em torno de novas maneiras de trabalhar com as questões ambíguas e controversas do discurso online, não se tratando de achar uma resposta “certa” sobre um tema que não possui consenso público a respeito da resposta.

Portanto, para os autores o caminho para uma governança de conteúdo responsável seria as plataformas adotarem uma estrutura de accountability, seja de forma voluntária ou imposta por meio de ação regulatória do Estado.  Além disso, nessa era é necessário vislumbrar novas entidades que possam ser capazes de responder tais questões como é o caso do Oversight Board do Facebook, uma espécie de “Suprema Corte” independente da empresa e responsável por revisar decisões de moderação de conteúdo encaminhadas por usuários ou pelo próprio Facebook

Nesse sentido o relatório “Contribuições para uma regulação democrática das grandes plataformas que garanta a liberdade de expressão na internet” (INTERVOZES et. Al, 2019, p.4) refere que é crescente o interesse de governos e parlamentos em regular atividades e distribuição de conteúdo de plataformas, particularmente ao que se refere ao conteúdo, entretanto a maioria dessas iniciativas legais trazem soluções ilegítimas ou desproporcionais, tornando as plataformas juízes ou policias privadas sobre conteúdos de terceiro que podem circular na internet.

David Kaye (2018), relator para a liberdade de expressão da Organização das Nações Unidas publicou relatório sobre a regulação de conteúdos de terceiros em plataformas na Internet. Kaye reconhece a preocupação dos Estados quanto ao conteúdo online, entretanto, pontua que diversas normas representam riscos à liberdade de expressão, colocando pressão sobre as plataformas para remover conteúdo sob critérios legais que são vagos ou complexos. Segundo o autor “Leis restritivas amplamente redigidas sobre “extremismo”, blasfêmia, difamação, Discurso “ofensivo”, “notícias falsas” e “propaganda” muitas vezes servem como pretextos para exigir que as empresas suprimem o discurso legítimo” (p.6).

Além disso, muitos Estados delegam a função regulatória para atores privados que por vezes não possuem critérios claros de transparência em suas regras. Por outro lado, apontou que os atores privados possuem um grande poder de decidir o que pode ou não ser publicado, trazendo riscos a liberdade de expressão. O relator afirma ser necessário adotar parâmetros de direitos humanos na moderação de conteúdo para evitar abuso tanto pela regulação Estatal, quanto pela regulação privada, ou seja, termos de uso.

Nesse sentido diversos agentes estatais vêm se manifestando publicamente sobre a moderação de conteúdo e os poderes das plataformas. Exemplo disso no território brasileiro é o presidente Jair Bolsonaro e seus aliados, que frequentemente possuem publicações removidas ou sinalizadas por conterem informações falsas. Assim, utilizando-se do argumento de proteção a liberdade de expressão o presidente afirmou recentemente:

A minha rede social talvez seja aquela que mais interage em todo o mundo. Somos cerceados. Estamos na iminência de um decreto para regulamentar o Marco Civil da Internet, dando liberdade e punições para quem porventura não respeite isso (FOLHA, 2021).

Após a declaração tornou-se pública uma minuta de decreto presidencial que pretendia regulamentar o Marco Civil da Internet, impossibilitando plataformas de sinalizarem conteúdos falsos, remover postagens com discurso de ódio e perfis, sem ordem judicial. Após críticas em decorrência da investida e também pela inadequação de via, Bolsonaro optou por endereçar o mesmo texto através de Medida Provisória e, após devolutiva, realizada pelo Presidente do Senado Rodrigo Pacheco, optou por tratar o assunto através de Projeto de Lei encaminhado ao Congresso Nacional.

3. A REGULAÇÃO DA MODERAÇÃO DE CONTEUDO NO ESTADO BRASILEIRO.

A tentativa de Bolsonaro em controlar o poder de plataformas representa uma parte do microcosmo das legislações em tramitação no Congresso Nacional que se propõem a moderar o discurso no ambiente online. Nesse contexto é oportuno os ensinamentos de Carlos Affonso e Ronaldo Lemos (2016, p.16) que afirmam que é necessário que a regulação preserve direitos fundamentais de modo a garantir que o desenvolvimento tecnológico se torne um elemento que aprimore o desenvolvimento da personalidade e as condições econômicas e sociais dos indivíduos e coletividades. Não sendo preciso que para cada nova tecnologia ou ferramenta os legisladores se sintam impulsionados a realizar alterações no ordenamento jurídico, “que possam parecer pertinentes agora, mas cuja atualidade e funcionalidade está fadada a se perder com a mesma velocidade com que a tecnologia se transforma”. Ana Frazão (2018, p. 658) pontua o que chama de “desafios para a regulação jurídica das plataformas”, dentro de um objetivo da busca de uma “regulação adequada e desejável, sempre atenta ao estímulo à inovação e à eficiência dinâmica”.

Nesse sentido, entende-se que realizar o mapeamento de propostas legislativas é importante para entender de que forma o Estado Brasileiro se propõe a regular as plataformas digitais, acerca da temática de moderação de conteúdo. Portanto, foram analisados os Projetos de leis que, por tratarem de matéria análoga ou conexa, foram apensados ao PL 2.630 (Lei de Liberdade e Responsabilidade da Internet). A coleta dos dados foi realizada até o dia 05 de dezembro de 2021, sendo identificados 79 projetos de leis apensos ao 2.630 e correspondentes ao período de 26 de maio de 2015 a 29 de setembro de 2021. Para analisar o conteúdo das propostas legislativas foi realizada a categorização de quais propostas regulavam a moderação de conteúdo. Para realizar a análise proposta foi utilizado o software SPSS considerando a categoria e como cada PL abordava elas.

Diante da análise dos dados, concluiu-se que dos 79 projetos de lei, 37 deles citam de maneira geral o “termo moderação de conteúdo”. Ressalta-se que dentre os 37 projetos apenas 9 determinam medidas de moderação de conteúdo, qual seja, procedimentos e normas que determinam de que modo as plataformas devem realizar a análise de conteúdos em seus espaços. Além disso, é importante salientar que ao proceder a análise dos partidos que propuseram medidas de moderação identificamos que todos integram a atual base governista.

Ao analisar as propostas legislativas identificamos que 8 delas propõe a alteração do regime de responsabilização de plataformas preconizado pelo Marco Civil da Internet, determinando que os conteúdos só podem ser retirados mediante decisão judicial. Tais propostas criam obstáculos para os provedores moderarem conteúdo ou tornam obsoleto o procedimento de moderação. Nesse sentido, uma recente pesquisa divulgada pelo Instituto Vero (2021), pontuou que “a estratégia pode ser compreendida como uma tentativa de aumentar a importância e a legitimidade da demanda, como algo significativo para a base eleitoral desses diversos representantes”.

Além disso, conforme observamos ao longo do texto, no Brasil o regime de responsabilização das plataformas é disciplinado pelo Marco Civil da Internet. De maneira semelhante à section 230 o Marco Civil da Internet prevê a não responsabilização dos provedores de aplicação de internet por conteúdos postados por terceiros. De acordo com o artigo 19 do texto legal o provedor de aplicações somente será responsabilizado por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências necessárias para tornar indisponível o conteúdo. Ou seja, a plataforma só será responsabilizada se não cumprir ordem judicial, o que não impede que ela possa determinar requisitos próprios para remoção voluntária em seus termos de uso, oferecendo uma opção ao provedor para a retirada do conteúdo que vá de encontro com as regras que regem a plataforma.

A questão do que deve ser feito com relação ao poder dessas plataformas se transforma em debate sobre se elas devem ou não ser mais fortemente reguladas pelos governos. (ROSEN, 2021, s/p). Observa-se que de modo geral há uma corrida para a regulamentação e um tratamento simplista quanto a legitimidade de regulação online. Carvalho (2018, p.225) afirma que o resultado “é uma abordagem que subestima a complexidade que cerca o tema e, por isso, não apresenta elementos que permitam avançar na discussão”. Além disso, observa-se que no caso Brasileiro, muitas das propostas legislativas vêm acompanhada de motivações políticas ou em reação à retirada de posts ou perfis de governantes, como foi caso de Trump e Bolsonaro, isso porque, os conceitos de autoridades soberanas são desafiados a partir do momento em que as plataformas possuem o poder de remover algum líder político de seu espaço.

Conclusão

Como observamos nos tópicos anteriores o poder de decidir o que deve ou não permanecer na rede, por vezes, pode resultar em embates com atores políticos em especial no que concerne à governança do discurso online. Diante dessa realidade os Estados vêm tentando buscar formas de controlar as plataformas digitais por meio de regulações, via legislativo ou até medidas executivas.

A discussão sobre como lidar com o poder da plataforma está apenas começando. À medida que o debate se desenvolve, vale lembrar que certas facetas do poder da plataforma não são novas e que conceitos existentes podem ser reequipados para garantir que as plataformas sejam estruturadas para se alinhar – e não prejudicar – mercados abertos, concorrência justa e fluxo livre de informações.

Nesse sentido, as plataformas intermediárias de conteúdo, que veiculam conteúdos gerados por usuários vêm exercendo um papel central nas políticas regulatórias que podem afetar a liberdade de expressão (IRIS,2020, p.7). Essas ferramentas de comunicação são de extrema importância para a conexão de pessoas, construção de conhecimento, disseminação de notícias e formação de agenda de discussões, entretanto, no cotidiano precisam lidar com o desafio de gerenciar conteúdos danosos e indesejados que circulam em seus espaços. Assim, governos, representantes da sociedade civil, empresas têm pressionado plataformas a intervirem na redução de tais conteúdos de forma mais incisiva e transparente.

Em decorrência da pandemia global de Covid-19 e diante da explosão desinformacional as plataformas começaram a remover com maior frequência postagens com informações enganosas sobre o coronavírus, as colocando em um papel de “árbitros da verdade” no qual foram obrigadas a fazer julgamentos sobre a verdade ou falsidade de conteúdo. Essa capacidade de moderar conteúdos coloca as plataformas no centro do dilema da liberdade de expressão versus censura. Diante do exposto, torna-se relevante o incentivo da transparência contínua durante a elaboração e implementação de procedimentos e políticas de moderação.

 

REFERÊNCIAS

 

 

BRASIL. Constituição (1988). Constituição da República Federativa do Brasil. Brasília, DF: Centro Gráfico, 1988.

 

BRASIL. Lei nº 12.965, de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil. Diário Oficial da União. Brasília, 24 abr. 2014. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm. Acesso em 7 de dez. de 2021.

 

CE – Conselho da Europa. Guia dos Direitos Humanos para os Utilizadores de Internet. 2014. Disponível em: https://rm.coe.int/CoERMPublicCommonSearchServices/ DisplayDCTMContent?documentId=09000016806a0532. Acesso em: 07 de dez. de 2021.

 

CLARK, Justin et al. Content and Conduct: How English Wikipedia Moderates Harmful Speech. The Social Science Research Network Electronic Paper Collection, Research Publication, n. 2019-5, 2019. Disponível em: https://dash.harvard.edu/bitstream/handle/1/41872342/Content%20and%20ConductHow%20English%20Wikipedia%20Moderates%20Harmful%20Speech.pdf?sequence=1&isAllowed=y.   Acesso em: 06 de dez. de 2021.

 

DURIGAN , Victor; MACHADO, Caio Vieira. Desinformação Privilegiada. Instituto Vero, 202. Disponível em: https://www.vero.org.br/pesquisa/desinformacao-privilegiada. Acesso em 06 de dez. de 2021.

 

EUA – Estados Unidos da América. Communications Decency Act. Sec. 509. Online Family Empowerment. Disponível em: https://www.govinfo.gov/content/pkg/PLAW104publ104/pdf/PLAW-104publ104.pdf. Acesso em: 06 de dez. de 2021.

 

FRAZÃO. Ana. “Plataformas digitais e os desafios para a regulação jurídica in Direito, tecnologia e inovação”. In: PARENTONI, Leonardo (Coord.); GONTIJO, Bruno Miranda; LIMA, Henrique Cunha (orgs). Direito, tecnologia e inovação. Belo Horizonte: D’placido. 2018.

KURTZ, Lahis Pasquali; DO CARMO, Paloma Rocillo Rolim; VIEIRA, Victor Barbieri Rodrigues. Transparência na moderação de conteúdo: tendências regulatórias nacionais. Belo Horizonte: Instituto de Referência em Internet e Sociedade, 2021. Disponível em: https://bit.ly/3xjAUka. Acesso em: 06 de dez. de 2021.

 

ONU Disponível em: https://www.ohchr.org/EN/Issues/FreedomOpinion/Pages/Annual. aspx#:~:text=Annually%20the%20 Special%20 Rapporteur%20is,and%20 expression%20in%20 all%20its. Acesso em 7 de dez. de 2021.

 

RODRIGUES, Gustavo; KURTZ, Lahis. Transparência sobre moderação de conteúdo em políticas de comunidade. Belo Horizonte: Instituto de Referência em Internet e Sociedade, 2020. Disponível em: https://bit.ly/3nUbXYh. Acesso em: 06 de dez. de 2021.

 

ROSEN, Christine. Slow Down and Break Less: Taking Cultural Impacts Seriously. National Affairs, 2021, disponível em: <https://www.nationalaffairs.com/slow-down-and-break-less-taking-cultural-impacts-seriously>

 

RUGGIER, John gerard. “Territoriality and Beyond: Problematizing Modernity in International Relations.” International Organization, vol. 47, no. 1, 1993, pp. 139–174. Disponível em: <www.jstor.org/stable/2706885>

SANDER, Barrie. Freedom of Expression in the Age of Online Platforms: The Promise and Pitfalls of a Human Rights-Based Approach to Content Moderation. Fordham International Law Journal, v. 43, p. 939, 2019. Disponível em: https://ir.lawnet.fordham.edu/cgi/viewcontent.cgi?article=2787&context=ilj.  Acesso em: 06 de dez. de 2021.

SOUZA, Carlos Affonso; LEMOS, Ronaldo. Marco Civil da Internet: Construção e Aplicação. Juiz de Fora: Editar Editora Associada Ltda, 2016.. Disponível em: https://itsrio.org/wp-content/uploads/2017/02/marco_civil_construcao_aplicacao.pdf

Tim Wu, a inteligência artificial comerá a lei? The Rise of Hybrid Social-Ordering Systems, 119 Colum. L. Rev. 2001, 2009 (2019) [doravante Wu, Will Artificial Intelligence Eat the Law].