Visto como uma das maiores e principais plataformas de criação e compartilhamento de vídeos, o YouTube, na intenção de “dar a todos uma voz e revelar o mundo”, elenca como seus valores a liberdade de expressão, o direito à informação, o direito à oportunidade e a liberdade para pertencer. Aparenta, assim, ser um espaço livre, aberto e participativo de maneira até igualitária – um mundo aparentemente de coexistência pacífica, sem censura ou controle.
“Acreditamos que todos têm o direito de expressar opiniões e que o mundo se torna melhor quando ouvimos, compartilhamos e nos unimos por meio das nossas histórias.” (YouTube)
No entanto, como esperado em qualquer rede social, o YouTube regula o conteúdo publicado, seja de forma a coibir violações a direitos autorais ou a combater a propagação de notícias falsas, discursos de ódio, conteúdo sexual, entre outros tipos de conteúdo perigosos. Esta regulação se dá por um contrato de adesão: ou aceita-se e segue-se todas as regras, ou pune-se com desmonetização (perda da possibilidade de ganhar dinheiro com propagandas) do vídeo identificado como infrator das diretrizes de comunidade, limitação do alcance desse vídeo na plataforma, seu bloqueio ou até sua remoção, sem possibilidade de retorno do conteúdo à plataforma.
É nesta relação de controle unilateral que acontece tanto no YouTube quanto em outras plataformas que este artigo se insere. A comunidade LGBTQIA+ acaba, muitas vezes, como no caso do YouTube, caindo nessas ‘caixas’ de conteúdo considerado perigoso ou violador de direito autoral, com base na identificação automática da plataforma.
- Espaço de fala, representatividade e remuneração da comunidade LGBTQIA+
O YouTube é visto como uma das principais plataformas de compartilhamento e produção de conteúdo audiovisual. A comunidade LGBTQIA+, inclusive, parece preferir esta plataforma para tratar de temas não representados na mídia mainstream e até para se assumirem como LGBTQIA+ (COSTA, 2017). A plataforma é vista pela comunidade não só como um meio em que ela consegue se fortalecer e se empoderar, mas também, como um meio de furar a bolha e expandir o alcance dessas temáticas para além dos círculos de dentro da comunidade.
Além de ser uma plataforma crescentemente utilizada para a vazão de assuntos não tratados na mídia mainstream, o YouTube possui um programa de parceria que permite que as pessoas produtoras de conteúdo recebam uma remuneração pela publicidade colocada em seus vídeos, proporcional ao seu número de visualizações, o YouTube Partners Program (YOUTUBE HELP). Para participar do programa, a produtora de conteúdo, além de ter um canal com mais de 4 mil visualizações nos últimos 12 meses e com ao menos 1.000 inscritos, deve aderir ao AdSense, um programa do Google que monetiza os criadores de conteúdo online por meio da exibição de anúncios em seus websites, que impõe algumas limitações de conteúdo, como, dentre outros, nudez ou conteúdo sexual, conteúdos que violem a privacidade e outras políticas.
No entanto, como o Centro de Ensino e Pesquisa em Inovação da FGV Direito SP (CEPI) relatou, em sua pesquisa “Convergindo Vozes Dissonantes: Liberdade de expressão, grupos vulnerabilizados e desafios à produção cultural online” (SILVA et al, 2019),
“muitos destes conteúdos são difíceis de determinar, mas ao contratar o Programa de Parceria do YouTube (AdSense), a plataforma se [dá] o direito de desativar a exibição de anúncios no seu conteúdo; desativar sua conta do Google AdSense; suspender sua participação no Programa de Parcerias do YouTube; suspender ou até mesmo encerrar seu canal do YouTube”.
Assim, inúmeras críticas vêm sendo feitas à plataforma por retirar automaticamente o conteúdo de canais que tratem de temas como diversidade, devido aos termos que são utilizados em seus vídeos, já que muitas vezes entram na categoria, por exemplo, de “conteúdo sexual”.
Por ser uma plataforma privada, o YouTube regula da maneira que melhor entende o conteúdo para evitar responsabilização da empresa por crimes, ofensas e outros ilícitos ocorridos dentro da plataforma. A plataforma deixa claro, inclusive, em seus termos de “Políticas e segurança” (YOUTUBE), que não há espaço para debate sobre as categorias listadas como conteúdo inadequado:
“Aqui estão algumas regras baseadas no bom senso que ajudam você a se manter longe de problemas. Pedimos que você as leve a sério. Não tente encontrar brechas nem burlar essas diretrizes. Apenas compreenda-as e tente respeitar o propósito com que elas foram criadas”.
No entanto, em 2019, um grupo de produtores de canais LGBTQIA+ nos Estados Unidos processou o YouTube (FOX, 2019) alegando que a plataforma estava discriminando seu conteúdo, frequentemente removendo a sua remuneração. Eles alegam, dentre outros pontos, que o YouTube remove publicidade de vídeos com palavras consideradas “gatilho” como “gay” ou “lésbica”, frequentemente rotula os vídeos com tema LGBTQIA+ como “sensíveis” ou “maduros”, os restringe de aparecer nos resultados de busca ou recomendações e, por fim, não faz o suficiente para filtrar o assédio e o discurso de ódio na seção de comentários. Inclusive, Stephanie Frosch, uma YouTuber queer com cerca de 370.000 inscritos, ganhava aproximadamente $23.000 por ano no YouTube em 2009. Em 2021, Frosch diz que ela tem “sorte se receber $100 por mês” (ALEXANDER, 2020).
A alegação do grupo, no entanto, não se baseia só na questão do conteúdo em si dos vídeos, mas, também, na identificação da autoria do conteúdo, ou seja, dos produtores serem pessoas LGBTQIA+. O Google contesta essas reclamações, dizendo que os algoritmos de distribuição da plataforma são protegidos pela Seção 230 do Communications Decency Act, dos EUA – que inclusive entrou em disputa quando o ex-Presidente Trump procurou revogar a Seção 230 após uma briga pública com o Twitter sobre a moderação de seus tweets (ROBERTSON, 2020).
Seja pelo conteúdo dos vídeos, seja pela identidade da autoria do material audiovisual, é fato que há uma crescente invisibilização da comunidade LGBTQIA+, que não só prejudica o objetivo do YouTube de “dar a todos uma voz e revelar o mundo”, mas, também, impede a remuneração das produtoras de conteúdo pertencentes à comunidade.
- O Content ID na proteção ao Direito Autoral: uma limitação automática da expressão da comunidade LGBTQIA+
Uma outra forma que o YouTube potencializa a invisibilização da comunidade LGBTQIA+ é baseada no funcionamento da ferramenta Content ID – um mecanismo de identificação automática de vídeos e áudios cadastrados por seus autores para garantirem seus Direitos Autorais.
Como fala Katharine TRENDACOSTA, da Electronic Frontier Foundation, o YouTube já provou estar mais interessado em agradar os grandes detentores de Direitos Autorais do que em proteger a liberdade de expressão ou promover a criatividade, como defende em sua lista de valores (2020). Com a ferramenta do Content ID, o YouTube oferece um sistema de filtros que, além de ser alterado ao longo do tempo – gerando insegurança para os produtores de conteúdo online –, não leva em conta o contexto do uso e o alcance do conteúdo violador de Direito Autoral, muitas vezes desmonetizando de forma automática pequenas produtoras e direcionando dinheiro apenas para grandes detentoras de Direitos Autorais.
A comunidade LGBTQIA+ utiliza o YouTube como um espaço para ganhar voz, um espaço não só seguro para trazer à tona temas que não são encontrados na mídia tradicional, mas, também, para criar conteúdo e se sustentar no ramo da produção de conteúdo online. Uma das formas mais usuais de se discutir temas “alternativos” ou/e celebrar o avanço desses temas na mídia tradicional é a produção de vídeos de reação (PÕE NA RODA, 2017), em que se usa outro conteúdo a fim de analisá-lo, ou vídeo com trechos de diversos conteúdos (DIVA DA DEPRESSÃO, 2017), para ilustrar certa situação em discussão.
Esses usos de trechos de vídeos ou áudios podem muitas vezes serem vistos pelo Content ID como um uso ilegal, passível de punição. Como o Instituto de Referência em Internet e Sociedade relatou em seu estudo “Transparência sobre moderação de conteúdo em políticas de comunidade” (RODRIGUES e KURTZ, 2020), o YouTube apresenta critérios explícitos de análise contextual para configuração, ou não, da violação para todos os conteúdos listados como inadequados pela plataforma, exceto para as violações a Direitos Autorais.
Assim, a ferramenta funciona muito bem para o que foi programada: identificação rápida e fiel de vídeos e áudios cadastrados como protegidos por Direitos Autorais. No entanto, o uso desta ferramenta possui um efeito nefasto: auxilia na invisibilização de uma comunidade que usa conteúdo da mídia mainstream para discutir temas e se empoderar num espaço que, teoricamente, seria um espaço para a vazão da “voz de todos”.
No entanto, faz-se uma ressalva: isso não acontece só com a comunidade LGBTQIA+. Inclusive, ferramentas como o Content ID são vistas como armas muito poderosas na remoção automática de conteúdos que usam obras protegidas a ponto de um policial utilizar-se dessa ferramenta a seu favor. Em fevereiro de 2021, quando Sennett Devermont – um ativista que regularmente transmite ao vivo protestos e interações com a polícia para seus mais de 300.000 seguidores na Instagram – transmitiu ao vivo sua interação com o Sargento Billy Fair, este, ao perceber que a conversa estava sendo transmitida ao vivo via Instagram, silenciou-se e tocou de seu celular, por cerca de 1 minuto, a música “Santeria” (da banda Sublime), afins de fazer com que o vídeo de Devermont fosse identificado como violador de Direitos Autorais (THOMAS, 2019) e, assim, tivesse seu áudio removido do vídeo ou, até, a própria transmissão ao vivo interrompida e o vídeo removido por completo.
- Regulação unilateral é o problema?
As plataformas, por serem serviços oferecidos por empresas privadas, regulam de diferentes maneiras a moderação de conteúdo publicado por seus usuários. O problema está na falta de transparência e impossibilidade de discussão sobre as categorias utilizadas para classificar conteúdos como inadequados. Essas regras acabam sendo, muitas vezes, automaticamente aplicadas, sem a análise caso a caso, o que dificulta a criação de um espaço aberto de debates, já que os discursos são muito mais complexos que meras ‘caixas classificatórias’.
GRIMMELMANN (2018) ilustra a dificuldade das plataformas (e da própria lei estatal) em determinar critérios determinantes de tipos de conteúdo a serem controlados ou até removidos:
“A dificuldade de distinguir entre uma prática, uma paródia da prática e um comentário sobre a prática é uma má notícia para qualquer doutrina jurídica que tente distinguir entre elas, e para quaisquer diretrizes de moderação ou princípios éticos que tentem traçar distinções semelhantes.” (tradução livre)
Esses agentes privados, portanto, tomam lugar de protagonismo na regulação do conteúdo online, regulando de forma igualitária todos os usuários de suas plataformas, seja onde estiverem, com pouca transparência. Assim, escolhas socialmente relevantes sobre o que se pode ou não fazer e publicar online ocorrem cada vez mais através de aplicação privada automatizada e executada por algoritmos não transparentes, o que cria uma sociedade chamada de “caixa preta” (FROSIO, 2021; PASQUALE, 2015; SUZOR, 2019; GILLESPIE, 2018). Nesta sociedade da “caixa preta”, o devido processo e as garantias fundamentais são prejudicados pela aplicação tecnológica, restringindo o uso justo de conteúdo online e silenciando o discurso de acordo com o discurso dominante. Assim, independentemente da aplicação algorítmica, a supervisão privada sobre questões particulares que exigem um equilíbrio de direitos fundamentais concorrentes é argumentada como uma opção subótima de uma perspectiva de direitos fundamentais e democrática, sendo sua delegação idealmente delegada ao Poder Judiciário (FROSIO, 2019).
Retomando o relatório do IRIS (RODRIGUES e KURTZ, 2020), o Instituto verificou que o YouTube possui uma grave falta de transparência quando o assunto é os meios de detecção de conteúdo inadequado, de acordo com as suas políticas de comunidade. A equipe verificou que há a indicação, pela plataforma, da realização de uma detecção proativa sem referência ao teor (automatizado ou não) e há uma redução da capacidade contestatória do usuário. Além disso, também foi indicado que o YouTube se utiliza de uma terminologia ambígua, com o uso do verbo “poder” para especificar os conteúdos proibidos em sua plataforma, gerando insegurança ao produtor de conteúdo e dificultando seu poder de contestação – já que a regra é tão ampla que fica difícil de mostrar o porquê de certo conteúdo estar fora das categorias de conteúdos proibidos.
No entanto, não podemos esquecer do porquê do uso de algoritmos e ferramentas automáticas de moderação de conteúdo. De acordo com o YouTube, até setembro de 2021, um total de 4.806.042 canais foram removidos da plataforma e um total de 6.229.882 vídeos foram removidos, sendo que desse total, 5.901.241 foram identificados e removidos por detecção automática (GOOGLE). Como mostra Tarleton GILLESPIE, certas abordagens para moderação de conteúdo são praticamente impossíveis. Por exemplo, há simplesmente muito conteúdo e atividade para conduzir uma revisão proativa, na qual um moderador examinaria cada contribuição antes que ela aparecesse (2018). O autor vai além, apontando que a questão da escala é mais do que apenas o número de usuários: as plataformas são qualitativamente mais complexas do que eram antes, coexistindo em seus espaços múltiplas comunidades, de diversas nações, culturas e religiões:
“[E]mbora essas plataformas possam falar com sua “comunidade” online, singular, em dois bilhões de usuários ativos, simplesmente não pode haver tal coisa. As plataformas devem gerenciar comunidades múltiplas e mutáveis, em várias nações, culturas e religiões, cada uma participando por motivos diferentes, muitas vezes com valores e objetivos incomensuráveis. E as comunidades não coexistem independentemente em uma plataforma, elas se sobrepõem e se misturam – por proximidade e por design.” (tradução livre; GILLESPIE, 2018)
Portanto, afirma Gillespie, para plataformas de grande escala, a moderação “é industrial, não artesanal”. Dada a enormidade dos arquivos que gerenciam, as plataformas tiveram que desenvolver um conjunto de “soluções” para o desafio de detectar conteúdos e comportamentos problemáticos em larga escala.
Assim, por um lado, é exigido das plataformas a coibição de conteúdo danoso, incluindo discursos de ódio, desinformação, ofensas e condutas criminosas, o que faz surgir a necessidade de se classificar conteúdos como proibidos e, então, investir em iniciativas para coibir a propagação desses na rede, a maioria das vezes de forma automática pela quantidade de conteúdo a ser moderado. Por outro lado, criamos espaço para um amplo poder de escolha de agentes privados na determinação da limitação da liberdade de expressão. Limita-se, assim, não só a expressão individual de cada usuário, mas, também, a criação e cultivo de um espaço de empoderamento, informação, remuneração e representatividade de grupos vulneráveis, como é o caso da comunidade LGBTQIA+.
Conclusão: a transparência é essencial para a liberdade de expressão
Percebe-se com este artigo que a moderação de conteúdo no YouTube pode e está reduzindo o espaço e invisibilizando a comunidade LGBTQIA+. A plataforma tem seus pontos positivos: ela oferece um espaço para a criação e produção (remunerada) de conteúdo, permite com que a comunidade se expresse, se conecte e alcance espaços antes não ocupados. Mas, também, ela oferece seus riscos, limitando para além do necessário a liberdade de expressão dos criadores (‘além do necessário’, porque a própria coibição de discursos de ódio, ofensas e outras condutas nocivas já é uma limitação à liberdade de expressão amplamente reconhecida como necessária). Essa limitação se dá por meio do uso de categorias amplas de conteúdo entendido como inadequado, do funcionamento do Content ID, da pouca transparência na identificação do conteúdo inadequado, ou, ainda, da redução da capacidade contestatória do usuário no processo de denúncia, recurso e punição por usos de conteúdos proibidos.
Bibliografia
ALEXANDER, Julia. YouTube fights back against bias lawsuit from LGBTQ creators. The Verge, 03 jun. 2020. Disponível em: <https://www.theverge.com/2020/6/3/21278050/youtube-lawsuit-lgbtq-google-doj-section-230-trump-executive-order>.
COSTA, Bruno. O YouTube virou a plataforma favorita para muitos jovens se assumirem LGBTQ. Vice, 28 jun. 2017. Disponível em: <https://www.vice.com/pt/article/bjxgqa/o-youtube-virou-a-plataforma-favorita-para-muitos-jovens-se-assumirem-lgbtq>.
DIVA DA DEPRESSÃO. Dicas de Séries: RuPaul’s Drag Race + Análise do cast da Temporada 9. YouTube (13min 46s). Disponível em: <https://www.youtube.com/watch?v=SZv9-lDxMmA>.
FOX, Chris. YouTube: LGBT video-makers sue claiming discrimination. BBC News – Tech, 15 ago. 2019. Disponível em: <https://www.bbc.com/news/technology-49343823>.
FROSIO, Giancarlo. Regulatory Shift in State Intervention: From Intermediary Liability to Responsibility. Hart Publishing, no prelo, 2021. Disponível em: <https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3850483>.
FROSIO, Giancarlo. Algorithmic Enforcement Online. Rochester, NY: Social Science Research Network, 2019. Disponível em: <https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=&ved=2ahUKEwjhlabFmsX0AhVMqJUCHdSADroQFnoECAYQAQ&url=https%3A%2F%2Fosf.io%2Fbukhj%2Fdownload&usg=AOvVaw2zqj7yEU9wu5KMptA0M5Cd>.
GILLESPIE, Tarleton. Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions That Shape Social Media. Yale U Press, 2018.
GOOGLE. Relatório de Transparência (jul-2021 a set-2021). Disponível em: <https://transparencyreport.google.com/youtube-policy/removals?hl=pt_BR&total_channels_removed=period:2021Q3&lu=total_removed_videos&total_removed_videos=period:2021Q3;exclude_automated:all>.
PÕE NA RODA. HÉTEROS REAGEM A RUPAUL’S DRAG RACE (ft. Vagazóide e Rafinha Sanchez) – Põe Na Roda. YouTube (10min 23s). Disponível em: <https://www.youtube.com/watch?v=KVTASwOLdYE>.
ROBERTSON, Adi. Let’s go through Trump’s terrible internet censorship order, line by line. The Verge – Policy, 29 mai. 2020. Disponível em: <https://www.theverge.com/2020/5/29/21273191/trump-twitter-social-media-censorship-executive-order-analysis-bias>.
RODRIGUES, Gustavo; KURTZ, Lahis. Transparência sobre moderação de conteúdo em políticas de comunidade. Instituto de Referência em Internet e Sociedade, Belo Horizonte, 2020. Disponível em: <https://irisbh.com.br/wp-content/uploads/2020/10/Transpar%C3%AAncia-sobre-modera%C3%A7%C3%A3o-de-conte%C3%BAdo-em-pol%C3%ADticas-de-comunidade-IRIS.pdf>
SILVA, Alexandre Pacheco; FEFERBAUM, Marina; VIDOTTI, Ana Luiza Gregorio; et al. Convergindo Vozes Dissonantes: Liberdade de Expressão, grupos vulnerabilizados e desafios à produção cultural online. CEPI FGV Direito SP (Relatório de Pesquisa), 2019. Disponível em: <http://bibliotecadigital.fgv.br/dspace/bitstream/handle/10438/28623/Convergindo Vozes Dissonantes – Liberdade de express%C3%A3o%2C grupos vulnerabilidades e desafios a%CC%80 produ%C3%A7%C3%A3o cultural online.pdf?sequence=1&isAllowed=y>.
THOMAS, Dexter. Is This Beverly Hills Cop Playing Sublime’s ‘Santeria’ to Avoid Being Live-Streamed?. Vice, 09 fev. 2019. Disponível em: <https://www.vice.com/en/article/bvxb94/is-this-beverly-hills-cop-playing-sublimes-santeria-to-avoid-being-livestreamed>.
TRENDACOSTA, Katharine. Unfiltered: How YouTube’s Content ID Discourages Fair Use and Dictates What We See Online. EFF, 10 dez. 2020. Disponível em: <https://www.eff.org/wp/unfiltered-how-youtubes-content-id-discourages-fair-use-and-dictates-what-we-see-online#fnref37>.
YOUTUBE. Sempre quis saber como o YouTube funciona?. Disponível em: <https://www.youtube.com/howyoutubeworks/>.
YOUTUBE HELP. YouTube Partner Program overview & eligibility. Disponível em: <https://support.google.com/youtube/answer/72851?hl=en