12/08/2021 – 19:56
Em audiência pública na Câmara dos Deputados nesta quinta-feira (12), jornalistas e pesquisadores cobraram maior participação da sociedade e transparência na definição de políticas de moderação de conteúdo em plataformas digitais. No entanto, a gerente de relações públicas do YouTube, Alana Rizzo, defendeu flexibilidade para que as empresas decidam como lidar com a desinformação e outros conteúdos prejudiciais.
O debate foi promovido pelo grupo de trabalho que analisa o projeto de combate às fake news (PL 2630/20), do Senado. A proposta cria o Conselho de Transparência e Responsabilidade na Internet, que deve recomendar normas para liberdade, responsabilidade e transparência na rede. O conselho será composto por representantes do poder público, da sociedade civil, da academia e do setor privado.
Najara Araujo/Câmara dos Deputados
Paulo José Lara: conselho precisa ser independente
O coordenador do Programa Direitos Digitais da organização Artigo 19, Paulo José Lara, defendeu mecanismos para o recebimento de denúncias. Ele também disse que o conselho precisa ser independente, para não ser influenciado pela política partidária. Segundo Paulo José Lara, o conselho deve se pronunciar não apenas sobre as decisões das plataformas na moderação de conteúdo, como também seus termos de uso e o processo de coleta de dados pessoais.
Erros
A gerente de relações públicas do YouTube informou que, somente entre janeiro e março deste ano, a plataforma removeu quase 1 milhão de vídeos por violação das diretrizes, que proíbem a publicação de pornografia, incitação ao terrorismo, propaganda falsa, promoção de esquemas fraudulentos, intimidação e assédio, teorias da conspiração ou discurso de ódio, entre outros critérios.
“Às vezes cometemos erros e se um criador de conteúdo achar que cometemos um erro, haverá revisão humana e a decisão poderá ser revertida”, admitiu. Alana Rizzo observou que 216 mil remoções foram contestadas e, desse total, 66 mil vídeos foram restabelecidos.
Alana Rizzo ponderou que, a cada 10 mil visualizações no Youtube, apenas 16 são de vídeos que violam as políticas da plataforma. Além das remoções, o Youtube procura reduzir a disseminação de conteúdo duvidoso, recomendar informações de fontes confiáveis e recompensar criadores de conteúdo com padrões mais exigentes. “Empresas devem ter flexibilidade para desenvolver políticas para lidar com conteúdos potencialmente prejudiciais, como é o caso da desinformação, mesmo que não sejam necessariamente ilegais”, argumentou.
O deputado Gustavo Fruet (PDT-PR) pediu que a empresa enviasse mais informações sobre o perfil dos vídeos removidos, quantos demandaram processo judicial e quantos foram monetizados. “Tomo cuidado, respeito e não demonizo as plataformas”, comentou.
Medidas insuficientes
O professor do Laboratório de Políticas de Comunicação da Universidade de Brasília (UnB) Jonas Valente afirmou que as medidas de moderação de conteúdo das plataformas são insuficientes. Valente notou que o uso de sistemas automatizados para moderação é incapaz de lidar com o contexto, por isso é importante que haja um processo para agir contra abusos.
“Um número crescente de indivíduos e organizações têm suas contas derrubadas e encontram dificuldade para recorrer. As plataformas podem usar a moderação como forma de ataque político contra aqueles que questionam seus interesses”, alertou.
Responsabilização
O presidente da Associação Brasileira de Rádio e Televisão (Abratel), Márcio Novaes, defendeu que as plataformas sigam as mesmas regras dos veículos de comunicação. “As plataformas usam um meio, chamado internet, para impulsionar conteúdos de ódio e antidemocrático. São veículos, porque vendem publicidade”, comparou. “Jornalistas que assinam por seu conteúdo podem ser punidos e a empresa também. Precisamos acabar com esta assimetria”, disse.
Najara Araujo/Câmara dos Deputados
Alana Rizzo: Youtube removeu quase 1 milhão de vídeos entre janeiro e março deste ano
A diretora-executiva da agência de checagem de informações Aos Fatos e conselheira da Associação de Jornalismo Digital (Ajor), Tai Nalon, defendeu que a proposta combata o comportamento coordenado de usuários, e não o conteúdo das mensagens veiculados. Ela notou que políticos e autoridades aparecem consistentemente entre os maiores disseminadores de desinformação. “Precisamos responsabilizar as autoridades de acordo com sua influência no cenário informativo”, comentou. Tai Nalon ainda apontou para a necessidade de acesso a dados e ferramentas de investigação das plataformas.
Tipos criminais
O presidente da Associação Brasileira de Jornalismo Investigativo (Abraji), Marcelo Träsel, rejeitou a ideia de criar novos tipos criminais para combater notícias falsas. Ele considera suficiente a aplicação da legislação existente para evitar abusos, como os crimes contra honra, reparação por danos morais ou à imagem, o Marco Civil da Internet e a Lei Carolina Dieckmann.
Segundo levantamento da Abraji, dentre 5.509 processos judiciais solicitando remoção de conteúdo da internet, 77% são por difamação. Outras alegações comuns são a violação à legislação eleitoral, à privacidade e a direitos autorais. Já 15% ou 811 processos alegam como motivo a “desinformação”, mesmo que o conceito ainda não tenha uma definição legal.
Träsel informou que 60% dos processos são movidos por políticos, especialmente em períodos eleitorais. Os principais alvos dos pedidos de remoção de conteúdo na Justiça são Facebook (36%), Google (13%) e UOL (4%), mas também há pedidos de remoção contra empresas jornalísticas, como a Editora Abril, Globo e Record.
O presidente da Abraji nota que a moderação de conteúdo oferece vários riscos: instituir políticas excessivas, permitir danos à sociedade devido à lentidão dos processos ou tolerar crimes e transgressões sob a égide da livre expressão.
Concorrência
O professor de direito econômico da Universidade de São Paulo (USP) Diogo Coutinho alertou que a moderação das plataformas não pode levar à restrição de acesso e a práticas discriminatórias, especialmente para empresas de comércio que seriam prejudicadas na concorrência. Ele observou que a maioria dos lojistas não possuem plataformas próprias, e sim utilizam as redes sociais e dependem das grandes plataformas digitais para o comércio eletrônico.
As plataformas são acusadas em alguns países de discriminar pequenos e médios varejistas ao firmar acordos de exclusividade que fecham o acesso ao mercado. Em algumas situações, as plataformas praticam a aquisição predatória de novas empresas e competem com os varejistas. Por isso, o professor defendeu a participação de representantes do Conselho Administrativo de Defesa Econômica (Cade) e de usuários no Conselho de Transparência e Responsabilidade na Internet.
Reportagem – Francisco Brandão
Edição ´- Ana Chalub