21/10/2024 - 25ª - Comissão de Comunicação e Direito Digital

Horário

Texto com revisão

R
O SR. PRESIDENTE (Hamilton Mourão. Bloco Parlamentar Aliança/REPUBLICANOS - RS. Fala da Presidência.) - Havendo número regimental, declaro aberta a 25ª Reunião da Comissão de Comunicação e Direito Digital da 2ª Sessão Legislativa Ordinária da 57ª Legislatura.
A presente reunião destina-se à realização de audiência pública, com o objetivo de instruir o Projeto de Lei nº 2.264, de 2023, que altera a Lei nº 8.069, de 13 de julho de 1990, que dispõe sobre o Estatuto da Criança e do Adolescente e dá outras providências; e a Lei nº 12.965, de 23 de abril de 2014, que estabelece princípios, garantias, direitos e deveres para uso da internet no Brasil, para dispor sobre a divulgação de crimes cometidos com uso de violência no ambiente escolar, em atenção aos Requerimentos nº 4, desta Comissão e de minha autoria, e de nº 10, desta Comissão e de autoria do Senador Carlos Portinho.
R
Participarão presencialmente - e convido a tomarem assento à mesa -, os seguintes convidados:
- Sra. Roberta Jacarandá, Diretora de Políticas Públicas do Conselho Digital, associação pela internet livre, segura e responsável;
- Sr. Gustavo Borges, Diretor do Laboratório de Direitos Humanos & Novas Tecnologias (LabSul);
- Sr. Valdemar Latance Neto, Coordenador-Geral de Combate a Fraudes Cibernéticas da Diretoria de Combate a Crimes Cibernéticos da Polícia Federal (Dciber).
Participarão por meio de videoconferência os seguintes convidados:
- Sra. Alice Bernardo Voronoff, Consultora da Associação Brasileira de Emissoras de Rádio e Televisão (Abert);
- Sr. Samir Nobre, Diretor-Executivo da Associação Brasileira de Rádio e Televisão (Abratel);
- Sra. Juliana Cunha, Diretora da Central Nacional de Denúncias de Crimes Cibernéticos da SaferNet;
- Sra. Taís Niffinegger, Gerente de Bem-estar para a América Latina da Meta;
- Sr. Marcelo Lacerda, Diretor de Políticas Públicas do Google.
Informo também que foram convidados o Sr. Igor Luna, representante da Câmara Brasileira da Economia Digital; a Sra. Rafaella Vieira Lins Parca, do Serviço de Repressão a Crimes de Ódio e Pornografia Infantil da Polícia Federal; e a Sra. Luana Tavares, CEO do instituto nacional de combate aos crimes cibernéticos, o INCC, que não puderam comparecer a esta audiência.
Antes de passar a palavra aos nossos convidados, comunico que esta reunião será interativa, transmitida ao vivo e aberta à participação dos interessados por meio do Portal e-Cidadania, na internet, no endereço senado.leg.br/ecidadania, ou pelo telefone 0800 0612211. O relatório completo, com todas as manifestações, estará disponível no portal, assim como as apresentações que forem utilizadas pelos expositores.
Na exposição inicial, cada convidado poderá fazer uso da palavra por até dez minutos. Para um melhor encaminhamento dos trabalhos, a palavra será concedida de modo alternado entre os convidados que participam presencialmente e os de modo remoto. Ao fim das exposições, a palavra será concedida aos Parlamentares inscritos para fazerem suas perguntas ou comentários.
Inicialmente, quero apenas colocar aqui algumas palavras iniciais para balizar aqui esta nossa audiência pública. É uma honra dar início a esta audiência para debater o PL 2.264, de 2023, que propõe novas diretrizes para divulgação de notícias sobre crimes violentos em escolas.
Quero agradecer a presença dos representantes de entidades tão relevantes como a Abert, a Abratel, a Direção de Políticas Públicas do Conselho Digital, a Central Nacional de Denúncias de Crimes Cibernéticos, o Laboratório de Direitos Humanos & Novas Tecnologias, a Diretoria de Bem-Estar para a América Latina (Meta), a Direção de Políticas Públicas do Google e a Coordenação-Geral de Combate a Fraudes Cibernéticas da Polícia Federal. O engajamento de todas essas entidades é fundamental para construir um diálogo equilibrado e responsável sobre o papel da comunicação e da tecnologia na prevenção e na mitigação de tragédias nas instituições de ensino.
R
De acordo com dados do Instituto Sou da Paz, houve um aumento significativo de casos de violência em ambientes escolares nos últimos anos. Entre 2010 e 2020, o número de ocorrências de violência escolar registradas em boletins de ocorrência cresceu mais de 180%. Essa escalada coloca em risco a segurança de nossos jovens e gera um impacto devastador para famílias e comunidades envolvidas.
Diante desse cenário, é essencial que se discutam os limites e a ética na divulgação de informações sobre esses episódios. Pesquisas indicam que a cobertura midiática de crimes violentos em escolas pode ter um efeito de contágio, aumentando a incidência de ataques similares. Um estudo publicado na revista American Behavioral Scientist aponta que cerca de 20% dos casos de violência em escolas são influenciados por coberturas anteriores na mídia, o que evidencia a necessidade de uma regulamentação cuidadosa e equilibrada, que assegure a liberdade da imprensa, mas que também proteja a sociedade dos efeitos nocivos que a exposição excessiva e sensacionalista desses casos pode causar.
O papel das plataformas digitais também não pode ser negligenciado. A SaferNet Brasil destaca que o compartilhamento de conteúdo sensível em redes sociais, muitas vezes, amplifica o impacto emocional e psicológico em alunos, pais e educadores, além de favorecer a disseminação de discursos de ódio e de incentivo à violência.
A cooperação entre as entidades aqui presentes é essencial para limitar a circulação de material prejudicial sem comprometer a liberdade de expressão. Ao mesmo tempo, não podemos ignorar o papel das forças de segurança e da inteligência. A Polícia Federal e o laboratório sul-americano de crimes digitais, o Labsul, têm desempenhado um papel fundamental na identificação e no combate a grupos que utilizam a internet para promover e planejar atos violentos em escolas.
A troca de informações e o desenvolvimento de tecnologias avançadas são indispensáveis para prevenir novos ataques e para proteger nossos jovens de ameaças crescentes no ambiente digital. Destaco, mais uma vez, que a proposta do PL 2.264, de 2023, não busca silenciar a imprensa, mas, sim, encontrar um equilíbrio que proteja a sociedade e, especialmente, os ambientes escolares. Segundo o International News Safety Institute, cerca de 70% dos jornalistas reconhecem a necessidade de protocolos mais rigorosos ao lidar com crimes violentos envolvendo crianças e adolescentes. A colaboração entre as organizações de mídia, como a Abert e Abratel, e os especialistas em segurança digital aqui presentes será vital para desenvolver e implementar diretrizes eficazes.
Concluo ressaltando que o objetivo desta audiência é ouvir as diferentes perspectivas sobre o tema e buscar soluções que garantam a segurança nas nossas escolas sem comprometer direitos fundamentais. A participação de todos é fundamental para que possamos construir um futuro em que nossas escolas sejam ambientes de aprendizado e desenvolvimento seguros para nossas crianças e jovens.
Muito obrigado pela presença, pela atenção de todos.
Passo, então, a palavra ao Sr. Marcelo Lacerda, por videoconferência, Diretor de Políticas Públicas do Google.
R
O SR. MARCELO LACERDA (Para expor. Por videoconferência.) - Bom dia, vocês me ouvem?
O SR. PRESIDENTE (Hamilton Mourão. Bloco Parlamentar Aliança/REPUBLICANOS - RS) - Perfeito, Marcelo. Pode prosseguir.
O SR. MARCELO LACERDA (Por videoconferência.) - Obrigado, Senador Mourão. Gostaria de agradecer o convite ao Google e cumprimentar a todos e todas na pessoa do Senador.
Bom, meu nome, como o senhor falou, é Marcelo Lacerda, sou o Diretor de Relações Governamentais e Políticas Públicas do Google no Brasil.
Eu queria começar a nossa fala aqui reforçando o repúdio a toda e qualquer forma de violência em ambiente escolar e reafirmar a nossa solidariedade às vítimas e às suas famílias. Agradeço também o convite para participar desse debate, porque nos dá a oportunidade de mostrar o nosso compromisso em contribuir com um ambiente cada vez mais seguro na internet, em especial para os nossos adolescentes e crianças.
O Google chegou aqui no Brasil, Senador, em 2005 e, ao longo desses 19 anos, a gente vem fazendo um trabalho contínuo, robusto e árduo para manter as pessoas cada vez mais seguras online.
Nossos investimentos em segurança e inovação, ao longo de todos esses anos, se mostraram vitais na medida em que o cenário de ameaças cibernéticas evolui. E, quando se trata de crianças e das suas famílias que usam as nossas plataformas do Google e do YouTube, mantê-las seguras é a nossa prioridade. Por isso que a gente trabalha incansavelmente investindo não só em tecnologia para garantir que nossos produtos sejam seguros para as crianças e os adolescentes, mas também usando todos os recursos disponíveis para entender como essas ameaças evoluem. E é por isso que a nossa abordagem para esse desafio está baseada em três diferentes frentes de trabalho: a primeira delas é a cooperação com autoridades e a sociedade civil para que a gente possa manter o bem-estar das pessoas nos países em que a gente opera; o segundo pilar é a criação de ferramentas robustas para navegação segura das famílias em todos os nossos produtos; e o terceiro e último pilar é o desenvolvimento, a atualização e principalmente a aplicação constante das nossas regras de uso e diretrizes das comunidades.
Vou discorrer um pouco sobre cada uma dessas. Então o primeiro pilar é a nossa cooperação contínua com as autoridades e grupos da sociedade civil para manutenção da segurança das pessoas que fazem uso dos nossos produtos. A gente toma medidas firmes contra, por exemplo, material de abuso sexual infantil e qualquer conteúdo que venha promover o abuso ou coloque crianças e adolescentes em risco. A gente conta com equipes de diversas áreas que são treinadas e atualizadas, que trabalham de forma constante para identificar, remover e denunciar esse tipo de material, principalmente de abuso sexual infantil.
Além disso, a gente faz uso de tecnologia de ponta como classificadores de inteligência artificial e correspondência de Hash para identificar e denunciar material de abuso sexual infantil de forma rápida e eficiente. Esse material, uma vez identificado, é prontamente denunciado ao Centro Nacional para Crianças Desaparecidas e Exploradas - a sigla em inglês é NCMEC. É uma agência americana que reporta essas denúncias para as autoridades locais de forma global. Aqui, no caso do Brasil, para a Polícia Federal.
Eu queria compartilhar aqui rapidamente alguns números desse trabalho. No ano passado, para vocês terem uma ideia, a gente teve quase 8 milhões de conteúdos desse tipo denunciados pelo Google e pelo YouTube. Além disso, também no ano passado, em 2023, a gente desativou mais de 500 mil contas em razão desse trabalho.
R
A gente acredita que é importante também dar transparência para esses números e para esse trabalho. Por isso, tudo isso pode ser encontrado no nosso relatório de transparência, que é publicado uma vez por ano e contém os dados de todos esses esforços no combate ao material de abuso sexual infantil, incluindo os números de denúncias feitos ao NCMEC. E a gente não para por aí. A gente também colabora constantemente com o poder público no fornecimento de dados para subsidiar investigações sobre indivíduos ou grupos que fazem apologia a vários tipos de violência, inclusive violência nas escolas, incluindo aí as solicitações do Laboratório de Operações Cibernéticas do Ministério da Justiça.
E eu queria compartilhar com vocês alguns números também. No período entre março e abril de 2023, em que houve uma grande repercussão nacional de casos de ataques em escolas, o Google recebeu mais de 700 pedidos emergenciais das autoridades brasileiras tendo por base o tema terrorismo ou ataque em escolas que foram prontamente respondidos pelos nossos times. Este ano já recebemos cerca de 90 pedidos emergenciais também relacionados a ataques em escolas e que foram prontamente atendidos. Por meio dessas requisições, a gente fornece dados que auxiliam na identificação e localização desses potenciais ofensores. Além disso, a gente recebe diariamente dezenas de pedidos extrajudiciais e ordens judiciais de autoridades brasileiras requisitando dados de usuários para fins de investigações criminais, conforme também disponibilizado no nosso relatório de transparência.
Bom, por último, nesse pilar de trabalho com as autoridades e com a sociedade civil, eu queria destacar a questão da educação. A educação ativa e constante das pessoas também é fundamental. Para isso, a gente estabelece parcerias com instituições como a SaferNet, com quem, no ano passado, a gente lançou um guia de orientações claras para os criadores de conteúdo falarem sobre ataques em escolas de forma consciente. Essa cartilha, intitulada Como falar sobre ataques violentos nas escolas - Do's e Don'ts para criadores de conteúdo, ou faça ou não faça para os criadores de conteúdo, está disponível na internet e é mais uma ação que a gente tem para fortalecer a segurança e o bem-estar da comunidade, tanto dos criadores quanto dos usuários das nossas plataformas.
Bom, em relação ao segundo ponto, eu queria destacar as ferramentas com as quais a gente já endereça o tema central desta audiência, que é a segurança das nossas famílias, das nossas crianças e adolescentes. A busca do Google, que eu acredito aqui que todos devem conhecer, é a nossa ferramenta de pesquisa que indexa e organiza todas as páginas com o conteúdo disponível na internet, na web. Visando à segurança dos nossos usuários, a gente criou uma ferramenta de filtragem chamada busca segura, que ajuda exatamente a filtrar conteúdo explícito nos resultados da busca. E o que são esses resultados explícitos? São aqueles conteúdos que incluem conteúdo de cunho sexual explícito como pornografia, violência e imagens sangrentas. Hoje esse recurso já é padrão para todos os usuários com menos de 18 anos. E, na verdade, não só para os usuários com menos de 18 anos. Para todos os usuários, esse recurso já é padrão.
R
Então, caso algum tipo dessas imagens, seja de conteúdo sexual explícito, violência ou imagens sangrentas, apareça na busca, todas essas imagens são mostradas borradas - é uma configuração padrão para todas as pessoas, mesmo aquelas que não ativaram a busca segura do Google.
Além disso, também em parceria com a SaferNet, a gente oferece um canal de denúncia no topo da busca antes de resultados para termos de pesquisas relacionadas a conteúdo de abuso sexual infantil. E a gente, obviamente, também oferece canais para que qualquer pessoa possa denunciar de modo fácil esse tipo de conteúdo nos nossos produtos.
E agora falando um pouco do YouTube, a gente trabalhou para lançar, já em 2015, o YouTube Kids, que é um aplicativo separado e totalmente seguro para a navegação das crianças, além das contas supervisionadas para adolescentes, ambos com total controle para as famílias e disponíveis para todos os dispositivos, seja celular, TV conectada ou computadores.
E aqui, só para terminar um último exemplo sobre como a gente disponibiliza ferramentas para que as famílias possam gerenciar a navegação dos seus filhos na internet, a gente também disponibiliza, desde 2017, o Family Link, que é um aplicativo que dá aos pais e responsáveis ferramentas para que possam ajudar seus filhos a tomarem decisões inteligentes quando eles começarem a usar seus dispositivos. Com o Family Link, esses pais e responsáveis podem gerenciar desde a instalação de aplicativos, controlar o tempo de uso ou mesmo bloquear remotamente o dispositivo dos seus filhos. Se os pais desejam gerenciar o telefone dos seus filhos ou estão pensando em dar aos seus filhos, por exemplo, um Chromebook, um computador ou um dispositivo Android, o Family Link ajuda esses pais a definir regras básicas para os seus filhos enquanto eles exploram a tecnologia. E, só para deixar claro, o produto é gratuito.
Bom, são produtos e ferramentas, como eu falei, gratuitos e acessíveis que demonstram o compromisso do Google para garantir uma experiência segura para as crianças e adolescentes na internet e, ao mesmo tempo, empoderam os pais e as famílias no acompanhamento do que seus filhos acessam a web, contribuindo para a gente minimizar esses riscos nos jovens na internet.
Bom, chego ao terceiro e último ponto da minha fala, no qual quero destacar brevemente como desenvolvemos e aplicamos as nossas políticas e diretrizes de comunidade, ou seja, as regras que estabelecemos para a segurança e o bom funcionamento dos nossos produtos e serviços. E aqui eu vou destacar o YouTube. As políticas do YouTube abrangem uma ampla gama de questões e são elaboradas exatamente com base em contribuições e no feedback de especialistas externos. E um exemplo dessa política, por exemplo, é a nossa política de conteúdo violento ou explícito, que não permite conteúdo mostrando incitação à violência contra indivíduos ou um grupo definido de pessoas, lutas envolvendo menores, filmagens envolvendo acidentes rodoviários, desastres naturais, cenas derivadas de guerras e ataques terroristas, pessoas com ferimentos graves ou outros cenários com a intenção de chocar ou causar repulsa nos espectadores.
Uma outra política que eu gostaria de destacar também é a política sobre suicídio ou automutilação, que não permite conteúdo que promova ou glorifique o suicídio ou automutilação, incluindo aqueles direcionados a menores.
E, por último, destaco a política contra assédio e bullying, que também não permite conteúdo carregado com a intenção de envergonhar, enganar ou insultar uma pessoa ou um menor.
R
Esses são só alguns exemplos das políticas que a gente desenvolve e trabalha diariamente para aplicar nos nossos produtos e serviços, sempre com o intuito de promover uma experiência segura para o público, incluindo as crianças e adolescentes.
E só para que vocês tenham uma referência, de janeiro a junho deste ano de 2024, a gente já removeu proativamente mais de 1,6 milhão de vídeos que violaram as políticas do YouTube no Brasil. Não é um trabalho simples; pelo contrário, só para vocês terem uma ideia, no YouTube, são carregados 500 horas de vídeos por minuto. Por isso, esse trabalho envolve a atualização constante dessas regras para que a gente possa fazer frente às novas ameaças que surgem todos os dias. Mas é uma luta que a gente entende que deve ser travada.
E é por isso que a gente segue firme, Senador, nesse trabalho, em colaboração com o Governo, com as autoridades de investigação, com a Justiça e com a sociedade civil, com o objetivo de prevenir e coibir novos ataques. A gente tem a certeza de que a internet é compartilhada por todos e seguimos firmes nos nossos esforços para torná-la um lugar cada vez mais seguro. Espero que essa breve intervenção possa dar uma ideia das políticas que a gente implementa para navegação e conteúdo familiar, bem como das ferramentas de segurança online e de como estamos comprometidos em preservar a integridade das crianças e adolescentes.
Muito obrigado.
O SR. PRESIDENTE (Hamilton Mourão. Bloco Parlamentar Aliança/REPUBLICANOS - RS) - Agradeço, então, ao Sr. Marcelo Lacerda. Foi muito objetiva a sua apresentação sobre os três pilares que o Google utiliza na defesa dos nossos jovens, dos nossos adolescentes, cooperando com as autoridades, as ferramentas para a navegação segura, as regras de uso. Óbvio que é uma tarefa hercúlea, pelos números que foram colocados só no primeiro semestre deste ano, 1,6 milhão de vídeos removidos, coisas que a gente até desconhece, não é, Delegado? (Pausa.)
Muito bem.
Passarei, então, a palavra agora para a Sra. Roberta Jacarandá, Diretora de Políticas Públicas do Conselho Digital, associação por uma internet livre, segura e responsável.
Sra. Roberta, a senhora tem até dez minutos.
A SRA. ROBERTA JACARANDÁ (Para expor.) - Muito obrigada.
Bom dia a todos. Eu queria cumprimentar o Senador Hamilton Mourão e todos aqui presentes ou online.
Eu sou Roberta Jacarandá, sou head de relações institucionais, Diretora de Políticas Públicas do Conselho Digital, que é uma entidade sem fins lucrativos, sem afiliações políticas, que estuda, coordena e representa o ecossistema dos aplicativos de internet.
Eu queria agradecer a oportunidade de falar hoje desse assunto de tamanha importância e relevância, mas também bastante sensível, complexo e que vai nos exigir soluções reativas e preventivas de forma integrada e colaborativa.
Só para falar um pouquinho do contexto brasileiro, a gente tem uma população estudantil de aproximadamente 25,5 milhões de estudantes no ensino fundamental, que geralmente vai de 6 a 14 anos, e 7,9 milhões de estudantes do ensino médio, que geralmente vai de 14 a 18 anos. Cada aluno está inserido num ecossistema que inclui pais, irmãos, professores, outros funcionários escolares, a comunidade, ampliando significativamente o impacto social e comunitário das escolas. E esses números destacam a importância de a gente garantir um ambiente seguro e protegido para todos os envolvidos no sistema educacional.
R
O Projeto de Lei 2.264, que é objeto dessa audiência pública, propõe alterações no Estatuto da Criança e do Adolescente e também no marco civil da internet, focando em protocolos específicos para a divulgação de crimes no ambiente escolar. E entre as medidas a gente tem a proibição de divulgação da identidade do autor, restringindo a divulgação de informações que possam identificar esse agressor; proibindo a publicação de conteúdos que glorifiquem esse agressor - então, cartas, manifestos, vídeos, qualquer coisa que possa de alguma forma tentar justificar as ações desse agressor - e, no seu art. 2º, o projeto traz a responsabilidade daqueles que têm controle sobre o poder editorial para implementar esses ajustes e fazer o que seja necessário para alcançar os objetivos elencados no projeto.
A gente acredita que o cumprimento dessa diretriz pelos produtores de conteúdo é medida válida e suficiente para desincentivar o compartilhamento de notícias que contenham esses elementos prejudiciais. Ou seja, o projeto consegue atacar a divulgação de crime cometido com o uso de violência em ambiente escolar ao trazer a responsabilização do agente, independente do meio que ele utilize. Então, podem ser mídias, pode ser radiofusão, o projeto cobre isso.
Mas o projeto também traz uma terceira medida, que é modificar o regime de responsabilidade de provedores de aplicação da internet para que eles se tornem subsidiariamente responsáveis pelos danos decorrentes da não remoção desses conteúdos - da não remoção em tempo real. Essa terceira medida tem um objetivo louvável, mas tem uma redação extremamente abrangente, o que nos faz discutir a viabilidade técnica dessa medida.
Ao exigir que as plataformas saibam em tempo real de cada uma das publicações dos incidentes, o projeto desconsidera alguns desafios técnicos. O primeiro deles é o volume de conteúdo. Até como dito pelo Marcelo, no YouTube são geradas 500 horas por minuto ou 30 mil minutos de vídeo por segundo; no Instagram, mais de mil publicações por segundo. Esse volume torna extremamente desafiador monitorar e moderar todo o conteúdo em tempo real. Principalmente, se a gente considerar a redação abrangente que o projeto traz, com expressões como "qualquer outro elemento", "qualquer outro tipo de documento", "qualquer outro adereço utilizado". Essa abrangência torna a implementação desse comando tecnicamente inviável.
O segundo desafio é a limitação dos sistemas automatizados e dos sistemas manuais também. Embora as plataformas usem algoritmos de inteligência artificial para identificar conteúdo violento ou prejudicial, essas tecnologias não são totalmente perfeitas. Elas podem falhar em entender o contexto de imagens, vídeos e textos. Isso pode levar a dois problemas: conteúdo nocivo escapando de detecção e conteúdo inofensivo sendo removido por engano.
Imagine um cenário hipotético no caso de um atentado a uma escola. Apoiadores desse agressor passam a divulgar imagens desse agressor quando era criança, como forma de um apoio disfarçado. Imediatamente, o algoritmo não vai identificar aquilo como um problema. Até ele entender o contexto daquelas imagens, esses conteúdos podem circular, e aí, quando você tem o entendimento do contexto, aquele conteúdo passa a ser derrubado. Mas isso não vai acontecer em tempo real porque ali é a imagem de uma criança.
A gente tem também usuários mal-intencionados que frequentemente encontram maneiras de contornar as diretrizes da plataforma, utilizando palavras, imagens codificadas, memes e outras formas de comunicação que passam despercebidas pelos sistemas automatizados. Mais uma vez, a questão do contexto.
R
E esses fatores tornam extremamente difícil garantir que nenhum conteúdo violento será publicado, mesmo com sistemas de moderação avançado, mesmo com investimento pesado nesses sistemas.
A terceira questão que a gente gostaria de abordar são as implicações do regime de responsabilidade legal.
Remoção agressiva de conteúdo como forma de proteção contra uma possível responsabilização deve acontecer, uma vez que, se você vai ser responsabilizado, você começa a remover mais conteúdos ali preventivamente, e pode resultar em limitação à livre circulação de informação e ao próprio debate público.
O monitoramento ativo em tempo real de todas as publicações relacionadas a incidentes violentos também é considerado tecnicamente inviável.
Sistemas de notificação: a ausência de um sistema de notificação oficial, combinado com a falta de diretrizes claras do que precisa ser derrubado, dificulta também uma ação rápida.
Então, o que seria razoável para a gente garantir que todos estejam aliados com o mesmo objetivo dessa possível lei?
Primeiro, eu gostaria de trazer uma iniciativa global, já que esse problema da violência em ambiente escolar não é um problema exclusivo do Brasil. Vários países e empresas de tecnologia, incluindo os nossos associados, já trabalham no sentido de combater a proliferação de conteúdos extremistas e terroristas na internet dentro do chamado Christchurch Call.
Eu não sei quantos de vocês aqui vão lembrar, mas, em março de 2019, houve um atentado na Nova Zelândia em que um atirador matou 51 pessoas. Parte desse atentado ele conseguiu transmitir pelas redes. Esse atentado ficou conhecido como o atentado de Christchurch. Por conta disso, uma iniciativa voluntária multilateral e de âmbito global foi criada, chamada Christchurch Call, em maio de 2019. Essa iniciativa foi liderada, à época, pela então Primeira-Ministra da Nova Zelândia e pelo Presidente da França.
O Christchurch Call tem como objetivo unir governos, empresas de tecnologia e a sociedade civil para combater a proliferação de conteúdos violentos na internet. A iniciativa busca equilibrar a liberdade de expressão com a necessidade de segurança, promovendo medidas como a remoção rápida de conteúdos violentos e o desenvolvimento de ferramentas que impeçam a transmissão desses atos online.
Entre os compromissos assumidos pelos participantes, estão a criação de protocolos mais eficientes para responder a crises, melhorias na moderação de conteúdo e uma colaboração maior entre os governos e empresas tecnológicas para prevenir o uso da internet como ferramenta de radicalização. Mas, infelizmente, o Brasil ainda não é signatário dessa iniciativa.
Com o que as empresas se comprometeram dentro dessa iniciativa? Nós temos ali: prevenir a disseminação de conteúdo terrorista extremista violento, incluindo melhorar a detecção e a remoção de conteúdos; desenvolver e implementar sistemas automatizados ou manuais que detectem e removam rapidamente esses conteúdos; melhorar os controles para evitar a transmissão de atos terroristas online, incluindo a criação de protocolos de resposta rápida; aprimorar a transparência de moderação de conteúdo; apoiar pesquisas e colaborar com a sociedade civil para entender a dinâmica da radicalização online e melhorar suas práticas, além de engajar na promoção de contra narrativas; compartilhar tecnologias e ferramentas para a detecção e a remoção de conteúdo em diferentes plataformas.
Esses compromissos têm contribuído para um ambiente digital cada vez mais seguro ao mesmo tempo em que preservam a liberdade de expressão e a privacidade dos usuários, equilibrando a remoção de conteúdos violentos com os direitos fundamentais.
Compromissos como o Christchurch Call são frequentemente mais eficientes do que uma legislação, primeiramente, porque adotam uma abordagem colaborativa que permite uma adaptação rápida, pelas mudanças da internet e pelas complexidades do ambiente digital.
R
Como ela é uma ferramenta colaborativa, você consegue mudar os protocolos de forma mais rápida e responder mais rápido aos desafios que vão aparecendo, e que mudam ao longo do tempo.
Além disso, em vez de impor penalidades automáticas, o Christchurch Call incentiva as empresas a desenvolverem as próprias soluções tecnológicas para detectar e remover conteúdos, compartilhando essas soluções entre as empresas, dentro da iniciativa. Isso cria um ambiente de inovação e de responsabilidade compartilhada, onde as empresas são incentivadas a agir de forma abrangente para evitar consequências legais imediatas.
Então, pelas razões expostas aqui, defendemos que a solução mais eficaz para lidar com a violência escolar e a disseminação de seus impactos nas mídias envolve uma combinação de protocolos preventivos, responsabilização bem calibrada e uma abordagem educativa.
Nesse sentido, acreditamos que o art. 21-A do PL deve ser reconsiderado, em especial seu §2º.
Quero agradecer a oportunidade e encerro a minha apresentação.
Muito obrigada.
O SR. PRESIDENTE (Hamilton Mourão. Bloco Parlamentar Aliança/REPUBLICANOS - RS) - Agradeço à Sra. Roberta pela exposição feita.
Obviamente, é o objetivo da nossa audiência ouvir a sociedade para que o projeto realmente atinja os seus objetivos.
Então, em relação à questão da responsabilização dos provedores, mencionada, o art. 21-A, é um dos pontos que nós podemos melhorar, conforme aqui muito bem colocado pela senhora.
Passo a palavra agora, por videoconferência, para a Sra. Alice Bernardo Voronoff, Consultora da Associação Brasileira de Emissoras de Rádio e Televisão (Abert).
A SRA. ALICE BERNARDO VORONOFF (Para expor. Por videoconferência.) - Bom dia a todos. Na pessoa do nosso Senador Mourão, aqui, quero desejar bom trabalho a todos. A Abert agradece a oportunidade de participar desta discussão, que é tão relevante. Ela, hoje, representa mais de 3 mil emissoras de rádio e televisão.
Achamos importante, de fato, trazer esse tema à baila sob a ótica das preocupações e dos compromissos dos veículos de comunicação. Sem dúvida, a preocupação com o efeito contágio é fundamental, no contexto de crimes com uso de violência em ambiente escolar, que tem chocado a todos nós enquanto sociedade, pais e mães.
Mas a Abert entende que a contribuição que ela pode dar para esse olhar e para o endereçamento desse problema, que é um problema da sociedade, diz respeito aos meios e modos de lidar com esse problema.
Evidentemente, os fins são muito louváveis, mas acho que, na linha do que a Roberta veio falando em relação às plataformas e o Marcelo, calibrar os meios é muito importante para que a gente não tenha, ao final, efeitos indesejáveis, efeitos opostos aos esperados ou que agridam outros valores constitucionais.
E, para falar um pouquinho ali das restrições que estão colocadas à imprensa, aos veículos de comunicação, de conteúdo jornalístico, o dispositivo do projeto de lei é bastante amplo.
Então, ali tem uma série de restrições à divulgação de nome, imagem ou qualquer outro elemento que permita a identificação do autor: carta, manifesto, arma, roupa, acessórios, sob pena de cometimento de infrações administrativas.
R
A Abert entende que essas restrições esbarram no sistema constitucional de proteção da liberdade de expressão e, sobretudo, da liberdade de imprensa no sentido de que, dentro da nossa sistemática constitucional, essas liberdades, que têm tanto uma função material de expressar autonomia humana e dignidade, mas também serem ali veículos de formação de um mercado livre de ideias, que é fundamental para o Estado democrático de direito, foram especialmente protegidas ali no art. 220 da Constituição, que foi muito enfático.
Então, esse dispositivo, trazendo-o aqui à tona, vai dizer:
Art. 220. A manifestação do pensamento, a criação, a expressão e a informação, sob qualquer forma, processo ou veículo não sofrerão qualquer restrição, observado o disposto nesta Constituição.
O §2º veda todo e qualquer forma de censura, e o §1º trata especificamente da liberdade de imprensa e vai dizer:
§1º Nenhuma lei [então, nem a lei] conterá dispositivo que possa constituir embaraço à plena liberdade de informação jornalística em qualquer veículo de comunicação social, observado o disposto no art. 5º, [...] [alguns incisos, que vão falar de direito de resposta, de vedação ao anonimato, de inviolabilidade da intimidade, da vida privada e de alguns cuidados].
Então, esse é um dispositivo que enaltece e diz expressamente que, no ordenamento jurídico, a regra é a vedação da censura - ela é absolutamente vedada -, e, na forma do art. 220, §1º, se deve prestigiar essa ampla divulgação do conteúdo jornalístico, o que não quer dizer que seja uma ampla divulgação irresponsável.
E aí, nesse sentido, me parece importante trazer que as emissoras também estão muito comprometidas na linha do que foi falado aqui pelos colegas, mas as emissoras de rádio e televisão têm uma história muito importante com a criação das suas políticas editoriais, inclusive agora voltadas para essa temática da violência nas escolas.
Recentemente foi divulgado, por exemplo, em abril de 2023, quando teve uma outra audiência pública, que os veículos do Grupo Globo já tinham, há anos, como política publicar apenas uma única vez o nome e a foto de autores de massacres, como aquele ocorrido em Blumenau, sempre com o objetivo de evitar glorificar essas pessoas e esses atos, e hoje a política é ainda mais restritiva: o nome e a imagem de autores de ataques jamais serão publicados, assim como os vídeos das ações. Então, existe uma preocupação que é muito cara aos veículos de comunicação que já atuam no sentido da autorregulamentação para que esses resultados de uma imprensa responsável sejam alcançados.
Sob a ótica, então, da contribuição que a Abert vem dar, esse ponto a gente gostaria de ressaltar e também alguns pontos importantes relacionados à relação entre a medida que está sendo prevista ali no dispositivo e os resultados esperados.
Quando a gente fala de medidas do poder público e de proporcionalidade dessas medidas, um elemento muito importante é o da adequação. Então, a medida precisa ser adequada para gerar os resultados que são pretendidos. E aí, nesse caso, chamou a atenção da Abert que o dispositivo é muito amplo. Então, ele, na verdade, traz restrições para todo e qualquer crime cometido em ambiente escolar. E, da maneira como o dispositivo está redigido, isso pode abarcar não apenas massacres, mas também, eventualmente, roubos, estupros, agressões e outros crimes cuja divulgação é também de interesse da sociedade e que são importantes de serem reportados.
R
Então, pelo menos com a amplitude com que foi redigido, a gente pode ter um efeito paradoxal de desinformação, ao invés de maior informação. Além do que, como dito, os veículos de comunicação seguem políticas editoriais que são importantes, e aí eles têm a possibilidade de, nessas narrativas, informarem de maneira responsável. Isso evita que esse efeito de contágio, de disseminação - que hoje, infelizmente, acaba sendo gerado por, por exemplo, matérias circuladas ou conteúdo disseminado na deep web e no exterior - acabe, justamente, chegando ao que não se quer. Então, os veículos de comunicação têm um papel importante, inclusive para aumentar o grau de informação na sociedade.
Ainda sob a ótica da proporcionalidade, parece à Abert que os caminhos de autorregulação são, de fato, muito eficientes e eficazes no controle da informação irresponsável. Inclusive, na audiência pública que aconteceu em abril de 2024, o Senador Esperidião Amin fez uma menção, abro aspas: "O contágio desses ataques em escolas é decorrente da divulgação". E aí ele pergunta: "Nós queremos censurar?". Não, nós não queremos nos autocensurar. É isso que os meios de comunicação fazem, não por lei, mas é autocensura quando não divulgam suicídios, por exemplo, o que está dentro das políticas. Esse é um limite. E por que não divulgam? Para não incentivar.
Nesses casos, a ausência de excessos é boa, divulgar com detalhes enaltece a barbárie. Na deep web, por exemplo, o autor desses massacres vai ser idolatrado. Isso é matéria muito mais de autorregulação do que de lei, na linha do que vem sendo feito por esses veículos. E aí, até em linha com o que a Roberta falou, parece à Abert que uma restrição que seja excessiva vai ter um efeito oposto, de silenciamento e de desinformação.
Já caminhando aqui para o fim da minha participação, a pergunta que se faz, nessa altura, é: bom, então, não há controle sobre possíveis excessos ou violações? E, aí, no ordenamento brasileiro, a lógica é de responsabilização, a posteriori, da imprensa. Cito um trechinho do que foi decidido pelo Supremo Tribunal Federal, na ADPF 130: "Primeiramente, assegura-se o gozo dos sobredireitos de personalidade, em que se traduz a 'livre' e 'plena' manifestação do pensamento, da criação e da informação. Somente depois é que se passa a cobrar do titular de tais situações jurídicas ativas um eventual desrespeito a direitos constitucionais alheios, ainda que também densificadores da personalidade humana".
Então, a fórmula que se extrai da Constituição de proteção a interesses privados e coletivos é de uma responsabilização sempre a posteriori, para que o efeito perverso da censura não se faça verificar, inclusive para assentar a responsabilidade, que o seja, dos veículos, e sempre sob a ótica de que não é pelo temor ao abuso que se vai proibir, ex ante, o uso de uma liberdade de informação assegurada de maneira tão veemente pelo Constituinte.
R
São essas, basicamente, as considerações da Abert. A Abert ainda entende e enaltece a iniciativa desta Casa Legislativa no que diz respeito ao olhar as plataformas, a preocupação de olhar as plataformas na linha do que disse a Roberta de que se possa desenhar um modelo de responsabilização que seja factível, que seja coerente, que seja ajustado a essas práticas e que leve em consideração o poder de disseminação desse conteúdo, o que já vai sendo tratado tanto pelas políticas internas, mas sob a ótica da preocupação do Senado Federal.
Muito obrigada pela participação.
O SR. PRESIDENTE (Hamilton Mourão. Bloco Parlamentar Aliança/REPUBLICANOS - RS) - Agradeço à Sra. Alice Voronoff, que coloca a posição da Abert, obviamente, e traz à luz o texto constitucional, sempre na defesa da liberdade de imprensa, que nós destacamos aqui que é uma questão do balanço que o projeto tem que ter, do equilíbrio que o projeto tem que ter, a questão da censura - apesar de que, ultimamente, por decisões de alguns Ministros da Suprema Corte, a censura tem ocorrido de forma contumaz. Em relação ao policiamento das emissoras ou dos grupos de divulgação da imprensa sobre notícias, tivemos agora, recentemente, a divulgação de um vídeo de um Senador nosso, um fato de uma questão íntima dele sendo colocada... Onde estava a ética nessa hora dessa empresa? A empresa jogou a ética no lixo. Sempre - aí eu cito aqui o que a Sra. Alice falou - a lógica é responsabilização a posteriori, mas o dano está feito. Essa é a realidade.
Eu passo a palavra agora ao Sr. Gustavo Borges, Diretor do Laboratório de Direitos Humanos e Novas Tecnologias, LabSul.
O SR. GUSTAVO BORGES (Para expor.) - Bom dia, Senador, e bom dia a todos.
Em nome do LabSul, Laboratório de Direitos Humanos e Novas Tecnologias, quero agradecer o convite desta CCDD para participar dessa audiência pública. Eu sou Gustavo Borges, sou Diretor-Executivo e também Professor de Direitos Humanos e Novas Tecnologias na Universidade do Extremo Sul Catarinense.
O LabSul é uma associação civil sem fins lucrativos, é um centro independente de pesquisa e que atua nessa interface entre direitos humanos e novas tecnologias. A nossa colaboração nesta audiência começa primeiro registrando a importância de travar este debate sobre o enfrentamento da divulgação de crimes cometidos com o uso de violência no ambiente escolar. É uma discussão extremamente relevante se a questão da violência é um problema social e, para além disso, também envolve questões de segurança pública, saúde pública e merece muito a nossa atenção.
A nossa contribuição vai ser feita a partir de um olhar dos direitos humanos. Nosso objetivo é aprimorar a precisão técnica legislativa, assim como apresentar algumas recomendações que entendemos necessárias para a busca da segurança de todos dentro ou fora do ambiente digital.
O projeto, então, busca acrescentar e propõe acrescentar o art. 21-A ao marco civil da internet para obrigar as plataformas digitais que disponibilizem conteúdos gerados por terceiros a adotarem medidas de restrição dessa disseminação de conteúdo. Porém, é importante dizer que essa previsão legal proposta, como está, a nosso ver, cria uma espécie de dever jurídico genérico de atuação proativa, na medida em que o art. 21 - que, no nosso ponto de vista, merece uma reflexão e uma revisão -, traz a previsão de que sejam adotadas medidas proporcionais e adequadas para restringir a disseminação. Vejam que medidas proporcionais e adequadas podem gerar uma espécie de cláusula aberta, um conceito indeterminado, uma dificuldade de interpretação e até mesmo uma espécie de insegurança jurídica na sua aplicação.
R
Então, o §2º, além disso, traz a previsão da responsabilidade subsidiária das plataformas por danos decorrentes da não adoção dessas medidas que seriam proporcionais e adequadas, de modo que nós visualizamos, Senador, algumas possíveis consequências, como falou a colega que nos antecedeu, que podem ser consequências não desejadas. Por isso, há necessidade de uma reflexão, em razão da complexidade jurídica envolvida em um comando legal com um conceito indeterminado, o que não significa dizer que não seja importante a criação de um protocolo eficaz, ágil a ser debatido, mas esses limites não estão claros no texto legal como ele se encontra.
Quando nós debatemos responsabilidade civil - eu sou professor de responsabilidade civil há 20 anos já -, quando se pretende responsabilizar alguém, é fundamental a identificação de alguns requisitos estruturantes da responsabilidade. Não basta somente a intenção, mas é necessária a configuração de elementos da obrigação de indenizar, como nós a chamamos. Então, parece-nos que, sem uma notificação clara ou mesmo uma ordem judicial, pode-se criar uma viabilidade em relação à identificação imediata desse conteúdo nocivo.
Nós vamos apresentar algumas recomendações, já que se pretende estabelecer uma espécie de dever de monitoramento ativo em tempo real. Então, isso seria muito complexo. Como alguns dados dos colegas que me antecederam, vou trazer alguns. Como os do Dr. Marcelo, que me antecedeu, são 500 horas de conteúdo que são subidas, por upload, por minuto, no YouTube; são ali cerca de 46 mil vídeos postados, no TikTok, por minuto; são 95 mil pesquisas, por segundo, feitas no Google; são aproximadamente 1 bilhão de stories postadas, por dia, no Facebook; e nós temos aproximadamente 47 mil posts de fotos no Instagram.
Então, esse ecossistema cria uma complexidade de um acompanhamento, em tempo real, ainda que sejam implementadas questões técnicas. De fato, algumas plataformas têm toda uma preparação, uma moderação de conteúdo, existem barreiras técnicas e, no nosso ponto de vista, obviamente, jurídicas. E o nosso ponto de vista a ser destacado, o nosso olhar, são os direitos humanos. Quando se trata de uma vulneração de um direito humano, uma restrição, uma mitigação, nós estamos falando de liberdade de expressão. Quando se pretende suprimir a liberdade de expressão, restringir, vulnerar por um ente privado, eu preciso, entre parênteses, é necessária a observância de critérios, critérios objetivos bem claros, porque nós estamos diante de um direito humano que é de todos nós, que é essencial, estrutural. E o Pacto Internacional sobre Direitos Civis e Políticos traz, inclusive, entre as suas previsões, o chamado teste tripartite, para estabelecer critérios de restrição de direitos humanos. E um deles é o princípio da legalidade, ou seja, eu só posso restringir um direito humano, portanto a liberdade de expressão, quando houver uma lei preexistente, regras claras preexistentes - isto está no Pacto Internacional sobre Direitos Civis e Políticos -, porque, senão, nós podemos incorrer no risco de uma censura, ou mesmo... Porque nós estamos acostumados a estar na publicação como outro, mas imaginem que esse é o nosso direito, e é um direito que compete a cada um.
R
Então, o espaço desta audiência pública ocorre num momento muito importante, já que permite uma discussão a respeito dos rumos e de algumas possíveis correções. Obviamente, a violência cometida dentro do ambiente escolar é uma temática que precisa ser combatida com veemência. Contudo, uma responsabilidade advinda de conteúdos e descumprimentos de protocolos exigiria maior cuidado na técnica legislativa.
De modo que penso que seria necessária uma revisão do art. 21-A, até para que o trabalho de aplicabilidade, viabilidade prática e proteção de direitos humanos seja eficaz. Também é muito importante, no nosso ponto de vista, como recomendação, o estabelecimento de um protocolo claro e eficiente de comunicação, porque nós temos um fluxo de comunicação, é necessário um fluxo com as plataformas para que atuem rapidamente quando enfrentam questões emergenciais, e ainda, sobretudo, são fundamentais programas de educação digital. E isso nós estudamos bastante no laboratório. A educação digital promove o empoderamento, uma reflexão crítica, e essas iniciativas vêm sendo adotadas em diversos países com muita eficiência, já que crianças e adolescentes são formados a, primeiro, verificarem, checarem a veracidade das informações e, segundo, a não compartilharem.
(Soa a campainha.)
O SR. GUSTAVO BORGES - Dessa maneira, colocamo-nos inteiramente à disposição do Senado para um diálogo contínuo, colaborativo, com o objetivo de enfrentarmos essas questões complexas, sempre reafirmando o nosso compromisso com os direitos humanos, o direito à liberdade de expressão, e agradecemos pelo convite.
Muito obrigado, Senador.
O SR. PRESIDENTE (Hamilton Mourão. Bloco Parlamentar Aliança/REPUBLICANOS - RS) - Agradeço ao Dr. Gustavo Borges, que não é o nadador.
O SR. GUSTAVO BORGES (Fora do microfone.) - Sem medalhas.
O SR. PRESIDENTE (Hamilton Mourão. Bloco Parlamentar Aliança/REPUBLICANOS - RS) - Sem medalhas, não é? (Risos.)
Ele, obviamente, vai no mesmo caminho que já foi apresentado aqui pela Roberta, na questão do art. 21-A, que começa, então, a parecer que nós podemos melhorá-lo, de forma que ele atinja efetivamente o seu objetivo. E, apesar de ter uma expressão nele que é dentro da capacidade, dentro do limite de cada plataforma, eu concordo que está muito genérico isso aí e que a gente tem que ser mais objetivo. Toda vez que a gente coloca critérios objetivos, é o famoso protocolo, como foi citado aqui pela Roberta, o de Christchurch. Então, nós temos caminhos para melhorar esse projeto efetivamente.
R
Eu passo a palavra agora ao Sr. Samir Nobre, Diretor-Executivo da Associação Brasileira de Rádio e Televisão (Abratel), que vai falar por videoconferência.
O SR. SAMIR NOBRE (Para expor. Por videoconferência.) - Bom dia a todas e a todos. Bom dia também ao Exmo. Senador Hamilton Mourão, que preside esta audiência pública. Aproveito para cumprimentar todos os Senadores e servidores do Senado que acompanham esta audiência, assim como os meus colegas painelistas.
Em primeiro lugar, eu gostaria de agradecer ao Senador Hamilton Mourão pela iniciativa da convocação desta audiência pública, para tratar deste tema tão importante para toda a sociedade que é a violência nas escolas. Nesta audiência pública, eu falo em nome da Associação Brasileira de Rádio e Televisão (Abratel), que é uma associação que representa emissoras de rádio e televisão em todos os estados da Federação, ou seja, estamos aqui falando de veículos de comunicação profissionais, que têm em seu DNA duas premissas: a primeira delas é levar informação a toda a população brasileira, de forma gratuita, e a segunda premissa, que anda sempre de forma indissociável com o direito de informação, é a responsabilidade para que essa informação chegue a toda a população brasileira, de forma responsável, sempre checada por jornalistas, cumprindo assim um preceito constitucional previsto na Constituição Federal, no seu art. 5º, de que toda a população terá assegurado o direito à informação.
Diante dessas premissas, Sr. Presidente, caros ouvintes e Senador Esperidião Amin, que nos ouve aqui nesta audiência, sempre que uma matéria vai ao ar na televisão ou no rádio, seja ela sobre economia, saúde ou infelizmente em casos de violência, essa matéria sempre irá passar pela análise e crivo dos profissionais de jornalismo, para que a população tenha acesso à informação de forma clara e objetiva e não recheada de sensacionalismo ou até mesmo desse fenômeno mundial, que aqui no Brasil ganhou uma expressão em inglês, as tais fake news. E quando falamos sobre notícias que envolvem crianças e adolescentes, essa preocupação se torna ainda maior, tanto que a própria legislação brasileira possui instrumentos que vão além da Constituição Federal, como é o caso do Estatuto da Criança e do Adolescente, que traz para o campo da informação contornos extras sobre a cobertura jornalística. Porém, não satisfeitos com todos esses contornos legais, os veículos de comunicação profissionais, como bem a Dra. Alice já adiantou, ainda possuem protocolos de atuação próprios para as coberturas de violência nas escolas envolvendo crianças e adolescentes, sempre com o intuito de que essa cobertura tenha apenas um objetivo: levar informação clara para que esse fenômeno que vem ocorrendo nas escolas seja levado ao conhecimento dos pais e da sociedade, para que esse problema seja erradicado e para que não tenhamos novas condutas, e também para que seja preservada a imagem e a intimidade dessas crianças e adolescentes envolvidos nesses atos de violência.
Nunca, em nenhuma hipótese, você verá uma cobertura jornalística de um veículo de comunicação incitando essa violência ou vangloriando essas crianças e adolescentes que participam desses atos, muito menos utilizando a imagem dessas crianças e adolescentes de forma vexatória. Sempre a cobertura dos veículos profissionais será no sentido de levar a informação para a sociedade, para que os pais tenham conhecimento do que está ocorrendo nas escolas. Agora, um ponto que não podemos deixar de debater aqui sobre esse fenômeno é o que as coberturas jornalísticas dos veículos de comunicação profissionais vem apontando, que é o fato de que a maioria dessas violências começam com encontros marcados pelas redes sociais, inclusive com anúncios antecipados de quando e como essa violência irá ocorrer.
R
O que chama a atenção nessas ações é que o poderoso algoritmo e todo o uso de inteligência artificial à disposição dessas plataformas - e responsável pelos seus lucros - não são capazes de gerar alertas ou até mesmo bloquear esse tipo de iniciativa. E, após a marcação desses eventos e do seu acontecimento de fato, vem um segundo fenômeno que esse, sim, vem incitando novas práticas de violência nas escolas, que é a viralização desses conteúdos nas redes sociais. Após a marcação e a convocação para assistir a essas barbáries, esse conteúdo é amplamente divulgado e viralizado em todas as plataformas. Basta fazer uma busca rápida sobre brigas em escolas ou violência em porta de escolas que nós iremos assistir na internet a essa barbárie com ampla divulgação das crianças e adolescentes em todas as plataformas, com nitidez e fácil identificação dessas crianças e adolescentes em contrária harmonia com o que preconiza o Estatuto da Criança e do Adolescente e, ainda mais, sempre vangloriando os brigões e colocando de forma vexatória as vítimas dessa violência.
Portanto, Exmo. Presidente, o remédio para combater esse fenômeno que vem ocorrendo nas escolas possui nome e sobrenome: responsabilização para os meios que marcam e facilitam esses encontros e que depois viralizam esse conteúdo para gerar audiência e, por conseguinte, até monetizam em cima desse conteúdo. Somente com essa responsabilização, essas plataformas vão colocar como prioridade a retirada desse tipo de conteúdo de suas redes. Além disso, entendemos que essas plataformas devem ser obrigadas a tomar medidas preventivas, utilizando os seus poderosos algoritmos e toda a sua inteligência artificial e todos os seus recursos para que esse tipo de evento sequer possa ocorrer com o bloqueio e a retirada de posts, independentemente de ordem judicial.
E aqui, Presidente, eu gostaria de tomar a liberdade, embora o representante do Google, o Marcelo Lacerda, tenha colocado majoritariamente as ações positivas que a plataforma vem tomando, para dizer que eu identifiquei que a maior parte da fala dele se restringe à parte de pornografia, o que não é o tema desta audiência pública. E, quando a gente fala de violência nas escolas, eu fiz uma pesquisa rápida no meu aparelho celular e vocês podem verificar aqui que eu estou na página do YouTube e que, quando eu coloquei briga nas escolas, apareceram os seguintes conteúdos: "Briga em escola Stelio Machado", 413 mil visualizações, conteúdo esse postado há dois anos, ou seja, há dois anos esse conteúdo está na plataforma; "Briga das meninas na escola", 900 mil visualizações, há um ano esse conteúdo está postado na rede social aqui no YouTube; "Briga na porta da escola", 386 visualizações, postado há dois anos; "Minha amiga brigando na porta da escola por causa de macho", 1,2 milhão de visualizações, postado há mais de seis anos. Todos esses vídeos estão aqui no YouTube, ou seja, basta você fazer um Google que você vai ter acesso a esses crimes que estão sendo cometidos.
Agora, do que nós temos que fazer a separação aqui, Sr. Presidente, é o que é o direito à informação, o direito constitucional à informação da população em que, quando você pega um veículo de comunicação profissional e faz uma matéria sobre uma briga na escola, ele mostra essas imagens de forma a não torná-las vexatórias para essas crianças e adolescentes e, em nenhum momento, vanglorie esses brigões e sempre abra espaço para que o poder público, a Secretaria de Educação fale sobre essas ações, coloque a responsabilidade no poder público, poder público esse que, por meio do Ministério da Educação, vem inclusive implementando uma ação de proibir o uso de aparelhos celulares nas escolas.
A nossa intenção é única e exclusivamente que os pais e a sociedade tenham acesso a essa informação. E, quando você pega esse tipo de conteúdo viralizando, isso, sim, incita a violência.
R
Um desses vídeos que eu abri aqui recentemente mostra, inclusive, um adolescente atacando outro adolescente em uma escola com uma voadora. Ato contínuo, ele produz esse vídeo mostrando um golpe similar em uma competição chamada UFC.
É isso que vem acontecendo, Sr. Presidente. Nós temos que ter muito cuidado com onde esses encontros estão sendo marcados e, nessa incitação da violência, ter muito cuidado sobre esse pseudodireito da viralização. Então, vamos separar o que é direito à informação e o que é direito, esse pseudodireito, de viralização.
Sempre que um veículo de comunicação profissional coloca uma matéria no ar sobre esse tipo de conteúdo, é com o intuito de alertar a sociedade, é com o intuito de botar o poder público para falar, e o poder público, por meio da polícia, da secretaria de educação, da secretaria de saúde, inibir esse tipo de ação.
A Abratel se encontra à disposição, Sr. Presidente, para a discussão sobre este projeto de lei.
E agradeço mais uma vez o convite.
O SR. PRESIDENTE (Hamilton Mourão. Bloco Parlamentar Aliança/REPUBLICANOS - RS) - Quero agradecer ao Sr. Samir Nobre, representante da Abratel, que coloca, muito claramente, a dicotomia: o direito à informação, a informação responsável, de modo que a população tenha acesso àquilo que está acontecendo, que é um papel da imprensa, e a questão da rede social com a viralização de atos violentos. Não é só essa questão de briga nas escolas, mas nós vemos também a questão de briga de torcida de futebol. Hoje, por exemplo, no Rio de Janeiro e em São Paulo, esse é um dos piores problemas, e as brigas são marcadas via rede social, com excessivo grau de violência.
Eu passo a palavra agora... (Pausa.)
Antes de passar a palavra aqui para o Sr. Valdemar, eu vou dar um direito de resposta aqui ao Marcelo Lacerda, uma vez que ele foi citado pelo Samir Nobre.
Marcelo, você tem dois minutos para salvar o seu pescoço. (Risos.)
O SR. MARCELO LACERDA (Para expor. Por videoconferência.) - Obrigado, Senador.
Também não é só questão de réplica, é que, infelizmente, eu tenho um outro compromisso aqui a partir das 11h, inclusive falei com o pessoal da Secretaria da Comissão, e eu vou ter que sair, mas, em função do relato do Dr. Samir, eu acho que só há dois pontos.
Primeiro, em hora nenhuma, foi dito aqui por mim que as políticas, todas as nossas ferramentas são 100% falíveis... É possível, sim, que algum tipo desse conteúdo, que não cumpre com as nossas políticas, acabe indo para as nossas plataformas, e o que eu peço para o Dr. Samir é que ele faça a denúncia desses vídeos, que com certeza serão avaliados e removidos.
E o segundo ponto é que eu discordo um pouco do Dr. Samir de que minha fala foi apenas baseada na questão da pornografia infantil, que também é um assunto muito sério e importante, que a gente leva aqui no Google com muita seriedade, trata com muita seriedade; também falamos bastante aqui de todas as questões da escola. Não à toa, eu trouxe aqui os números dos pedidos emergenciais que chegaram ao Google ano passado, via Laboratório do Ministério da Justiça. No ano passado, no período de dois anos - aqui só para dar o número certinho -, houve 700 pedidos emergenciais que foram tratados junto com as autoridades, relacionados a terrorismo e ataques em escolas, e este ano já foram mais cerca de 90 pedidos.
R
De novo, quero só reforçar a nossa responsabilidade, o nosso comprometimento contra esse tipo de conteúdo. E a gente vai continuar trabalhando, sim, junto com as autoridades, junto com a sociedade civil e junto com o poder público, para que esse tipo de conteúdo não esteja na nossa plataforma.
Agora, me parece uma solução muito simplista apenas colocar, em uma questão que tem um cunho social também, essa responsabilidade em cima apenas das plataformas digitais. Acho que, trabalhando em conjunto, a gente vai chegar a um denominador comum e a uma resposta muito mais efetiva para a solução desses problemas da nossa audiência pública aqui hoje.
Senador Mourão, mais uma vez, muito obrigado.
Caso apareça alguma outra questão envolvendo o Google, estamos à disposição para participar de outras audiências públicas ou mesmo de uma conversa ao vivo, no gabinete do senhor ou de qualquer outro Senador ou Senadora que tenha interesse no assunto.
Muito obrigado.
O SR. PRESIDENTE (Hamilton Mourão. Bloco Parlamentar Aliança/REPUBLICANOS - RS) - O.k., Marcelo. Agradeço as suas observações.
E agora vou passar a palavra para o Delegado Valdemar Latance Neto, que é o Coordenador-Geral de Combate a Fraudes Cibernéticas da Diretoria de Combate a Crimes Cibernéticos da Polícia Federal.
O SR. VALDEMAR LATANCE NETO (Para expor.) - Bom dia, senhoras e senhores.
Em primeiro lugar, agradeço ao Exmo. Senador Mourão pela oportunidade de me manifestar aqui nesta relevantíssima audiência pública.
Eu sou Valdemar, Delegado de Polícia Federal, atualmente Coordenador-Geral de Combate a Crimes Cibernéticos da Polícia Federal, que, desde 2023, elegeu os crimes cibernéticos como uma de suas prioridades e criou uma diretoria para cuidar disso.
Como as atribuições constitucionais da Polícia Federal são restritas, tratamos resumidamente de quatro temas: abuso sexual infantil online, fraudes bancárias eletrônicas contra a Caixa Econômica Federal, crimes de alta tecnologia e, por fim, crimes de ódio ocorridos no ambiente cibernético, tema desta relevante audiência pública.
Foi criada, para tratar deste tema, uma nova unidade, que é a Unidade de Repressão a Crimes de Ódio. E a ideia é atacar um problema social, Senador Mourão, que tem crescido, infelizmente, e que é o aumento dos chamados crimes de ódio, essas agressões violentas motivadas por extremismo supremacista contra minorias ou grupos específicos, selecionados por raça, etnia, procedência regional, preferência sexual e religião. O aumento desse tipo de crime foi registrado no Anuário de Segurança Pública, que recentemente foi publicado pelo Fórum Brasileiro de Segurança Pública, com base nos números de 2023 das polícias. E o Exmo. Senador mencionou também, na introdução, esse aumento lamentável desse tipo de crime. Pela primeira vez, portanto, a Polícia Federal tem uma unidade que trata exclusivamente desse tema.
R
E, até por isso, eu justifico a ausência da minha colega Rafaella, porque hoje ela trata do abuso sexual infantil online. É por isso que ela não está aqui comigo hoje. O chefe da unidade de repressão a crimes de ódio é o Dr. Flávio, que me acompanha aqui nesta audiência pública.
Pela primeira vez, o tema tem uma unidade exclusiva dentro da Polícia Federal, justamente porque temos visto um aumento de casos que se iniciam com os discursos de ódio na internet contra indígenas, negros, homossexuais, nordestinos e, em alguns casos, terminam em extrema violência no mundo real.
E aqui chegamos a um ponto fundamental: a semente do discurso de ódio gera violência gravíssima, como automutilação de adolescentes, suicídio, massacres em escolas, normalmente envolvendo - reitero - adolescentes.
É impossível não tratar do impacto da universalização do uso de redes sociais, uma vez que esse tipo de retórica, há alguns anos, era muito mais restrito no ciberespaço. Esse discurso extremista saiu de fóruns muito específicos e ocultos na dark web - limitado em alcance para os seus poucos membros - para redes sociais com postagens abertas a todos os seus milhões de usuários. Se voltássemos, Senador, a 2015, grupos neonazistas com discursos agressivos estavam majoritariamente na dark web, um ambiente do ciberespaço que se caracteriza para garantir o anonimato. O principal da dark web é a garantia do anonimato, daí a ousadia de crimes gravíssimos que ali acontecem. A experiência policial mostra que atos horrendos na dark web, como abuso sexual de bebês recém-nascidos, estupros de crianças exibidos ao vivo, automutilação de meninas, combinação e glorificação de massacres em escolas, tudo, até aquele momento, era só na dark web, com um alcance, reitere-se, muito limitado, porque o acesso à dark web não é tão fácil quanto às redes sociais. Há alguns anos, porém, essa retórica inflamada de redes sociais, estimulada por algoritmos e monetizada - como bem disse o Dr. Samir, que me antecedeu - tem insuflado a visão de que o diferente é, na verdade, o inimigo. E o passo seguinte é um risco enorme de desumanização, de desumanizar quem é diferente: é o imigrante, o nordestino, o negro, o homossexual, o judeu, conforme temos visto nos nossos casos lá da Polícia Federal. E isso tem ocorrido abertamente em redes sociais, não mais em fóruns ocultos da dark web. Isso está aberto para quem quiser ver, ao alcance de qualquer usuário, inclusive adolescentes, que não têm absorvido bem essas agressões verbais.
R
Há um gravíssimo problema social envolvendo a incolumidade física e mental de adolescentes, que fazem parte desses grupos de aplicativos de conversa, nos quais há a propagação de ideologia supremacista a justificar a violência grave contra determinados grupos.
Os aplicativos de conversa e a rede social X, por exemplo, têm oferecido anonimato aos integrantes desses grupos. E o que temos visto é muito preocupante, porque, antes, estava circunscrito a um pequeno grupo na dark web. Agora, há postagens públicas no X glorificando autores de massacres em escolas, usadas para chamar a atenção e recrutar jovens a participarem de grupos privados em aplicativos de conversa nos quais há abuso sexual infantojuvenil, automutilação de adolescentes, principalmente meninas, crueldade contra animais, como enforcamento de gatos e decapitação de pássaros, e instigação ao cometimento de massacre em escola. Isso tem ocorrido, insisto, em grupos públicos, na internet e em postagens no X, conforme casos recentes da Polícia Federal.
As postagens em redes sociais têm alcance enorme, e, portanto, o projeto de lei é muito oportuno para discutir a limitação da publicação de atos violentos motivados pelo extremismo e melhorar a legislação para obrigar as provedoras de aplicação a coletarem a qualificação dos seus usuários no cadastro e a fornecerem esses dados cadastrais ao receberem uma requisição do poder público.
Hoje, em muitos casos, as redes sociais oferecem anonimato aos seus usuários. Nem é preciso mais, Senador Mourão, entrar na dark web. Não é necessária a dark web mais; pode-se fazer abertamente, porque eles oferecem anonimato. Não à toa, alguns usuários têm a ousadia, pela garantia da impunidade, de publicar exaltação à ideologia nazista, glorificação de autores de massacres em escolas no Brasil e publicação até de imagens desses atos horrendos.
Para responder, são necessários mecanismos de conhecer o seu usuário, aquele know your customer dos bancos.
O uso das redes sociais é uma realidade. Cumpre reconhecer, porém, que se trata aqui de uma atividade que coloca em risco adolescentes e crianças. Para uma atividade de risco, é necessária a regulação. Portanto, provedores de aplicação que tenham um grande número de usuários deveriam exigir identificação no cadastramento dos perfis. Como bem disse o Dr. Gustavo, a responsabilização depende de várias coisas, e o primeiro passo é saber quem é. Se a rede social garante o anonimato, nós nem saberemos quem é; não dá nem para chegar a discutir a responsabilização.
R
Essa medida de exigir o cadastramento não viola a privacidade ou a liberdade de expressão, apenas dificulta o anonimato dos que usam essas plataformas para cometer crimes. Se a pessoa quiser usar sob um pseudônimo, ela vai usar, mas, se cometer um crime sob o pseudônimo e a polícia requisitar o dado cadastral para a plataforma, a plataforma saberá quem é e vai responder, e aquela pessoa vai responder pelo seu ato a posteriori, sem censura alguma, sem ofensa alguma à liberdade de expressão. Todos podem usar livremente as redes sociais, mas responderão civil e criminalmente pelo que publicarem, conforme as leis ditadas por este Parlamento.
Aproveitando este momento, sugere-se a criação de uma regra no art. 3º deste importante projeto de lei que imponha a imediata retirada do ar de vídeos ou postagens que exibam ou exaltem massacres em escolas, assim que recebido um ofício de um delegado de polícia ou de um membro do Ministério Público. Preventivamente, retira-se do ar. "Ah, mas e se o delegado abusar do seu poder ou o membro do Ministério Público abusar do seu poder?" Ele responderá por isso, isso vai estar registrado. Isso é porque a celeridade é fundamental neste momento, e é absolutamente necessário evitar o efeito contágio. A grande repercussão de um massacre ocorrido em uma escola, por exemplo, acaba servindo como gatilho para outros agressores também buscarem a notoriedade, a fama por meio do cometimento de homicídios em massa.
Partindo para a conclusão, senhoras e senhores, é fundamental acabarmos com o problema do anonimato oferecido hoje por grandes provedores de aplicação. E o caminho sugerido é a criação de uma regra que os obrigue a coletarem a qualificação dos seus usuários no momento do cadastro, uma vez que não há dúvida de que a internet é um ambiente perigoso para crianças e adolescentes. Sem isso, as regras deste projeto de lei podem ser inócuas na prática.
Depois, é necessário inserir no projeto uma norma que claramente atribua ao delegado de polícia e ao membro do Ministério Público o poder de requisição de dados cadastrais, nos moldes das leis de combate à organização criminosa e de lavagem de dinheiro, bem como adotar uma ampla definição do que são dados cadastrais, do que significa a expressão dados cadastrais, e aí seguindo a Convenção de Budapeste, que, em 12 de abril do ano passado, entrou em vigor na legislação nacional, com um conceito amplo de dados cadastrais para possibilitar identificar quem cometeu o crime na internet - de novo: a posteriori. Todo mundo pode se manifestar livremente, mas vai responder pelo que disse.
R
Por fim, é necessário prever uma regra que obrigue os provedores de aplicação a retirar, preventiva e imediatamente de suas plataformas, vídeos ou imagens que exibam ou exaltem massacres em escolas, assim que recebam uma requisição de um delegado de polícia ou de um membro do Ministério Público, em virtude da absoluta necessidade de rapidez nesse momento para evitar o efeito contágio, principal escopo dessa lei.
Alguns ilustres colegas que me precederam falaram também da importância da educação digital, e esse ponto eu também gostaria de reiterar...
(Soa a campainha.)
O SR. VALDEMAR LATANCE NETO - Isso é fundamental. Aproveito a oportunidade para destacar que a Polícia Federal, hoje, tem uma iniciativa de prevenção a crimes de abuso sexual infantil e a crimes de ódio na internet em que policiais federais dão palestras em escolas para professores, para pais, para adolescentes, para evitar esse tipo de crime abominável, que tem acontecido com muita frequência, infelizmente.
Por fim, exalto o Senado Federal por discutir um tema tão relevante, oportuno e atual como este e agradeço novamente pelo convite à Polícia Federal, Senador Mourão.
A Polícia Federal permanece à disposição para cooperar.
Muito obrigado.
O SR. PRESIDENTE (Hamilton Mourão. Bloco Parlamentar Aliança/REPUBLICANOS - RS) - Agradeço ao Dr. Valdemar Latance, que traz aqui a visão do organismo encarregado de combater a criminalidade que assola a rede mundial de computadores e, no caso específico aqui citado, a questão dos crimes de ódio, que se degeneram nesses massacres e na glorificação dos atos violentos, que são tudo aquilo que nós estamos querendo coibir ou reprimir - vamos colocar dessa forma, muito claramente - e que, é óbvio, passam também pela educação, como foi muito bem colocado pelo Dr. Valdemar no final das suas palavras.
Eu vou passar a palavra agora para a Sra. Juliana Cunha, por meio de videoconferência, que é a Diretora da Central Nacional de Denúncias de Crimes Cibernéticos da SaferNet.
A SRA. JULIANA CUNHA (Para expor. Por videoconferência.) - Bom dia a todas as pessoas que nos acompanham.
Quero agradecer o convite para participar desta audiência e para compartilhar também sobre a atuação da SaferNet.
Eu já gostaria de pedir licença para compartilhar uma apresentação, para mostrar também um pouco dos dados das denúncias recebidas pela SaferNet.
Então, rapidamente, apresentando a SaferNet: nós somos uma organização que, há pouco mais de 18 anos, atua na promoção de direitos humanos e de liberdades na internet. Nós somos uma referência nacional no enfrentamento a crimes contra os direitos humanos na internet, e a gente faz isso através de uma central nacional de denúncias de crimes e violações, como, por exemplo, crimes de abuso sexual contra crianças e adolescentes, imagens de abuso sexual contra crianças e adolescentes, e também crimes de discurso de ódio, como racismo, neonazismo, xenofobia, misoginia e LGBTfobia. A gente faz isso em cooperação com as autoridades, como a Polícia Federal, o Ministério Público Federal e também o Ministério da Justiça, no âmbito do projeto Escola Segura.
A SaferNet é membro de três redes internacionais - porque não dá para enfrentar crimes na internet se não for com cooperação internacional. Nós somos parte de uma rede de linhas de denúncia, de hotlines, presente em mais de 50 países, que é a Inhope. Também somos parte de uma rede europeia, a Insafe, que é inclusive responsável por coordenar uma data que é importante também para o Brasil e que reúne mais de 100 países, que é o Dia Mundial da Internet Segura, um momento de reunir atores de diferentes setores para debater a agenda de proteção de crianças e adolescentes na internet. E, por fim, uma rede de linhas de ajuda, de canais de ajuda, que é o Child Helpline International.
R
Estes números se somaram ao longo de 18 anos: nós já recebemos mais de 4,8 milhões de denúncias, envolvendo 1.104.922 páginas. E, ao final, vocês vão ver o número de páginas removidas - esse é um dado dinâmico; a gente atualizou ainda no contexto do Dia da Internet Segura, em fevereiro, e certamente se eu o atualizasse hoje já seria diferente -, ou seja, dessas mais de 1,104 milhão de denúncias, de páginas denunciadas, 808.453 foram removidas por violarem as regras da plataforma ou cometerem algum tipo de crime previsto na legislação brasileira.
E aí eu queria trazer uma iniciativa que eu acho importante - alguns convidados já mencionaram - sobre a importância da educação. Como a gente debate esse tema em sala de aula? Como a gente fortalece a conscientização sobre o que fazer em situações de conteúdos de discriminação, de conteúdos de ataques às escolas?
Essa é uma iniciativa que a gente tem em cooperação com a Embaixada do Reino Unido, que leva uma disciplina de Cidadania Digital para a rede pública. É uma disciplina que oferece não só um caderno de aulas, mas a gente também tem um curso de educação à distância. A gente oferece mentorias para os educadores aplicarem essa disciplina. Muitos educadores não se sentem preparados para falar sobre esses temas de segurança digital em sala de aula. Então, esse é um conteúdo que apoia exatamente a implementação dessa disciplina no contexto da sala de aula. Além disso, a gente também reconhece, através de premiação, as melhores práticas realizadas pelos educadores. Como eu disse, há vários modos de apoiar os educadores no contexto. E são cursos que estão disponíveis na plataforma do Ministério da Educação, a Avamec. Então, qualquer pessoa que tiver interesse tem acesso.
A gente oferece, além desse curso para educadores, um curso também para atores do sistema de garantia de direitos e pessoas de um modo geral. E também um curso que é voltado especificamente para adolescentes, com uma linguagem mais amigável para esse público e que também fala sobre temas importantes para desenvolver habilidades de segurança digital.
Como já foi mencionado também, no ano passado, assim que a gente teve uma onda de ataques e de conteúdos que incitavam ataques às escolas, nós criamos uma cartilha com algumas regras e recomendações, inclusive já previstas pela Organização Mundial da Saúde, para evitar o que a gente chama de efeito contágio. Também, como já foi mencionado aqui por outros convidados, esse é um conteúdo que tem um potencial de viralização muito grande e que pode, sim, provocar esse efeito de produzir outras tentativas de ataques ou mesmo ataques inspirados em outros episódios, em outros eventos.
R
Então, essa onda começou a partir de abril do ano passado. Em razão disso é que foi feita a Operação Escola Segura pelo Ministério da Justiça e Segurança Pública. E o papel dos criadores é importante porque muitos desses conteúdos são disseminados pelos criadores, por aqueles que produzem conteúdo nas redes sociais, e é importante que a gente também capacite e qualifique o trabalho desses criadores para evitar esse efeito contágio. Então, é para: não espetacularizar; não divulgar nomes, fotos, perfis - isso só aumenta a curiosidade e o culto às personalidades envolvidas nesses ataques -; não divulgar fotos e vídeos dos ataques, das vítimas, pois isso causa, sim, um impacto grande na saúde mental, especialmente da comunidade e dos familiares; não mostrar símbolos, roupas, máscaras, qualquer objeto que, de alguma forma, esteja relacionado com esses ataques; não compartilhar carta, manifesto, e, o mais importante, não descrever o passo a passo de como essa pessoa praticou esse ataque - isso também pode levar outras pessoas a se inspirarem nesse autor e praticarem o mesmo tipo de ato, inspiradas exatamente nesse plano que foi efetuado pelo autor do ataque -; e não espalhar boatos. É muito comum você ter uma série de conteúdos que acabam sendo desinformativos e produzindo mais pânico na população. A gente observou isto no ano passado: escolas que - causado muito pelo pânico dos familiares - decidiram, em alguns dias, não abrir as portas, não ter aula. Então, isso tudo pode, sim, causar uma reação de pânico e de alarde muito grande na população.
E mais: os veículos de imprensa não tornarem os autores os protagonistas dessa história, mas, sim, as pessoas que foram vítimas, as pessoas que salvaram a vida de crianças e adolescentes. Preservar a identidade dos envolvidos também, são menores de idade - isso já está previsto no Estatuto da Criança Adolescente. Não usar uma trilha sonora ou, de alguma forma, efeitos visuais ou audiovisuais que de alguma forma só produzam mais gatilho ou que espetacularizem o evento. Mostrar serviços em que você pode ajudar vítimas, onde você deve denunciar e dar visibilidade a programas de educação que visam à prevenção desse tipo de ocorrência.
Então, esses são alguns dos exemplos de como educar especialmente veículos, mas também criadores de conteúdo.
A gente também fez um trabalho grande, não só no âmbito do Ministério da Justiça e Segurança Pública, com um canal específico para receber esse tipo de denúncia - foram mais de 50 mil denúncias desde abril do ano passado até outubro deste mês, ou seja, isso envolve mais de 90 denúncias por dia -, e a gente também produziu uma cartilha, junto com o Ministério da Educação, exatamente para ensinar às pessoas o que elas devem fazer, como elas devem agir diante de algum conteúdo que seja disseminado em relação a ataques às escolas.
Fizemos algumas campanhas também, que a gente veiculou - isso também é importante para conscientizar a população -, para ensinar quais são os canais apropriados. Às vezes, as pessoas compartilham esse conteúdo para fins de denúncia, e isso acaba ajudando na viralização. Então, esse conteúdo deve ser só reportado aos canais apropriados. A gente desenvolveu algumas campanhas, que tiveram mais de 24 milhões de alcance, para disseminar quais são os canais apropriados, o que essa pessoa deve fazer se ela vir algum conteúdo de ameaça e como ela pode também ajudar crianças e adolescentes que vejam ou tenham acesso a esse tipo de conteúdo.
R
Aí, claro, a gente tem uma série de desafios. Eu citaria alguns deles, como já foi discutido aqui também. Como é que a gente aplica uma legislação de forma proporcional e adequada, especialmente porque muitos desses autores são menores de idade, ou seja, eles respondem por ato infracional? E é importante que a gente entenda que a gente tem uma legislação específica para isso, que é o Estatuto da Criança e do Adolescente. Como é que a gente incentiva uma cultura positiva e saudável e pensa em ações que sejam de políticas mais afirmativas que, de alguma forma, contribuam para uma mudança da cultura? A gente sabe que isso tem raízes profundas na nossa sociedade.
Tomadores de decisão e legisladores mais preparados e com maior letramento de tecnologia digitais: muitas vezes essas leis não necessariamente são baseadas no conhecimento sobre as ferramentas e sobre a internet. É importante também que haja esse letramento por parte dos legisladores, empoderamento e letramento das famílias, e a participação também de crianças e adolescentes nesse debate sobre riscos e sobre responsabilidades, porque também é importante que a gente possa escutar o que crianças e adolescentes pensam a respeito das suas experiências na internet.
Por fim, trago também um relatório que foi produzido no contexto de um grupo de trabalho de que a SaferNet fez parte, que envolveu o Ministério da Educação e muitas entidades e especialistas que se dedicam há muitos anos ao fenômeno da violência nas escolas, especificamente de ataques contra as escolas. Esse relatório produziu uma série de recomendações.
É fundamental que a gente entenda que esse problema não é um problema só de segurança pública. É um problema que envolve educação, que envolve, inclusive, como já foi dito, um enfrentamento a conteúdos de discurso de ódio, de extremismo. Muitos desses autores participavam de grupos e fóruns de ódio na internet, em ambientes como o Discord, em plataformas como o X. E a gente sabe, portanto, que a gente precisa, sim, endereçar de forma mais abrangente como a gente deve enfrentar este problema do discurso de ódio na internet, e a educação é fundamental para mudar essa realidade.
Por fim, a internet também pode ser um espaço que pode acolher adolescentes e jovens que estejam em situação de dificuldade ou de sofrimento emocional. Muitos desses adolescentes também trazem algum transtorno dessa natureza.
Há o próprio canal de ajuda da SaferNet, mas existem outros canais também, como o Mapa da Saúde Mental, que é divulgado pelo Vita Alere, um instituto que é voltado para prevenção e posvenção do suicídio. Há o próprio CVV também. E também há um canal específico que o Unicef desenvolveu para jovens de 18 a 24 anos que é o Pode Falar. Ou seja, qualquer pessoa que esteja em alguma situação, que queira falar sobre alguma situação e esteja em situação de sofrimento pode buscar ajuda.
Ações de saúde mental são também uma medida de prevenção muito importante para fazer frente a esse problema.
Agradeço também, mais uma vez, e deixo o meu contato.
Continuo à disposição desta Comissão para trazer dados e evidências que corroborem para uma iniciativa que, de fato, enfrente esse problema de uma forma adequada.
Muito obrigada.
O SR. PRESIDENTE (Hamilton Mourão. Bloco Parlamentar Aliança/REPUBLICANOS - RS) - Agradeço à Sra. Juliana Cunha, da SaferNet, que apresentou o trabalho que vem sendo feito não só de educação, mas também de divulgação, de denúncias.
R
Aqui, o Delegado Valdemar colocou que há um trabalho conjunto da Polícia Federal, o que também foi apresentado, mostrado, ali na apresentação da Sra. Juliana. E o Ministério Público também está junto. Ou seja, o poder público vem fazendo a sua parte na busca de reprimir essa nova modalidade de crime.
Vou passar a palavra agora para a nossa última debatedora, que é a senhora Taís Niffinegger, Gerente de Bem-Estar para América Latina, da Meta.
A SRA. TAÍS NIFFINEGGER (Para expor. Por videoconferência.) - Obrigada.
Bom dia a todos que nos acompanham.
Agradeço à Comissão de Comunicação e Direito Digital, na pessoa do Senador Mourão, pela oportunidade de participação nesta importante discussão sobre um tema que nos é tão sensível e urgente.
Vou pedir licença para compartilhar a minha tela, pois também tenho uma apresentação.
Um segundo. (Pausa.)
Bom, os senhores podem enxergar a minha tela?
O SR. PRESIDENTE (Hamilton Mourão. Bloco Parlamentar Aliança/REPUBLICANOS - RS) - Positivo, Taís, pode prosseguir.
A SRA. TAÍS NIFFINEGGER - Perfeito.
Deixa só eu colocar o modo de apresentação.
Pronto.
Bom, primeiramente, é importante frisar que manter o bem-estar e a segurança das pessoas é prioridade para nós na Meta. Adotamos uma abordagem de cinco pilares para lidar com isso. Primeiramente, a gente tem as nossas parcerias. Reconhecemos que não somos especialistas em todas as coisas, em todos os assuntos, por isso procuramos conhecimento e orientação dos especialistas em segurança, pesquisadores, acadêmicos, organizações sem fins lucrativos, também ativistas de direitos humanos e formuladores de políticas públicas. Essas pessoas nos ajudam a desenvolver as nossas políticas, construir as ferramentas e criar os recursos e programas de segurança. Trabalhamos com especialistas no mundo inteiro, inclusive no Brasil, para desenvolver as nossas políticas, bem como para oferecer os recursos de ajuda, prevenção e educação, para um uso positivo, seguro e saudável nas nossas plataformas. A gente tem parcerias com mais de 850 organizações, no mundo inteiro, para promover a segurança digital.
Em segundo lugar, desenvolvemos políticas e temos regras que dizem o que as pessoas podem ou não compartilhar nas nossas plataformas. Chamamos isso de padrões de comunidade. A cada trimestre, a gente publica um relatório de transparência, que tem informações sobre o cumprimento desses padrões e que mostra também os conteúdos que violam esses padrões da comunidade que foram detectados. Em seis das políticas que foram incluídas nesse relatório, a gente consegue detectar, proativamente, mais de 95% do conteúdo, que a gente remove antes mesmo que possa ser denunciado. É uma taxa bastante alta e a gente continua aprimorando a nossa tecnologia para que esses números sejam ainda mais altos.
Em terceiro lugar, a gente desenvolve ferramentas de tecnologia que dão às pessoas o poder de controlar aquilo que elas veem e o que os outros veem sobre o que elas postam nas nossas plataformas. E, aqui, isso inclui ferramentas também para denunciar o conteúdo, bem como a tecnologia para poder detectar esses danos de forma proativa.
R
Em quarto lugar, a gente disponibiliza recursos. A gente oferece acesso a recursos de ajuda e outros para que as pessoas possam garantir sua segurança.
Por fim, mas não menos importante, a gente também tem o feedback. A gente conta justamente com as denúncias dos usuários dos nossos serviços para poder melhorar constantemente as nossas políticas e nos ajudar a identificar conteúdo violador.
Em relação às parcerias, a gente tem parcerias com diversas organizações globalmente para promover a segurança digital. Aqui no Brasil, como exemplo, a gente tem uma parceria com a SaferNet, representada aqui nesta audiência pela Juliana Cunha, através do programa Cidadão Digital, que já levou educação digital para mais de 177 mil estudantes de escolas públicas e para mais de 77 mil educadores.
A gente consulta especialistas, incluindo sociedade civil, academia e governos, para nos auxiliarem nessa tarefa de definir e de atualizar as nossas políticas. Nós acreditamos que o combate à violência precisa ser uma ação conjunta entre nós e a comunidade. Nós reconhecemos que não somos expertos em todos os assuntos; por isso, mantemos esse sistema de apoio dos especialistas. Nós também contamos com o Conselho de Segurança Global Permanente, que é composto por especialistas do mundo inteiro, incluindo o Brasil, através da SaferNet.
Os nossos padrões de comunidade dos nossos serviços informam as regras sobre o que é possível postar e não postar nas nossas plataformas. Vale lembrar que os nossos padrões de comunidade têm como objetivo encontrar um equilíbrio adequado entre proporcionar às pessoas um lugar para se expressarem e também promover um ambiente seguro e acolhedor para todos e todas.
O objetivo dos nossos padrões de comunidade é criar um espaço para a expressão e dar voz às pessoas. A criação de uma comunidade e a aproximação das pessoas dependem da capacidade de as pessoas compartilharem suas opiniões, experiências, ideias e informações diversas. Para isso, a gente quer que as pessoas possam falar abertamente sobre as questões que lhes interessam de forma segura. O compromisso com a expressão é fundamental, mas nós reconhecemos que a internet também cria novas e maiores oportunidades de abuso.
As nossas políticas abrangem uma ampla gama de temas, desde discursos de ódio até bullying e assédio, exploração sexual e violência gráfica. O que nos motiva é a segurança, são os danos no mundo real. A gente sabe que o que acontece no ambiente virtual pode ter implicações na vida real. O nosso objetivo é prevenir casos de violência relacionados ao conteúdo das nossas plataformas. A gente entende que, muitas vezes, as ameaças ou a incitação à violência são feitas de forma casual e sem seriedade, mas, assim mesmo, nós removemos palavras que incentivam ou facilitam a violência e ameaças reais à segurança pública ou pessoal. Nós removemos o conteúdo, desativamos contas, trabalhamos com autoridades em casos de risco real de danos físicos ou ameaças diretas. Nós consideramos o contexto e a linguagem para conseguir diferenciar as declarações informais de ameaças reais.
R
No que se refere, especificamente, à incitação à violência, as nossas políticas proíbem conteúdo que incite ou promova violência. Isso inclui contas ou conteúdos elogiando atos violentos e seus autores. Além disso, nós não permitimos a presença de pessoas ou organizações que anunciem uma missão violenta ou que estejam envolvidas em atos de violência nas nossas plataformas. Isso inclui, por exemplo: atividade terrorista, atos organizados de ódio, assassinato em massa - incluindo tentativa -, chacinas, tráfico humano, violência organizada, ou qualquer tipo de atividade criminosa. Nós removemos, ainda, conteúdo que expresse apoio ou exalte esses grupos, líderes ou pessoas envolvidas nessas atividades.
Adicionalmente, a gente também colabora com autoridades da aplicação da lei, respondendo prontamente às suas demandas.
Também, a gente atua em colaboração com o Centro Nacional para Crianças Desaparecidas e Exploradas (Ncmec) - que foi citado aqui pelo meu colega Marcelo, no início desta audiência pública -, juntamente a outras plataformas.
Ao criar novas políticas de conteúdo ou atualizar as políticas existentes, nós trabalhamos para garantir que elas atendam a três princípios fundamentais - as políticas devem ser baseadas em princípios que sejam operáveis e também explicáveis. O que isso significa na prática? Significa que nós elaboramos as nossas políticas para garantir que elas equilibrem o ideal de dar voz às pessoas com a realidade prática de manter as pessoas seguras nas nossas plataformas; e garantir que essas políticas sejam aplicáveis na prática, de modo que haja linhas claras entre o que é permitido e o que não é permitido, para que os nossos revisores também possam entender isso de forma clara e atuar na remoção de conteúdo violador.
Nós também nos certificamos de que o nosso processo de desenvolvimento das políticas seja aberto e colaborativo. Com isso, nós temos o compromisso de compartilhar as nossas políticas e o pensamento por trás delas com a comunidade.
Nós usamos uma combinação de denúncias na nossa comunidade, análise das nossas equipes e tecnologia para poder identificar e analisar o conteúdo em relação aos nossos padrões da comunidade. Encontrar as violações aos nossos padrões requer um esforço coordenado: os usuários podem denunciar, a qualquer momento, qualquer tipo de publicação, foto ou vídeo; as nossas equipes humanas analisam essas denúncias; e, caso elas violem os nossos padrões de comunidade, nós removemos esse conteúdo.
A gente continua também investindo pesadamente em tecnologia, para poder encontrar, de forma proativa, o conteúdo violador. Em alguns casos, uma vez detectado que esse conteúdo, de fato, é violador, impedimos que ele seja compartilhado. E, cada vez mais, a gente utiliza a inteligência artificial e o aprendizado de máquina para poder detectar, de forma proativa, esse conteúdo, antes mesmo que haja uma denúncia e, muitas vezes, antes que as pessoas consigam, até mesmo, visualizar esse tipo de conteúdo.
A nossa abordagem em relação à segurança é também baseada em três eixos, que incluem a prevenção, a detecção por meio do sistema de inteligência artificial e a resposta. O nosso principal foco é, justamente, a prevenção de danos antes que eles aconteçam e sempre que possível. A gente está particularmente focado na questão da prevenção, porque a gente acredita que é muito importante impedir que as atividades prejudiciais aconteçam. É muito mais efetivo a gente conseguir detectar isso antes do que atuar depois de isso já estar ali disponível.
R
Em relação aos nossos recursos, a gente conta com uma central de segurança, em que a gente disponibiliza links para um extenso conteúdo voltado para a segurança, incluindo conteúdos específicos para grupos mais vulneráveis, como, por exemplo, jovens, mulheres, e também sobre temas específicos, como bullying, assédio, discurso de ódio etc.
E por fim, eu ressalto aqui que a gente coopera com as autoridades de aplicação da lei, como eu mencionei anteriormente. A gente disponibiliza um sistema online para autoridades 24 horas, sete dias por semana, para as autoridades de investigação criminal, como, por exemplo, delegados, Ministério Público, juízes criminais, para que eles possam enviar e acompanhar as requisições de prevenção, de preservação de evidências, registros de contas de forma célere e efetiva.
As nossas solicitações são todas analisadas, processadas, inclusive com divulgação de dados, quando for o caso. Ao verificar uma situação que envolve um risco iminente para qualquer tipo de usuário, risco de morte, de danos físicos graves etc., que exige a divulgação imediata de informações, isso é feito de maneira célere.
Esses pedidos contam com uma equipe que está disponível 100% do tempo. A gente conta com uma equipe dedicada a isso. E possuímos, nessa nossa equipe dedicada, inclusive, uma equipe formada por ex-policiais, que é responsável pelo engajamento e também pelo treinamento no uso desse sistema online. Essa equipe também se dedica, de maneira específica, a atuar juntamente com essas autoridades, realizando orientações sobre como fazer essa coleta de dados, orientar a questão da persecução penal e apoiar o desenvolvimento desses programas especiais.
Por meio desse nosso sistema de solicitações online para as autoridades de aplicação da lei, nós adotamos todas as medidas necessárias também para poder fazer a preservação das evidências pelo prazo de 90 dias, prorrogáveis, em relação a registros de contas, conteúdos etc. A autoridade pode rapidamente enviar essas solicitações por meio desse sistema. Aqui, na nossa página, o formulário para poder realizar essas requisições está disponível. Por meio dele, é possível requisitar preservação de conta, fazer solicitações de emergência, além de requisitar também retenção e disponibilidade de dados.
Então, esse foi um apanhado bem geral sobre como é a nossa abordagem em relação à segurança, reafirmando aqui o nosso compromisso com a segurança de todos e também a nossa colaboração com as autoridades, especialmente com esse tema tão sensível. Com isso, eu queria encerrar aqui a minha apresentação, devolver a palavra ao Senador Mourão e agradecer, mais uma vez, pela oportunidade. A gente fica aqui totalmente à disposição para poder aprofundar essa conversa e para poder fornecer outras informações que sejam necessárias.
Muito obrigada.
O SR. PRESIDENTE (Hamilton Mourão. Bloco Parlamentar Aliança/REPUBLICANOS - RS) - Muito obrigado à Sra. Taís Niffinegger, representante da Meta, com uma apresentação muito clara sobre a preocupação com segurança da empresa, baseada em cinco pilares, que são suas parcerias, suas políticas, as ferramentas utilizadas, os recursos, retroalimentação, os números de funcionários empregados na proteção e moderação, e também, vamos dizer, o total apoio ao trabalho das autoridades policiais e a conexão que tem com as autoridades policiais.
R
Por meio do e-Cidadania, nós recebemos algumas manifestações de cidadãos e cidadãs, e eu gostaria de compartilhar aqui com os debatedores, apenas para demonstrar a preocupação da nossa população com esse tema.
O Anderson, de Santa Catarina, diz: "Além de regular a divulgação de crimes, o protocolo inclui iniciativas de conscientização e educação para reduzir a violência nas escolas?". Isso foi bem abordado aqui por alguns dos nossos debatedores.
A Carla, de São Paulo: "De que forma a regulação online pode reduzir a disseminação de conteúdo violento relacionado a crimes escolares?". Também foi abordado aqui.
Hindemburg, do Ceará: "Como o projeto prevê [...] [a implementação de] acompanhamento psicológico para as vítimas e familiares de vítimas de tais crimes?". Esse é um assunto que está pendente ainda.
"Existem exemplos internacionais de protocolos semelhantes que foram bem-sucedidos? O que podemos aprender com essas experiências?". Essa é do Antônio, do Amazonas. Vai bem ao encontro do que a Roberta colocou aqui.
Deyvison, do Rio de Janeiro: "Quando [as] propostas para regulamentação de sites e redes sociais [...] [com o objetivo de coibir] esse tipo de crime voltarão a ser discutidas?". Vêm sendo discutidas de forma bem abrangente.
Carolina, do Paraná: "Como o projeto regula o conteúdo nas redes sociais sem incorrer em censura ou limitar excessivamente a liberdade de expressão dos usuários?". É exatamente o que foi ao encontro do que apresentaram o Gustavo e os nossos representantes da Abert e da Abratel. E, no nosso comentário inicial, sempre há essa preocupação com o equilíbrio entre a liberdade de expressão, que é um bem em que a gente não pode transigir, e a segurança.
Ísis, da Bahia: "O PL 2.264/2023 deve priorizar a educação emocional nas escolas, ajudando a prevenir a violência e promovendo um ambiente saudável". É o trabalho que vem sendo feito pela SaferNet, pela própria Meta, com a própria Polícia Federal cooperando nisso.
Fabrício, do Rio de Janeiro: "Quais mecanismos de fiscalização e responsabilização estão previstos no projeto para evitar a glorificação de agressores nas escolas?". Está previsto e agora nós temos que encontrar, vamos dizer, o equilíbrio nessa questão.
Marcela, de Minas Gerais: "Como vincular a efetividade da lei proposta com a desigualdade social, maioridade penal e saúde mental nas escolas?". É um tema abrangente.
Márcia, do Pará: "Como será a punição legal das plataformas que agregam, disseminam e divulgam a organização desses grupos?".
José, da Paraíba: "Quais medidas serão adotadas para evitar que a regulação viole a liberdade de expressão online?". Olha a preocupação constante.
Iasmin, de Rondônia: "Quais critérios o PL [...] [adotará] para diferenciar a divulgação de informações legítimas da promoção inadvertida de violência em escolas?".
E o Anderson, do Ceará: "Assim como é necessário um protocolo de controle da informação de tais crimes é fundamental um plano de ação nacional de prevenção".
Agora vamos iniciar o encerramento da nossa atividade.
Eu vou abrir a palavra aos nossos debatedores, por até dois minutos, para as suas considerações finais, iniciando pela Sra. Roberta Jacarandá, já que o Marcelo Lacerda está em reunião.
A SRA. ROBERTA JACARANDÁ (Para expor.) - Só reforçando aqui: a gente reitera que a melhor solução é uma solução colaborativa, é uma solução que traga uma responsabilidade bem calibrada, que, ao mesmo tempo em que vai trazer segurança para o ambiente digital, não vai violar os direitos humanos, as liberdades constitucionais.
R
A gente viu aqui algumas das plataformas trazendo as iniciativas e aprimorando as próprias iniciativas. Eu acho que esse é um indicativo de que aquilo que o Christchurch Call, que é aquela iniciativa colaborativa que eu mencionei, propõe vem mostrando essa eficácia: as próprias plataformas desenvolvendo, as emissoras também, com seus códigos, com suas diretivas.
E eu acho que essa colaboração entre governo, Parlamento, sociedade civil vai sempre apertando esses parafusos, vai mostrando onde se precisa aprimorar, indicando onde se precisa melhorar.
(Soa a campainha.)
A SRA. ROBERTA JACARANDÁ (Para expor.) - Esses canais de denúncia e notificação também são muito importantes.
Então, eu acho que, com essa abordagem colaborativa, a gente tem grandes chances de atacar esses problemas e também conseguir evoluir quando os problemas vão mudando, porque, às vezes, quando a gente coloca alguma especificidade em lei, vão surgindo outros problemas no meio digital e a gente não consegue, com a mesma rapidez, também trazer uma resposta.
Então, é só reforçar que, com educação e essa abordagem colaborativa, eu acho que temos grandes chances de conseguir melhorar o ambiente digital.
O SR. PRESIDENTE (Hamilton Mourão. Bloco Parlamentar Aliança/REPUBLICANOS - RS) - Muito obrigado, Sra. Roberta.
Com a palavra a Sra. Alice Voronoff, representante da Abert.
A SRA. ALICE BERNARDO VORONOFF (Para expor. Por videoconferência.) - Bom, Senador, obrigada. Parabenizo-o pelo belíssimo trabalho.
As contribuições deixaram muito claros a preocupação e o compromisso da Casa Legislativa com o equacionamento da liberdade de expressão com os outros valores que causam hoje preocupação e devem ser protegidos.
Acho que, nessa fala final e refletindo sobre tudo que foi dito, fazendo coro aos dados que foram apresentados pelo representante da Polícia Federal, pelo próprio Samir, parece à Abert muito claro que, hoje, o sistema de responsabilização das plataformas, que está pautado ali no art. 19 do marco civil da internet, é um sistema que nasceu sob uma premissa de neutralidade das plataformas que acabou se provando inverídica. Hoje, os modelos de algoritmos disseminam informações com uma capacidade que não é alcançada por esse modelo, que é um modelo de uma imunidade que acaba gerando incentivos muito negativos e desproteção, resultados de desproteção.
Então, hoje, basicamente, esses conteúdos, por mais que exista toda uma preocupação e políticas de retirada de conteúdos, acabam se perpetuando com ritmo e velocidade que parecem que não são alcançáveis. E, hoje, o modelo de notificação para retirada não existe. Na verdade, as plataformas são notificadas e só retiram o conteúdo por decisões judiciais. De modo que acho que também há um consenso aqui de que esse olhar para esse modelo também está na ordem do dia e será tratado no bojo das discussões.
Muito obrigada.
O SR. PRESIDENTE (Hamilton Mourão. Bloco Parlamentar Aliança/REPUBLICANOS - RS) - Passo a palavra ao Sr. Gustavo Borges, da LabSul.
O SR. GUSTAVO BORGES (Para expor.) - Quero saudar, Senador, por este debate. Todos queremos um ambiente livre de violência, seguro e saudável.
R
Nossas sugestões de revisão do art. 21-A visam uma melhoria em relação à garantia da viabilidade técnica, aliada a uma reflexão de proteção dos direitos humanos, em especial, a liberdade de expressão. Também penso que se pode refletir a respeito de um protocolo que seja claro e eficiente de notificação, um fluxo para permitir uma atuação ágil.
E, por fim, sugerimos programas de educação digital para conscientizar os usuários sobre os riscos. Acho que essa é uma fala que ecoa entre todos os colegas; e gostaria de saudar pela abertura deste debate...
(Soa a campainha.)
O SR. GUSTAVO BORGES - ... que envolve diversos atores que vão propiciar que tenhamos um texto equilibrado, que consiga entregar para a população um retorno que ela espera.
O SR. PRESIDENTE (Hamilton Mourão. Bloco Parlamentar Aliança/REPUBLICANOS - RS) - Muito obrigado, Gustavo.
Passo a palavra ao Sr. Samir Nobre, da Abratel.
O SR. SAMIR NOBRE (Para expor. Por videoconferência.) - Bom, muito obrigado, Presidente, pela oportunidade. Gostaria de parabenizá-lo pela condução da audiência pública - acho que foi fundamental para entendermos esse problema. E, quanto ao pedido do representante do Google, Marcelo Lacerda, para que eu faça a denuncia dos conteúdos que estão há seis, dois, três anos lá na rede, sem que sejam derrubados, eu vou fazer isso no meu compromisso como cidadão, mas eu esperava um pouco mais do Google: que ele fizesse um compromisso de retirar, e não simplesmente delegasse para mim.
Embora crimes cometidos há seis anos e expostos não sei se configuram omissão, mas eu deixo essa questão para o delegado da Polícia Federal, o Dr. Valdemar.
Mas eu queria deixar uma proposta aqui, Presidente. Eu não vou ficar inerte a essa fala do Dr. Valdemar e gostaria de fazer um convite ao Dr. Valdemar para que ele levasse essa exposição, que fez nesta audiência, para a TV aberta. Então, deixo aqui um convite para que ele dê uma entrevista para o JR News, um programa que nós temos na TV Record, uma das associadas da Abratel. Está feito o convite, Dr. Valdemar. Acho que é de extrema importância que a sua fala vá para toda a sociedade, e que a gente leve esse vídeo, inclusive, para o YouTube, para que ele possa fazer um contraponto a esses vídeos de violência que estão lá estabelecidos.
O nosso coordenador legislativo, o Portela, está aí presente e vai se identificar e coletar seus dados. E deixo aqui também um convite para você, Presidente Hamilton Mourão, para que você também participe de uma entrevista com a gente para falar sobre esse projeto de lei. E lanço aqui um desafio: uma das maiores audiências que nós temos no YouTube sobre esse programa do JR News é justamente uma entrevista com o Senador Hamilton Mourão, na época em que ele era Vice-Presidente da República. Acredito que, com a relevância desse tema, a gente possa bater esse recorde de audiência e levar essa informação para toda a sociedade.
Mais uma vez, gostaria de reforçar o compromisso da Abratel com esse tema, e estamos aqui à disposição.
O SR. PRESIDENTE (Hamilton Mourão. Bloco Parlamentar Aliança/REPUBLICANOS - RS) - Agradeço ao Samir, e agora vamos passar a palavra ao Dr. Valdemar Latance Neto, da Polícia Federal.
O SR. VALDEMAR LATANCE NETO (Para expor.) - Obrigado novamente pelo convite, Exmo. Senador Mourão.
Eu, nestas considerações finais, gostaria de insistir nesse mecanismo que chamei de "conheça o seu usuário", para que as grandes provedoras de aplicação ajudem a combater o anonimato.
R
Nós vimos que os cidadãos que se manifestaram têm uma preocupação com a liberdade de expressão, e esse mecanismo, que eu sugeri, não traz nenhuma violação à liberdade de expressão, porque todo mundo vai ter a possibilidade de se manifestar livremente, mas vai responder por aquilo que publicou, e os provedores de aplicação vão identificar para a polícia quem são as pessoas que fizeram a publicação.
(Soa a campainha.)
O SR. VALDEMAR LATANCE NETO - Eu exalto novamente o Senado por este debate fundamental e agradeço ao Exmo. Senador Mourão pela condução brilhante dos trabalhos.
Obrigado.
O SR. PRESIDENTE (Hamilton Mourão. Bloco Parlamentar Aliança/REPUBLICANOS - RS) - Passo a palavra agora à Sra. Juliana Cunha, da SaferNet.
A SRA. JULIANA CUNHA (Para expor. Por videoconferência.) - Eu quero só reforçar o que já foi dito e trazer também o que a gente entende como uma boa prática.
A gente sabe que esse é um problema muito complexo, cuja solução não está apenas no âmbito da segurança pública ou na legislação. É preciso um trabalho multissetorial de, especialmente, envolvimento das plataformas, mas também da sociedade civil, do poder público e da academia; é um trabalho coordenado. Especialmente, é um trabalho que envolve a educação, e aí eu trago a capacitação dos educadores: colocar a educação digital como parte da formação continuada dos educadores, para que isso permita uma melhor convivência no ambiente escolar e, claro, o desenvolvimento de habilidades socioemocionais. A gente já tem na BNCC uma série de habilidades a serem desenvolvidas no âmbito socioemocional e é importante que a gente fortaleça o currículo promovendo a aquisição dessas habilidades.
Por fim, o fortalecimento também dos canais de ajuda e de apoio: a gente tem algumas iniciativas no Brasil, mas elas ainda são tímidas, são pequenas. Não há uma política pública voltada para a escuta e o apoio de crianças e jovens, e a gente sabe que, em muitos casos, se houvesse um atendimento, se houvesse um apoio mais precoce, muitos desses casos teriam sido evitados.
Muito obrigada.
O SR. PRESIDENTE (Hamilton Mourão. Bloco Parlamentar Aliança/REPUBLICANOS - RS) - Obrigado, Sra. Juliana.
Passo a palavra à Sra. Taís Niffinegger, representante da Meta.
A SRA. TAÍS NIFFINEGGER (Para expor. Por videoconferência.) - Obrigada, Senador.
Aqui nas nossas considerações finais, a gente queria enfatizar também a importância da colaboração de todos os atores da sociedade, cada um no seu âmbito de atuação, nos esforços de prevenção, principalmente, focados na educação, na detecção, ou seja, no aperfeiçoamento e no desenvolvimento da tecnologia para a detecção de conteúdo violador, e também no aperfeiçoamento dos mecanismos de resposta, que incluem não só os mecanismos de denúncia como a atuação da equipe de moderação e também a cooperação com as autoridades de aplicação da lei.
Muito obrigada.
A gente fica à disposição.
O SR. PRESIDENTE (Hamilton Mourão. Bloco Parlamentar Aliança/REPUBLICANOS - RS) - Bem, eu queria agradecer a todas as debatedoras e a todos os debatedores, porque as observações aqui colocadas vão melhorar o projeto. Eu solicito que enviem ao meu gabinete as suas observações que dizem respeito a pontos que não estão da melhor forma dentro desse projeto, de modo que a gente possa criar um substitutivo e, consequentemente, ter um projeto que seja adequado para combater o que nós queremos combater, com uma técnica legislativa mais correta e, principalmente, que seja exequível. Nós temos muitos problemas de colocar algum tipo de legislação, e, quando chega a hora de colocá-la em execução, ela não tem condições de ser executada, seja pelo encarregado de fazer cumprir-se a lei, seja por quem tem que julgar, seja por quem tem que cumprir. Então, nós temos que colocar um projeto que atinja o objetivo e que, principalmente, seja exequível por todos os atores envolvidos.
R
Então, mais uma vez, meus agradecimentos. Começamos uma segunda-feira de trabalho de forma magnífica!
Assim, declaro encerrada a presente reunião.
Muito obrigado.
(Iniciada às 10 horas e 01 minuto, a reunião é encerrada às 12 horas e 14 minutos.)