15/05/2024 - 10ª - Comissão de Comunicação e Direito Digital

Horário

Texto com revisão

R
O SR. PRESIDENTE (Izalci Lucas. Bloco Parlamentar Vanguarda/PL - DF. Fala da Presidência.) - Havendo número regimental, declaro aberta a 10ª Reunião da Comissão de Comunicação e Direito Digital da 2ª Sessão Legislativa Ordinária da 57ª Legislatura.
A presente reunião destina-se à realização da segunda audiência pública com a finalidade de instruir o PL 2.628, de 2022, que dispõe sobre a proteção de crianças e adolescentes em ambientes digitais, em atenção aos Requerimentos da Comissão de Comunicação e Direito Digital de nºs 11, 13, 44, 45 e 51, de 2024, de minha autoria; nº 14, de 2024, de autoria do Senador Alessandro Vieira; nº 36, de 2024, de autoria do Senador Beto Faro; nº 37, de 2024, de autoria do Senador Davi Alcolumbre; nº 38, de 2024, de autoria do Senador Astronauta Marcos Pontes; nº 42, de 2024, de autoria do Senador Eduardo Gomes; nº 48, de 2024, de autoria do Senador Carlos Portinho; e nº 50, de 2024, de autoria da Senadora Professora Dorinha Seabra.
R
Participarão presencialmente e tomarão assento na primeira fila deste plenário os seguintes convidados: Sr. Fábio Meirelles, Diretor de Direitos na Rede e Educação Midiática da Secretaria de Políticas Digitais da Secretaria de Comunicação Social da Presidência da República; Sr. Daniel de Andrade Araújo, Assessor da Agência Nacional de Telecomunicações (Anatel); Sr. Francisco Brito Cruz, Diretor Executivo do InternetLab; Sr. Rodrigo Paiva, Presidente do Conselho da Associação Brasileira de Licenciamento de Marcas e Personagens (Abral); Sra. Ana Bialer, Coordenadora do Grupo de Trabalho de Privacidade e Proteção de Dados da Câmara Brasileira da Economia Digital (camara-e.net); e Sra. Flávia Annenberg, Gerente de Relações Governamentais do Google Brasil. Além deles, foi incluída a Sra. Letícia Maria Costa da Nóbrega Cesarino, Assessora Especial de Educação e Cultura em Direitos Humanos do Ministério de Direitos Humanos e Cidadania.
Participarão, por meio de videoconferência, os seguintes convidados: Sr. Juliano Maranhão, Professor e Diretor do Legal Grounds Institute; Sra. Ana Bárbara Gomes, Diretora do Instituto de Referência em Internet e Sociedade; Sr. Fernando Gallo, Diretor de Políticas Públicas do TikTok Brasil; Sra. Taís Niffinegger, Gerente de Políticas Públicas da Meta para Segurança e Bem-Estar; Sra. Alana Rizzo, líder de Políticas Públicas do YouTube Brasil em formato virtual; e Sr. Sr. Rodrigo Nejm, especialista.
A convidada Sra. Estela Aranha, pesquisadora e advogada, não pôde comparecer à audiência devido a compromisso inadiáveis.
Antes de passar a palavra aos nossos convidados, comunico que esta reunião será interativa, transmitida ao vivo e aberta à participação dos interessados por meio do Portal e-Cidadania ou pelo telefone 0800 0612211.
O relatório completo com todas as manifestações estará disponível no portal, assim como as apresentações que forem utilizadas pelos expositores.
Na exposição inicial, cada convidado poderá fazer uso da palavra por até dez minutos. Para um melhor encaminhamento dos trabalhos, a palavra será concedida de modo alternado entre os convidados que participam presencialmente e de modo remoto. Ao fim das exposições, a palavra será concedida aos Parlamentares inscritos para fazer suas perguntas ou comentários.
Eu já vou passar, então, a palavra ao Sr. Fábio Meirelles, que é Diretor de Direitos na Rede e Educação Midiática da Secretaria de Políticas Digitais da Secretaria de Comunicação Social da Presidência da República.
Obrigado pela presença.
O SR. FÁBIO MEIRELLES (Para expor.) - Obrigado, Senador.
Boa tarde a todos. Boa tarde a todas.
Queria, em primeiro lugar, Senador, agradecer o convite que muito nos honra, a Secretaria de Comunicação Social da Presidência. É um prazer estar aqui.
Quero agradecer também à composição, a todos os que vão falar aqui na mesa, aos participantes e a quem está assistindo.
Eu acho que a minha fala e a minha contribuição, Senador, trazem três dimensões: uma de entendimentos e de sugestões ao projeto de lei; outra de pontos de atenção e de aprofundamentos que a gente entende serem necessários; e uma terceira, de políticas públicas que já estão sendo desenvolvidas no âmbito e que respondem ao projeto de lei.
Então, eu falo a partir da Secretaria de Comunicação Social da Presidência da República. A gente é uma secretaria nova na Secom, a Secretaria de Políticas Digitais, e esse departamento também é um departamento novo, o de Direito da Rede de Educação Mediática.
R
A gente tem como atribuições precípuas:
- desenvolver e promover medidas de proteção a vítimas de violação de direitos em serviços digitais de comunicação, sempre em articulação com o Ministério da Justiça e Segurança Pública, o Ministério dos Direitos Humanos, o Ministério das Mulheres e o Ministério da Igualdade Racial - então, a gente faz sempre esse desenvolvimento e essa promoção em articulação com esses ministérios -;
- formular e implementar políticas públicas para a promoção do bem-estar e dos direitos da criança e do adolescente no ambiente digital, em articulação com o MDHC - então, o objeto deste PL responde diretamente à nossa atribuição institucional -; e
- auxiliar na formulação, articulação e implementação de políticas públicas de educação midiática, em articulação com o MEC.
Então, gostaria só de reforçar que as nossas atribuições institucionais na Secom dialogam diretamente com o objeto deste projeto de lei.
Eu havia comentado que a gente vai fazer três dimensões: entendimentos, pontos a aprofundar e políticas públicas em desenvolvimento, que estão endereçadas ao projeto de lei.
Primeiro, o entendimento sobre o PL, por parte da Secom, é que é um projeto alinhado com as diretrizes internacionais, então o projeto está em consonância com as melhores práticas internacionais, especialmente ao priorizar a segurança e a proteção de crianças e adolescentes. Está alinhado - a gente entende também assim - ao Comentário Geral nº 25, do Comitê dos Direitos da Criança da ONU. E isso já é o resultado de um avanço significativo na discussão global sobre o tema, e também no Brasil. Então, a gente reconhece esse alinhamento do projeto de lei aos parâmetros e diretrizes internacionais.
A gente também entende que este é um projeto que avança em medidas de proteção dos direitos na rede para crianças e adolescentes. Então, incorpora uma série de medidas para garantir a segurança de crianças, adolescentes e jovens usuários da internet, como a implementação de mecanismos de segurança por design, ferramentas de controle parental e proibições específicas, como as caixas de recompensa, por exemplo. Essas disposições vão, em última instância, mitigar os riscos, como o uso abusivo de telas, a exposição a conteúdos prejudiciais e até o abuso e exploração sexual. A gente também entende que, além de estar alinhado aos parâmetros e diretrizes internacionais, o projeto avança em medidas de proteção dos direitos na rede para crianças e adolescentes.
Finalmente, nosso entendimento, também, é que o projeto dá uma ênfase necessária à responsabilidade dos fornecedores de serviços digitais. Então, o PL estabelece essas obrigações, que estão claras, para fornecedores de produtos e serviços, exigindo a adoção de medidas proativas para proteger usuários mais jovens. É fundamental, para nós, que esses modelos de negócio não prejudiquem o desenvolvimento integral de crianças e adolescentes e que as plataformas sejam responsáveis por realizar avaliação de riscos, disponibilizar ferramentas de controle parental e notificar as autoridades sobre conteúdos ilegais. Então, também faz parte esse entendimento com relação ao projeto de lei.
A gente queria dar destaque ao tema do dever de cuidado e, inclusive, sugerir uma redação - depois, a gente vai formalmente, Senador, encaminhar para a Comissão -, mas a gente queria dar esse destaque ao tema do dever de cuidado. E a gente tem, inclusive, sugestão de redação, como "os provedores têm o dever geral de atuar de forma diligente e em prazo hábil para mitigar o uso indevido de seus serviços". A gente acha que isso deve ser uma combinação de ações preventivas e de ações corretivas dos servidores. Esse era um destaque, com relação ao PL, que a gente queria dar.
R
Além de tudo, a gente queria destacar o dever de cuidado dos provedores com relação a alguns requisitos:
I - revisar regularmente seus esforços para lidar com danos e adaptar seus processos internos e a arquitetura de seus sistemas;
II - elaborar termos e condições que enderecem e mitiguem possíveis danos causados por conteúdos disponibilizados por terceiros;
III - aplicar seus próprios termos e condições relevantes de forma consistente - a gente queria destacar a aplicação dos termos e condições -;
IV - atuar para impedir que seus serviços sejam utilizados para disseminar material de abuso sexual infantil ou terrorismo, por exemplo, seguindo as melhores práticas da indústria;
V - atuar de forma diligente e transparente após a denúncia do usuário.
Por fim, também, a gente queria sugerir, no âmbito do dever de cuidado:
VI - auxiliar as autoridades em processos de investigação, respeitados os limites de sua atuação dispostos em lei; 
VII - prover informações aos órgãos responsáveis pela supervisão desta lei sobre medidas tomadas para realização do dever de cuidado;
VIII - estabelecer e implementar políticas e sistemas com base nas melhores práticas da indústria; e
IX - atuar ante a manipulação maliciosa intencional dos serviços.
Por último, a avaliação mencionada deve ser realizada sempre em conjunto com os esforços e medidas adotadas pelos provedores, sem caber avaliação sobre o tratamento de conteúdos isolados.
Isso aqui, Senador, são sugestões mesmo de redação ao PL que, depois, a gente vai encaminhar formalmente.
Como um dos temas a aprofundar no projeto, também, a gente queria destacar a questão do enforcement. Então, a necessidade de aprimoramento, especialmente no que diz respeito à ausência de uma autoridade reguladora para fiscalizar e garantir o cumprimento das disposições da lei. A gente entende que essa falta de enforcement pode comprometer a eficácia das medidas que estão propostas no PL e que essa estrutura responsável deve trabalhar na fiscalização e monitoramento, aplicação de sanções, formação e educação, transparência e prestação de contas das plataformas e na coordenação de esforços interinstitucionais. Então, a gente traz essa dimensão de aprofundamento da questão do enforcement e da autoridade reguladora.
Além disso, a gente também traz como ponto de atenção a ser aprofundado o uso de redes sociais por crianças e adolescentes, principalmente por crianças. É importante a gente refletir sobre a permissão para que crianças e adolescentes tenham contas em redes sociais. Ainda que vinculadas às contas de seus pais e responsáveis, essa decisão exige uma análise cuidadosa. A gente destaca aqui que a tendência internacional é mais restritiva quanto ao acesso de crianças às redes sociais e que os estudos apontam que as redes impactam na saúde mental, em transtornos alimentares, em, especialmente em meninas, pensamentos suicidas, automutilação. Então, a gente queria trazer esse tema do uso de redes sociais, principalmente por crianças, como um ponto de atenção e aprofundamento no âmbito do PL.
E, para concluir, ou caminhar para concluir a minha intervenção, eu queria trazer aqui ao conhecimento de todos algumas políticas públicas que já vêm sendo desenvolvidas no âmbito do tema do projeto de lei, que é a proteção de crianças e adolescentes no ambiente digital.
No ano passado, o MEC estabeleceu uma portaria instituindo um grupo de trabalho interministerial sobre prevenção e enfrentamento à violência nas escolas. Este ano, esse grupo de trabalho também se refletiu num decreto que institui o Sistema Nacional de Acompanhamento e Combate à Violência nas Escolas, regulamentando a lei que autoriza o Poder Executivo a implementar um serviço de monitoramento de ocorrência de violência escolar, e a gente contribuiu construindo, junto com o Ministério da Educação, essa cartilha sobre como lidar com o conteúdo de violência online e conversar com crianças e jovens sobre o tema no âmbito desse grupo de trabalho, do sistema, enfim.
(Soa a campainha.)
O SR. FÁBIO MEIRELLES - A gente tem avançado nesse debate com o Ministério da Educação.
A gente, no ano passado, realizou uma consulta pública sobre educação midiática também, para construir e para lançar, no final do ano, uma estratégia brasileira de educação midiática, que a gente tem implementado em parceria com o Ministério da Educação, porque a gente também entende que responde ao projeto de lei essa estratégia.
R
A gente, no ano passado, realizou a primeira edição da Semana Brasileira de Educação Midiática, também, em parceria com a Unesco e com vários parceiros da sociedade civil, com atividades autogestionadas, inscritas e com participantes no Brasil inteiro.
A gente, este ano, conseguiu incluir, em parceria também com o Congresso, no plano plurianual, a formação de 300 mil profissionais de educação e 400 mil profissionais de saúde em educação midiática, o que a gente acha que também dialoga diretamente com o tema e objeto do PL.
Este é um desafio no âmbito do Governo Federal para os próximos quatro anos, que é trabalhar na formação de professores e de profissionais de saúde em educação midiática para promover a integridade da informação, e esse, como um grande desafio, é um grande norte para o nosso trabalho, no âmbito do departamento e no âmbito da política de educação midiática.
Além disso, quero citar aqui a portaria que instituiu um grupo de trabalho para a elaboração de um guia de uso consciente de telas. Ontem a gente teve aqui vários representantes desse GT falando, sei que a Maria Mello - que está aqui - falou, como também o Thiago Tavares - da SaferNet -, o Cristiano Nabuco e a Lílian Cintra. Então, tem vários representantes nomeados nesse grupo de trabalho que estão com essa tarefa de elaborar um guia de uso consciente de telas, os quais já participaram da audiência ontem e outros que estão aqui - a Letícia também está aqui e integra esse grupo de trabalho.
A gente queria destacar esse guia de uso com sete ministérios: Secom, Casa Civil, Saúde, Justiça e Segurança Pública, Direitos Humanos e Cidadania, Educação e Desenvolvimento Social, todos estão juntos com os representantes da sociedade civil na elaboração desse material.
Finalmente, quero trazer a Resolução 245 do Conanda, sobre os direitos das crianças e adolescentes em ambiente digital. Essa resolução prevê o desenvolvimento de uma política nacional de proteção dos direitos da criança e do adolescente no ambiente digital, com ações conjuntas, integradas e multissetoriais.
Essas são algumas iniciativas que, no âmbito da Secom e em parceria com vários ministérios do Governo Federal, a gente tem desenvolvido para tratar do tema da proteção dos direitos da criança e do adolescente no ambiente digital.
A gente vai encaminhar depois para a Comissão, Senador, todos esses documentos, resoluções, portarias, guias que a gente vem desenvolvendo.
Então, quero agradecer e colocar a Secom à disposição. Obrigado.
O SR. PRESIDENTE (Izalci Lucas. Bloco Parlamentar Vanguarda/PL - DF) - Obrigado, Fábio.
Passo imediatamente a palavra à Sra. Alana Rizzo, que é Líder de Políticas Públicas do YouTube Brasil em formato virtual, por videoconferência.
A SRA. ALANA RIZZO (Para expor. Por videoconferência.) - Obrigada, Senador. Boa tarde a todos e a todas. Eu vou compartilhar a minha tela com uma apresentação, porque posso ficar...
Está todo mundo conseguindo ver?
O SR. PRESIDENTE (Izalci Lucas. Bloco Parlamentar Vanguarda/PL - DF) - O.k.
A SRA. ALANA RIZZO (Por videoconferência.) - Está ótimo. Obrigada, Senador.
Então, boa tarde a todos, aos Srs. Senadores, às Sras. Senadoras, aos colegas de mesa, a todos que nos acompanham online.
Meu nome é Alana Rizzo, lidero o time de Políticas Públicas do YouTube no Brasil. Gostaríamos de agradecer a oportunidade de participar desta audiência pública, de colaborar com o debate e o fortalecimento de políticas públicas voltadas para as nossas crianças e adolescentes.
O YouTube tem como missão dar voz a todas as pessoas e mostrar o mundo a elas, e no centro está o nosso compromisso com a responsabilidade, em especial, a proteção de crianças e adolescentes. À medida que os jovens passam mais tempo online, levando em conta as necessidades conforme eles evoluem, é fundamental implementarmos essas proteções que também lhes permitam o acesso à informação adequada à idade.
Fazemos isso investindo em parcerias, tecnologias e políticas que criam ambientes que permitam às crianças expressar sua imaginação e curiosidade e capacitar as famílias para criarem as experiências certas para os seus filhos. Ao mesmo tempo, reconhecemos os riscos potenciais que as crianças podem enfrentar online e investimos extensivamente em tecnologia de aprendizado de máquina que identifica danos potenciais de forma rápida e em grande escala.
R
Nossas equipes internas incluem especialistas em desenvolvimento infantil e trabalham em estreita colaboração com as equipes de produto para garantir que o design reflita as necessidades e as habilidades únicas das crianças e como elas evoluem com o tempo. Também trabalhamos extensivamente com especialistas externos em segurança online, saúde mental e alfabetização digital. Essa colaboração é essencial para garantir que tenhamos as melhores informações e evidências disponíveis para abordar os novos desafios que as crianças podem enfrentar online.
Na fala de hoje, eu gostaria de descrever os princípios que guiam o nosso trabalho de segurança infantil e que gostaríamos de oferecer em termos de contribuição para o desenvolvimento das políticas públicas; as nossas políticas de segurança infantil e as remoções de conteúdo que violam as nossas políticas; e, terceiro, fornecer uma visão mais geral do controle parental das diversas experiências supervisionadas que a gente tem na nossa plataforma.
No ano passado, a gente estabeleceu um conjunto de padrões consistentes para os jovens online, que são esses cinco princípios que norteiam o nosso trabalho. Através deles, a gente espera também contribuir para os debates regulatórios, como o que acontece aqui hoje, e outras importantes conversas com especialistas em torno do tema. São eles: o primeiro princípio é que a privacidade, a segurança física, a saúde mental e o bem-estar das crianças e adolescentes requerem proteções especiais online. O segundo princípio é que os responsáveis têm um papel importante no estabelecimento de regras para as experiências online da família, especialmente para as crianças mais novas. Terceiro, todas as crianças merecem ter acesso livre e equitativo ao conteúdo de alta qualidade, apropriado à idade delas e que atenda às necessidades e os interesses de cada uma. Quarto princípio, as necessidades de desenvolvimento das crianças são muito diferentes das dos adolescentes, e isso deve ser considerado nas experiências online. E o quinto princípio, com as salvaguardas certas, as tecnologias inovadoras podem beneficiar crianças e adolescentes.
Esperamos que esses princípios possam também colaborar com a formulação de políticas públicas, assim como eles vêm guiando o nosso trabalho. Eles são aplicados em três etapas do nosso processo. O primeiro deles é a moderação de conteúdo; o segundo, o desenvolvimento dessas experiências adequadas à faixa etária; e o terceiro, saúde mental e bem-estar.
Eu vou comentar rapidamente sobre esses três pontos.
No primeiro, nós removemos conteúdo que viola as nossas políticas. Mas a verdade é que a maioria dos vídeos com menores no YouTube não viola as nossas políticas e é postada de forma inocente. Mas quando o assunto é criança, aplicamos as nossas políticas como nível extra de preocupação e temos um conjunto robusto de regras que está sempre sendo atualizado para atender as demandas e os desafios da nossa sociedade. Hoje, temos no nosso conjunto de políticas aquelas que proíbem conteúdo de violência, discurso de ódio, conteúdo sexual e desinformação. Temos também algumas regras focadas na segurança infantil, proibindo o conteúdo de sexualização de menores, bullying ou que promova atos nocivos além de suicídio e automutilação.
Os nossos conteúdos que não violam as nossas políticas, mas que também não são inadequados para espectadores com menos de 18 anos têm restrição de idade. Isso inclui uma lista. Aqui, alguns desses conteúdos: linguagem vulgar, atividades nocivas ou perigosas, nudez, drogas.
Mas, como eu disse, nós atualizamos regularmente essas experiências e essas políticas dos produtos com base nas recomendações do nosso Comitê Consultivo de Jovens e Famílias. Esse comitê é composto por 12 especialistas, entre eles alguns brasileiros que têm oferecido esse trabalho para o YouTube com seu conhecimento. A gente consulta esses especialistas também para desenvolver um conjunto de princípios para os conteúdos de baixa qualidade, para que a gente possa reduzir esses conteúdos na nossa plataforma. Isso pode incluir conteúdo altamente comercial e enganoso, vídeos que estimulam atitudes negativas ou que façam o uso duvidoso, por exemplo, de personagens infantis. No YouTube Kids, esse tipo de conteúdo é removido; no YouTube principal, a gente recomenda rebaixar esse conteúdo para que ele tenha menos impacto.
R
Por fim, a gente recompensa criadores de conteúdo de alta qualidade porque queremos incentivar os usuários a criar conteúdo de qualidade. Se não pudessem gerar receita com os anúncios, os criadores de conteúdo infantil seriam forçados, de alguma forma, a mudar os seus modelos de negócio. Então, a gente acredita que é superimportante que os criadores de conteúdo possam produzir conteúdo de alta qualidade e que crianças e famílias possam acessar conteúdo aberto, que não dependa da sua capacidade financeira; mas temos políticas claras para esse tipo de conteúdo.
No YouTube, a monetização é um privilégio. Por isso, um conteúdo com foco altamente comercial pode receber nenhum ou poucos anúncios. E os canais dedicados a promover conteúdo de baixa qualidade podem ser removidos do nosso programa de parcerias.
Também é importante mencionar que a personalização e os anúncios funcionam no YouTube de modo diferente para aqueles com menos de 18 anos. A personalização dos anúncios foi desativada para todos os usuários com menos de 18 anos, e as categorias sensíveis de anúncios estão restritas para os usuários dessa faixa etária. Então, em sessões pagas de produto, como patrocínios em vídeos marcados, ou consideradas experiências supervisionadas, encaminhamos os espectadores para vídeos explicando como essas parcerias funcionam como parte do nosso trabalho de alfabetização midiática.
Também oferecemos experiências adequadas a cada faixa etária para atender às necessidades específicas do desenvolvimento de crianças e adolescente. O YouTube Kids é um app independente, criado do zero, para oferecer uma experiência mais segura e simples para as crianças, com ferramentas que ajudam as famílias a guiar essa jornada. Já as experiências supervisionadas foram desenvolvidas para que as famílias possam decidir o que a criança ou adolescente está pronto para conhecer, com base na realidade de cada família.
O YouTube Kids é um app disponível, exclusivo, para o conteúdo voltado para a criança; então, ele foi pensado desde o início nas crianças. Inclui quatro experiências diferentes para que cada família possa escolher de acordo com a sua realidade. Então, tem pré-escolar, crianças menores, crianças maiores, sempre olhando para as questões das faixas etárias específicas.
Caso a própria família queira aprovar um conteúdo, é possível autorizar coletâneas, séries infantis e música, além de poder também bloquear conteúdos, por exemplo, que a família entenda que não façam sentido para aquela criança.
Além das configurações de conteúdo, a família, além de bloquear e de recomendar, pode pausar, apagar histórico; basta um clique, bem simples, para bloquear um vídeo ou um canal inteiro, por exemplo. Definir tempos de tela é outro também ponto importante aqui.
As experiências supervisionadas foram criadas depois de muito diálogo com especialistas que ressaltaram as diferentes etapas do desenvolvimento. Então, elas ajudam a família a monitorar e controlar o que as crianças assistem na plataforma principal. Há três configurações de conteúdo que correspondem às diferentes realidades das famílias. Cada configuração oferece mais acesso ao conteúdo do YouTube.
Para terminar, eu queria conversar um pouquinho sobre como o YouTube prioriza o bem-estar e a saúde mental dos espectadores mais jovens. Primeiro, oferecemos a esses usuários várias ferramentas para gerenciar o tempo e o bem-estar, incluindo lembretes na hora de dormir e pausa, que estão ativados por padrão, e recursos de reprodução automática, que também estão automaticamente desativados. Além disso, para ajudar os adolescentes a tomar decisões mais coerentes, também trabalhamos a questão da privacidade digital. O YouTube define a configuração de envio mais privada possível como padrão, e os envios só podem ser feitos para aqueles que o usuário escolher dentro da plataforma.
R
Além disso, para ajudar os adolescentes a tomarem decisões coerentes, também fazemos essas configurações específicas para que o usuário e a sua família possam discutir e dialogar sobre as melhores formas da presença digital.
Também desenvolvemos parcerias e realizamos capacitações e treinamentos para criadores de conteúdo, para que eles possam estar sempre produzindo conteúdo positivo e relevante. Aqui, alguns exemplos, como uma série que trabalhamos em parceria com a Childhood e o canal Futura chamado Que corpo é esse?. Sugiro que quem tiver interesse possa conhecer dentro do YouTube.
Queremos garantir essa experiência positiva, acessível e, principalmente, a segurança da nossa comunidade. A nossa responsabilidade é garantir essa comunidade segura e, principalmente, que se possa levar conteúdo e informação aberta, de qualidade e confiáveis.
Queria agradecer a oportunidade de estar aqui.
Estamos à disposição para colaborar com esta audiência pública.
O SR. PRESIDENTE (Izalci Lucas. Bloco Parlamentar Vanguarda/PL - DF) - Obrigado, Alana.
Já passo, então, a palavra ao Sr. Daniel de Andrade Araújo, que é assessor da Agência Nacional de Telecomunicações (Anatel).
O SR. DANIEL DE ANDRADE ARAÚJO (Para expor.) - Exmo. Senador Izalci Lucas, na pessoa de quem saúdo todos os demais presentes.
Meu nome é Daniel Araújo e estou aqui na condição de representante do Presidente da Anatel, Sr. Carlos Baigorri, e da Conselheira Cristiana Camarate, que infelizmente não puderam estar presentes aqui hoje.
A Anatel tem buscado trabalhar com o conceito de conectividade que não seja somente universal, mas que seja também significativo para os cidadãos brasileiros. Isso leva a uma perspectiva de enfrentamento de problemas relacionados às habilidades digitais e à segurança das redes e da navegação de todas as pessoas. Por isso, a agência tem participado e colaborado ativamente com debates sobre produção online de crianças e adolescentes.
Em conjunto com a Embaixada britânica e com o Comitê Gestor da Internet, nós providenciamos a tradução para a língua portuguesa de diversos materiais sobre o tema elaborados pela União Internacional de Telecomunicações, como textos de referência. São obras com diversos enfoques, inclusive voltados para as próprias crianças, com personagens e uma abordagem lúdica, que colaboram com o incremento da percepção de risco e das habilidades digitais necessárias para o enfrentamento do tema.
Aqui, contudo, eu destaco, em atenção à pauta desta audiência, as diretrizes para formuladores de políticas sobre proteção online infantil e as diretrizes para a indústria sobre proteção online infantil. O documento contém, entre outros elementos, recomendações relativas à estruturação e à implementação de marcos legais para apoiar a plena realização dos direitos da criança no ambiente digital. A publicação traz ainda uma lista de verificação relativa ao desenvolvimento de estratégia nacional com as principais áreas a serem consideradas.
Os textos estão disponíveis online, gratuitamente, para todos os interessados, na página da agência na internet, Sr. Presidente. Eu vou também pedir a entrega de uma via física aqui para a Secretaria da Comissão para que os senhores possam avaliar o material, uma colaboração da agência.
Registro ainda que a agência atua em projetos de cooperação técnica com o UNESCO (Organização das Nações Unidas para a Educação, a Ciência e a Cultura), buscando desenvolver instrumentos de ampliação das habilidades digitais e segurança da população jovem para realizar atividades online. O projeto, que foi assinado recentemente, está em suas fases iniciais. Esses dois últimos projetos trazem-nos a convicção de que um elemento central para a proteção online de nossas crianças e adolescentes é a atuação para o incremento de suas habilidades digitais em parceria com mecanismos legislativos e sistêmicos, como os propostos do projeto em análise.
Tratando diretamente do texto que justifica a presença na audiência, a agência tem posicionamento institucional que cobra alguns pontos que podem ser de relevo. Em primeiro lugar, destaco o art. 27, substitutivo aprovado pela CCJ, que traz a obrigação de que equipamentos eletrônicos que permitam acesso à internet contenham adesivos que informem sobre a necessidade de proteger crianças e adolescentes do acesso a sítios com conteúdo impróprio ou inadequado.
R
As melhores intenções do dispositivo em questão são absolutamente claras. Todavia, dada a gama de equipamentos a que estão destinados - e aqui, Presidente, eu destaco que a grande maioria dos eletrônicos fabricados hoje em dia têm essa capacidade de conectividade com a internet, de caixas de som até aspiradores, passando pelos mais óbvios: computadores, tablets, smartphones -, acabam por levar a uma situação em que existe uma exigência legal que pode servir como uma barreira regulatória à comercialização de produtos no país, uma preocupação que em outros momentos foi afastada pelo próprio projeto de lei. E aqui eu reproduzo, relembro especificamente o conteúdo do §3º do art. 10, na forma do substitutivo, que aponta que a validação do controle parental pelo Poder Executivo não é um pré-requisito para a disponibilização de produtos ou serviços ao público.
Destaco ainda que, sob uma perspectiva de educação para o consumo e de incremento dessas habilidades digitais, um adesivo não é capaz de trazer informações suficientes para a apresentação da gama de conhecimentos necessários para, em uma população com baixas habilidades digitais, gerar uma atuação efetiva dos pais, mães e responsáveis. Aqui, Sr. Presidente, o nosso maior receio é que a maior parte dos destinatários da mensagem, confrontada com o adesivo proposto, comece a se perguntar "O.k., como posso fazer para proteger meu filho?", sem saber necessariamente como buscar uma informação que seja realmente relevante para essa finalidade.
Outro ponto que gostaríamos de destacar é que o substitutivo aprovado pela CCJ denota uma série de medidas a serem adotadas pelo Poder Executivo. Então, destaco que algum órgão precisará exercer o poder de polícia administrativa relacionado às regras que estão sendo estabelecidas e decorrentes de regulamentação da norma pelo Poder Executivo. Mesmo na perspectiva de avaliação para promoção das ações judiciais, para aplicação das ações previstas, segundo a dinâmica que o próprio projeto prevê, para promoção das ações judiciais, para sancionamento das empresas, a definição de um órgão regulador é necessária. Esse até foi um ponto que acabou de ser destacado na fala do representante da Secom, que me precedeu.
A Anatel vem, já há algum tempo, se colocando à disposição dos tomadores de decisão como um órgão capacitado tecnicamente e institucionalmente para tratar de questões relacionadas a ambiente e economia digital. Essa visão não é única no Brasil.
No sistema ONU, a União Internacional de Telecomunicações vem, há muitos anos, tratando diretamente de questões relacionadas a ambiente e economia digital. E aí eu ressalto, por exemplo, as diretrizes que eu citei há pouco. Seja em meio ambiente, economia circular, passando pelo metaverso e até por robôs e veículos autônomos, a ONU colocou todo o ambiente digital no âmbito de sua agência de comunicações, inclusive a proteção online de crianças e adolescentes, como visto pelas diretrizes.
Mesmo em âmbito internacional, em outros países a situação é muito similar. O OFCOM, o regulador de telecomunicações do Reino Unido, acaba de colocar em consulta pública diversas medidas que as plataformas digitais precisam seguir para aumentar a segurança de crianças na internet.
Nesse sentido, destacamos que a atribuição à Anatel das competências para ser agência reguladora do que trata o projeto de lei traria um reforço às competências já existentes da agência, tornando-a ainda mais capaz de atuar no tema. Lembro que smartphones, tablets, computadores, notebooks e os principais hardwares em que os produtos ou serviços de tecnologia da informação de que trata o projeto de lei estariam embarcados já são regulados pela agência, justamente em decorrência de sua capacidade de conectividade com a internet.
A agência também promove a retirada de conteúdos de rede em decorrência de decisões judiciais por meio de atuação junto às empresas de telecomunicações, pelo que estará em alguma medida envolvida com a matéria. Também já regula, em parte, as atividades de serviços de valor adicionado, que são tratadas pelo projeto de lei como produtos ou serviços de tecnologia da informação, em decorrência do disposto no art. 4º, inciso I, da Lei Geral de Telecomunicações - aí, dentro de uma perspectiva de uso nas redes.
Institucionalmente, a agência tem independência financeira, autonomia de suas decisões, um corpo técnico qualificado e um histórico que soma, em 2024, 27 anos de atuação na regulação do setor de telecomunicações e no diálogo com a sociedade.
R
Nesse sentido, a norma em debate vai demandar uma inequívoca atuação de um regulador, que, para além dos regulamentos a serem editados pelo Poder Executivo, consiga trazer elementos mais objetivos para disposições essencialmente principiológicas, como não poderia deixar de ser neste caso. Algumas das contribuições que precederam na data de ontem, inclusive, solicitam providências nesse sentido.
Por fim, o projeto de lei endereça sanções decorrentes do seu descumprimento, solicitando que elas sejam aplicadas pelo Poder Judiciário. Eu destaco que, na experiência da Anatel, as sanções a serem aplicadas pelo regulador, qualquer que seja ele, permitem um enforcement muito mais efetivo das regras a serem estabelecidas.
Há a formação de um corpo de conhecimento especializado sobre as matérias, uma verdadeira jurisprudência administrativa, que será permanentemente reforçada a cada infração e que garanta a aplicação homogênea da legislação, garantindo, inclusive, uma segurança jurídica para as próprias plataformas e para os próprios prestadores de serviços.
Esse elevado grau de especialização justifica, no direito, a doutrina de uma contenção do Poder Judiciário frente às instituições reguladoras, verdadeira deferência do Poder Judiciário à especialização das agências, que é afirmada e reafirmada em diversas decisões judiciais no Brasil, inclusive. E também isso não traz nenhum tipo de prejuízo, já que, em qualquer caso, em eventuais excessos, as portas do Poder Judiciário sempre estarão abertas, inclusive, em decorrência de determinações profissionais.
Além disso, o fato de o regulador ter em suas mãos um instrumento de sanção permite a adoção de uma série de instrumentos regulatórios. Por exemplo, a Anatel já vem adotando uma técnica de converter as sanções de obrigações em multas de obrigação de fazer. Em vez de simplesmente regular um valor aos cofres públicos, essa sanção é utilizada para, por exemplo, levar a infraestrutura de telecomunicações a um local cujo investimento não é economicamente viável.
Senador, em face da limitação do nosso tempo aqui, eu destaco que a agência permanece aberta ao diálogo para aprimoramento do projeto no que for necessário.
O SR. PRESIDENTE (Izalci Lucas. Bloco Parlamentar Vanguarda/PL - DF) - Obrigado, Daniel.
Passo a palavra agora ao Sr. Fernando Gallo, Diretor de Políticas Públicas do TikTok Brasil.
O SR. FERNANDO GALLO (Para expor. Por videoconferência.) - Boa tarde, Senador Izalci. Boa tarde a todos os colegas expositores e também a todas e todos que nos acompanham hoje. Agradeço pela oportunidade de falar a esta Comissão.
Meu nome é Fernando Gallo e eu sou o Diretor de Políticas Públicas do TikTok, uma comunidade online de mais de 1 bilhão de pessoas em todo o mundo, que usam o nosso aplicativo para criar, compartilhar e descobrir conteúdos. Embora uma parte muito significativa das pessoas que usam a nossa plataforma seja de maiores de idade, nós reconhecemos que são necessárias salvaguardas especiais para proteger os menores. Nesse sentido, eu queria saudar a iniciativa de criar uma legislação que possa garantir a segurança de crianças e adolescentes nos ambientes online e dizer que o PL 2.628 traz avanços importantes.
A nossa tarefa é proteger a todos, mas é ainda mais prioritário proteger as crianças e os adolescentes. Nós do TikTok temos trabalhado com afinco para manter as crianças fora da plataforma e para garantir que os adolescentes tenham uma experiência segura e adequada para os seus estágios de maturidade. Até porque nós somos uma plataforma mais nova, eu quero muito brevemente falar sobre o nosso trabalho de proteção aos adolescentes, porque eu penso que isso ajuda a informar este debate e aí, na sequência, eu passo ao comentário sobre o projeto.
TikTok é diligente na aplicação da política de idade mínima de 13 anos, menores de 13 anos não devem estar na plataforma. No ano passado, nós removemos 80 milhões de contas suspeitas de serem de menores de 13 anos globalmente. O TikTok oferece uma experiência para adolescentes muito mais restritiva do que nós, como adultos, teríamos.
R
E eu dou aqui alguns exemplos de políticas e ferramentas que são únicas no TikTok: i) mensagens diretas não estão disponíveis para ninguém com menos de 16 anos; ii) contas de pessoas com menos de 16 anos são automaticamente configuradas como privadas, juntamente com o seu conteúdo, e, além disso, esse conteúdo não pode ser baixado - não é permitido fazer download dele - e esse conteúdo também não será recomendado a pessoas que elas não conhecem; iii) todo adolescente com menos de 18 anos tem um limite de tempo de tela diário automaticamente definido para 60 minutos; e iv) apenas pessoas com mais de 18 anos estão autorizadas a realizar uma transmissão ao vivo, a chamada live.
O TikTok foi um dos primeiros a permitir que os pais supervisionem seus adolescentes em nosso aplicativo, com nossas ferramentas de sincronização familiar, que incluem definir limites de tempo de tela e filtrar conteúdo do feed dos adolescentes, entre outras coisas.
As nossas diretrizes da comunidade também são claras e robustas; elas proíbem, terminantemente, conteúdo ou comportamento que coloque os adolescentes em risco. E nós aplicamos essas políticas com rigor. Nós trabalhamos para detectar proativa e celeremente conteúdos violativos e removê-los da nossa plataforma. Atualmente, a gente tem mais de 40 mil profissionais de segurança trabalhando em todo o mundo para proteger a nossa comunidade, inclusive diversos profissionais brasileiros.
Eu passo aos pontos que nós entendemos que podem ser objeto de melhorias no PL.
Quero começar pela questão do art. 21, que impõe aos fornecedores de tecnologia a obrigação de remover conteúdo ofensivo a crianças e adolescentes imediatamente após serem notificados, sem a necessidade de ordem judicial. A intenção de proteger é clara, mas a ausência de um processo judicial prévio levaria, inevitavelmente, a abuso dos mecanismos de notificação e à eventual censura de conteúdos legítimos.
Quanto ao parágrafo único do art. 20, a obrigatoriedade de notificar o Ministério Público e outras autoridades competentes sobre violações aos direitos de crianças e adolescentes é uma medida que pode enfrentar desafios operacionais significativos, inclusive porque, com muita frequência, os usuários não sabem utilizar os mecanismos de denúncia e denunciam conteúdos que nada têm a ver com aquele canal ou aquela política.
O art. 5º e seu parágrafo único instituem um dever de cuidado. Nós, definitivamente, não somos contrários à ideia de se criar um dever de cuidado, muito pelo contrário, sugerimos apenas que ele seja fundamentalmente procedimental e que os critérios de aferição desse dever de cuidado sejam muito objetivos.
O art. 7º enfatiza a questão do modelo mais protetivo para crianças e adolescentes, e nós chamamos atenção para o fato de que há diferentes estágios de desenvolvimento dos jovens, não apenas entre crianças e adolescentes, mas entre os adolescentes, eles próprios. Inclusive, o TikTok tem por padrão o modelo mais protetivo para os adolescentes de 13 a 15 e outro para os adolescentes de 16 e 17, que ainda não podem ter acesso a todas as ferramentas que os maiores de 18 têm, mas têm acesso a algumas das ferramentas que os adolescentes de 13 a 15 não têm. Respeitar os diferentes estágios da adolescência está em linha, inclusive, com o que preconiza o AADC, o código de design apropriado para idades do Reino Unido.
R
Quero chamar atenção também para o art. 10º, §4º, inciso V, que diz que o controle parental deve prever a possibilidade de desativação de sistemas de recomendação. É uma questão de falta de neutralidade tecnológica nesse trecho e de impossibilidade técnica de cumprimento. TikTok é uma plataforma que está fundamentalmente baseada no modelo de recomendação de conteúdos. Facultar a capacidade de remoção da recomendação seria praticamente inutilizar o serviço.
Eu quero alertar também para o art. 16, que, na prática, determina a coleta indiscriminada de documentos, o que é rejeitado pela ANPD, pelas autoridades de proteção de dados mundo afora e pela comunidade de privacidade de maneira mais ampla.
E, finalmente, há o art. 19, §2º, que trata da retenção de dados relacionados ao abuso e à exploração sexual de menores. Embora extremamente importante na luta contra esses crimes hediondos, essa previsão traz uma questão problemática de retenção desse tipo de material. A forma como isso funciona hoje é que as empresas reportam esse material para o NCMEC (Centro Nacional para Crianças Desaparecidas e Exploradas), que já foi citado aqui nesta audiência, e eliminam isso dos seus sistemas. Obrigar as plataformas a reter esse dado significa aumentar bastante o risco de proteção de dados e eventualmente de revitimização das vítimas, em casos de incidentes.
Eu agradeço a atenção de todos e reitero a importância de continuar este diálogo construtivo, com o compromisso de proteger as nossas crianças e adolescentes, garantindo, ao mesmo tempo, a liberdade, a inovação, o desenvolvimento saudável da sociedade digital em que nós vivemos. Manter os adolescentes seguros online requer um esforço colaborativo, bem como uma ação coletiva. Nós compartilhamos a preocupação e o compromisso desta Comissão em proteger os jovens online, e o nosso compromisso é contínuo e inabalável, porque não tem linha de chegada quando se trata de proteger as crianças e os adolescentes.
Obrigado pelo seu tempo e pela consideração.
Eu fico à disposição.
O SR. PRESIDENTE (Izalci Lucas. Bloco Parlamentar Vanguarda/PL - DF) - Obrigado, Fernando.
Passo a palavra agora ao Sr. Francisco Brito Cruz, que é Diretor Executivo da InternetLab.
O SR. FRANCISCO BRITO CRUZ (Para expor.) - Boa tarde. Boa tarde, Senador Izalci.
É um enorme prazer, em nome do InternetLab, estar aqui presente, uma grande honra para a gente. InternetLab é um centro de pesquisa baseado em São Paulo que atua na área de direitos humanos e tecnologia e tem atuado recorrentemente nos debates sobre regulação de redes sociais no Brasil. Fazemos parte, inclusive, da Coalizão Direitos na Rede, que é uma coalizão de mais de 50 entidades que também discutem o assunto e que acho que merece ser mencionada, já publicou nota a respeito do PL 2.628 também, mas falo em meu nome e em nome do InternetLab.
Em primeiro lugar, esta discussão é extremamente relevante. O tema de proteção de crianças e adolescentes no ambiente digital é um tema central, e em especial também em relação à exploração comercial dos dados de crianças e adolescentes, etc. Então, considero esta discussão fundamental e saúdo o Senado Federal por estar levando isso adiante.
Tenho aqui três pontos, comentários, para trazer em termos de aprimoramento e uma novidade que eu queria sugerir para a discussão deste projeto de lei. Então, vou diretamente aos comentários.
Em primeiro lugar, é uma discussão sobre os pressupostos. O que nós queremos como sociedade brasileira com este projeto de lei? Entendo que nós queremos que as plataformas invistam em estudar os impactos nocivos de tecnologias digitais para crianças e adolescentes e que tais plataformas, tais fornecedores de serviços digitais implementem soluções efetivas desse tema nos seus produtos. O que nós não queremos? Não queremos que as plataformas sejam colocadas numa espécie de função de polícia de conteúdo, ou de conteúdo ou, enfim, das próprias crianças e adolescentes, em especial sem balizas sobre o que devem remover e o que devem reportar, ou seja, para fazer um paralelo com a linguagem do projeto de lei, não devem ser colocadas para acompanhar e supervisionar as crianças sem que sejam supervisionadas, sem que sejam acompanhadas - e aí pela sociedade, pelo Estado democrático de direito. E esses são os pressupostos que eu trago aqui nos meus demais comentários.
R
Em primeiro lugar, indo mais diretamente ao texto, falo da parte sobre remoção de conteúdo e reporte a autoridades. Entendo que o projeto de lei deve trazer, sim, uma obrigação para receber notificações de conteúdos que são nocivos à criança e ao adolescente para removê-los e também para reportar quando detectam ativamente esse tipo de conteúdo para autoridades, para que as autoridades possam fazer algo. O que eu não defendo é que o PL não deve instituir um dever de remoção e de reporte sem remeter a condutas mais específicas como, por exemplo, artigos do próprio Estatuto da Criança e do Adolescente. Por exemplo, o atual texto do art. 21 é genérico, cria um dever de remoção de, abro aspas, "conteúdo que viola direitos de crianças e adolescentes". Isso não necessariamente é a melhor prática e pode implicar em remoção de conteúdos legítimos, inclusive produzidos por crianças e adolescentes. As plataformas precisam ser ágeis e diligentes para remover conteúdos que são crimes, lógico, mas a sociedade precisa ser mais específica sobre o que quer que seja removido, sob pena de dar um cheque em branco para que essas empresas interpretem o que acham que sejam direitos de criança e adolescente e sua violação sem uma baliza mais específica. Então, seria mais simples remeter diretamente ao ECA. A gente tem, por exemplo, o art. 241-A do Estatuto da Criança e do Adolescente, que nos dá aí uma baliza importante para esse ponto.
Sobre os reportes a autoridades, faz sentido talvez meditar e tentar pensar em uma forma de criar uma governança para esse fluxo de reportes, porque ele pode ser muito grande, que consiga, inclusive, envolver diferentes agentes com diferentes competências. A questão da competência precisa ser equacionada. Essa foi uma questão, inclusive, que foi trazida ontem e que eu reforço aqui. Precisa-se de um plano para como o Estado brasileiro vai receber esses reportes. Como foi dito ontem, o Estado americano, a partir desse Centro para Crianças Desaparecidas e Exploradas, já citado aqui hoje, tem uma estrutura gigantesca, mantida por milhões de dólares. Qual é a nossa estrutura? Qual será a nossa estrutura? É porque não faz sentido criar um dever de reporte se a gente não tem como receber o reporte. Eu diria que é irresponsável também. Então, acho que é um bom passo pensar em reporte, mas a gente precisa entender como o Estado vai receber.
Em terceiro lugar, queria comentar também sobre a ausência de um regulador ou normatizador. Entendo que isso, sim, é um problema, em especial se associado a termos genéricos da lei. Como diz o projeto de lei, as sanções são de responsabilidade do Judiciário, mas como o Judiciário vai interpretar ou, ainda, como ele deve interpretar, por exemplo, os artigos sobre dever de cuidado, art. 6º, art. 7º, art. 8º? É o Judiciário, em todas as suas instâncias, que vai interpretar, por exemplo, o que são medidas razoáveis, o que são medidas suficientes, o que são plataformas, por exemplo, que podem ser utilizadas por crianças? É necessário transferir competências de normatizar e de criar padrões para algum corpo técnico que ao menos dê balizas, que depois podem dar maior densidade à aplicação das sanções. É o mínimo isso, na minha opinião, para garantir efetividade. É a experiência que dá certo. E que haja participação da sociedade, esse é um ponto importante. Há menção ao Executivo, sim, entendo que a menção é positiva, importante, mas a gente precisa ter uma reflexão sobre como dar maior densidade à atuação fiscalizadora, mesmo que seja perante o Judiciário. A gente vai dar alguma outra baliza?
R
Com isso, dialogo com o colega da Agência Nacional de Telecomunicações, porque, na minha opinião, entendo que não há órgão no Brasil hoje preparado para lidar com essas questões de maneira plena. Há uma necessidade de criação dessas capacidades. Aqui não são questões de telecomunicações assim como não são questões puramente de proteção de dados. São questões de serviços digitais, direitos humanos, direitos de crianças e adolescentes e de como eles se conectam com moderação de conteúdo e desenho desses serviços. Não existe, no Brasil, hoje um órgão regulador com essa capacidade, infelizmente. Então, é necessário a gente pensar em como aproveitar as estruturas que existem de uma maneira mais ampla, pensando nas agências que existem, no Comitê Gestor da Internet, que é uma entidade multissetorial que formula estudos e pesquisas que vão ser úteis nesse processo, inclusive porque a gente tem um toque, por exemplo, com a matéria de proteção de dados importantíssimo. Ontem, isso já foi objeto de debate aqui. E não tem jeito: esse debate toca o debate que o PL 2.630 traz, que é o PL sobre o que a gente vai fazer com a regulação de redes sociais no Brasil do ponto de vista de estrutura regulatória. Isso toca vários pontos, e a gente precisa dar essa densidade para que a gente interprete o que é uma medida razoável para essas redes adotarem.
Tenho, por último, um comentário antes da minha sugestão, que é um comentário sobre definições. Sugeriria uma reflexão sobre as definições que são trazidas pelo projeto de lei, para entender o que está dentro e o que está fora, em especial, de serviços digitais e de redes sociais, e as peculiaridades de cada tipo de provedor, até porque existem provedores que não são redes sociais, mas que, eventualmente, quando a gente lê a definição de redes sociais, podem ser incluídos nessa definição. Um exemplo foi como isso foi tratado no PL 2.630, em que se criou uma exceção para dizer o que não são redes sociais, por exemplo. Parece-me que essa exceção seria adequada a serviços como a Wikipédia. Na Wikipédia, há uma moderação feita pela própria comunidade - não é uma rede social, as pessoas não têm perfil para postar a própria vida na Wikipédia -, é uma entidade sem fins lucrativos, que, portanto, foi tratada de forma diferente no PL 2.630. Parece-me que faz sentido tratar provedores de serviços também de alguma forma diferente neste projeto de lei, trazendo a ideia bastante presente na regulação de outros países de regulação assimétrica a partir de diferentes tipos de serviços.
Por fim - tenho um minuto e meio -, queria trazer uma sugestão pensando neste pressuposto. Qual pressuposto? O pressuposto de que a gente quer eficácia na proteção de crianças e adolescentes. A gente quer a instalação de desenhos de produtos, de termos de uso, de sistemas automatizados que funcionem e que a gente consiga atestar que funcionam. Qual é a forma de a gente atestar? Trazendo evidências. Daí tem o tema do acesso a dados para pesquisadores. Esse é um tema que está presente no PL 2.630, mas que considero que também possa estar presente neste projeto de lei. O que é isso? É garantir que pesquisadores, a partir de uma série de requisitos, possam obter dados sobre como essas plataformas estão operando, possam, por exemplo, fazer um mapeamento para entender se conteúdos que são mais nocivos estão sendo mais veiculados aqui ou ali, a partir desse serviço ou a partir daquele produto das plataformas, para dar à sociedade uma forma de fiscalizar, porque a fiscalização é muito difícil. A gente não pode fazer tal fiscalização sem o apoio da academia, sem o apoio da universidade, sem o apoio de quem está pesquisando. E a gente vê, no mundo, um cenário de cada vez mais fechamento das poucas ferramentas que existem para tentar entender o que acontece dentro dessas plataformas, que são esses canais para pesquisadores.
R
Então, termino falando que esse é um tema a ser considerado. Não acho que precisa mudar muito o projeto de lei para eventualmente incluir esse ponto, mas acho que vale pensar, porque é uma forma de a gente ir acompanhando como a lei vai funcionar ou não e, eventualmente, no futuro, ter evidências para debater eventuais revisões ou eventuais aprimoramentos daqui a alguns anos, quiçá com a gente com uma lei já aprovada e com o regulador já aplicando.
Muito obrigado. Agradeço novamente a oportunidade. É uma enorme honra estar aqui na Comissão.
O SR. PRESIDENTE (Izalci Lucas. Bloco Parlamentar Vanguarda/PL - DF) - Obrigado, Francisco.
Passo a palavra agora à Sra. Ana Bárbara Gomes, que é Diretora do Instituto de Referência em Internet e Sociedade.
A SRA. ANA BÁRBARA GOMES (Para expor. Por videoconferência.) - Olá! Boa tarde a todos e todas; boa tarde às pessoas que estão nos assistindo online; boa tarde, Senador Izalci.
Agradeço a oportunidade de dividir este espaço com vocês.
Cumprimento os colegas da mesa que falaram e os que ainda vão fazer suas exposições.
Eu sou Ana Bárbara, sou Diretora do Instituto de Referência em Internet e Sociedade, que é um centro de pesquisa independente, interdisciplinar, dedicado a produzir e comunicar conhecimentos científicos sobre temas de internet e sociedade, bem como defender e fomentar políticas públicas que avancem os direitos humanos na área digital.
Entre outros temas, hoje em dia, a gente tem uma pesquisa sobre segurança da informação e proteção de crianças e adolescentes. E, como o assunto de criança e adolescente não é oposto às medidas de privacidade e não deve ser visto como um empecilho para esse fortalecimento de uma internet segura para todos os usuários, a minha contribuição vem bastante nesse sentido de pensar como é que a gente pode fortalecer esse PL.
Essa é uma pesquisa que é feita pelos nossos pesquisadores Luiza Dutra, Wilson Guilherme e Paulo Rená.
Eu saúdo esta audiência, que esse diálogo possa fortalecer, apurar as melhorias, e que a gente consiga uma regulação eficiente e protetiva para esse público mais vulnerável na internet, que tem sido exposto à internet cada vez mais cedo e que precisa ser tratado com as suas especificidades e as suas necessidades.
É um momento muito oportuno para falar sobre esse tema. Agora no dia 18 de maio, a gente lembra o Dia Nacional de Combate ao Abuso e à Exploração Sexual de Crianças e Adolescentes. Então acho que é um ótimo momento para nós pensarmos como é que nós adequamos as nossas políticas para garantir um ambiente seguro para as nossas crianças.
Esse é um PL muito importante na regulação dessa proteção especial no ambiente digital, e a nossa contribuição vem no sentido de demonstrar os pontos que achamos que podem melhorar, vendo também a criança como um sujeito de direitos e que deve ter o seu direito à privacidade, o seu direito à liberdade de expressão, à informação, ao livre desenvolvimento defendidos e fortalecidos.
A gente gostaria de reforçar que, ao longo do PL, é mencionado o princípio do desenvolvimento progressivo da criança e do adolescente, e que isso seja reiterado e proposto como um princípio, para a gente fugir de uma visão homogeneizante da infância e do adolescente, tanto na perspectiva etária, de fase de desenvolvimento, como é o caso, mas que também tenha atenção, ao longo da construção da norma, para formas de viabilizar a proteção das múltiplas infâncias, que são atravessadas por aspectos socioeconômicos, geográficos, culturais, de raça, gênero, dentre outras possibilidades de existência.
Bom, como o Francisco falou, a gente tem esse desafio da moderação de conteúdo. E essa é uma preocupação que nós compartilhamos, é um tema a que temos nos dedicado na pesquisa, sobre como garantir o devido processo nesse desafio de moderar o que circula e como circula nas plataformas online.
R
A gente, recentemente, lançou um relatório escrito pela Fernanda Rodrigues, a Júlia Caldeira e a Rafaela Ferreira, onde a gente analisou o cenário regulatório de devido processo na moderação do conteúdo nos cinco continentes.
A gente vê alguns pontos em comum que devem ser observados e fortalecidos, como o estabelecimento de mecanismos de transparência, a necessidade de disponibilização de canal simplificado de denúncia e com tempo de resposta previsto e adequado. Nesse sentido, tem dispositivos na lei que trazem preocupações - porque, sem salvaguardas mínimas, eles poderiam ser facilmente deturpados para finalidades de censura - de que não seja esse cheque em branco que o Francisco, do InternetLab, mencionou na sua fala.
O texto deve se dedicar a descrever os tipos de exigências para que a denúncia seja recebida e estabelecer quais são os procedimentos de denúncia. Eu acredito que isso é uma matéria que a gente precisa amadurecer e construir coletivamente com todos os setores e os atores competentes envolvidos nessa questão. Do contrário, um outro risco é que esse mecanismo seja ineficiente, gerando um volume de denúncias que obstruam ou inutilizem os processos.
A gente sabe que há o problema da moderação de conteúdo, a falta de transparência e a negligência de plataformas que atuam com morosidade em situações extremamente sensíveis. Temos esse desafio - enquanto sociedade - que se mostra cada vez mais urgente em situações críticas, haja vista o que a gente tem passado agora, com a crise de desinformação na calamidade do Rio Grande do Sul, ou como no tema desta audiência, em tópicos sensíveis como a proteção de crianças e adolescentes.
A gente precisa pressionar para que as plataformas sejam mais rápidas, que tenham mais equipes moderando em português, que, inclusive, com base no princípio da prioridade absoluta, as denúncias que envolvam crianças e adolescentes tenham a prioridade na tramitação e resposta, e que os relatórios sejam publicados com periodicidade e transparência sobre quais têm sido as políticas e seu funcionamento. Também endosso a importância dos dados para pesquisa.
Um outro ponto que a gente gostaria de compartilhar é que é muito importante que os provedores de aplicação não sejam obrigados a baixar o nível de proteção das suas plataformas.
A gente endossa aqui a nota técnica do Instituto de Pesquisa do Recife, o IP.rec, que sugere que o art. 19 não se aplique a aplicações de mensageria privada, porque isso poderia comprometer a segurança das próprias crianças e adolescentes, que também são usuários detentores de direitos, como o direito à privacidade, e, ao fim e ao cabo, de todos os demais usuários daquele serviço. É importante que o texto do PL traga uma definição e uma diferenciação do que seriam os serviços de mensageria instantânea.
Ainda no art. 19, a gente tem uma preocupação muito grande sobre a necessidade de estabelecer parâmetros de segurança da informação para o armazenamento de dados. O texto diz que os serviços devem reter, por um prazo estabelecido em regulamento, os dados associados a conteúdo de abuso e exploração infantil. É muito importante que a gente tenha parâmetros de segurança da informação para a guarda desses dados. É preciso ter atenção a isso, porque essas imagens e informações que podem precisar ser guardadas podem criar uma grande vulnerabilidade desses dados, que são extremamente sensíveis e potencialmente danosos à saúde e à segurança da criança e do adolescente.
R
Um outro ponto que eu queria comentar na minha fala é sobre a importância de se resguardar a privacidade da criança de acordo com a sua fase de desenvolvimento. Seria importante assegurar, por exemplo, que no art. 11 estivesse explicitado que não diz respeito ao acesso a conteúdo das comunicações, garantindo o direito ao livre desenvolvimento da personalidade e à privacidade da criança.
Também vemos com certa preocupação o art. 12, que possui uma redação ambígua, possibilitando uma interpretação que feriria princípios basilares do direito à criança, como liberdade de expressão, informação, privacidade, dentre outros, qual seja a possibilidade de que os conteúdos captados pelas TICs seriam transmitidos para os pais ou responsáveis a partir desses produtos de monitoramento. O texto do art. 12 dá a entender que todo e qualquer conteúdo seria entregue diretamente aos pais.
Indo para outras considerações que já são mais conclusivas na minha fala, eu gostaria de ressaltar a importância de a gente ter uma atenção contínua e compromissada com a conectividade significativa e políticas públicas de educação midiática para crianças e adolescentes. É preciso uma atenção à inserção dessas pessoas na internet. Por um tempo se acreditou na falácia dos nativos digitais, de que as crianças já estariam naturalmente preparadas para estarem interagindo na internet. No entanto, isso é falacioso e isso se prova cada dia mais falacioso, e elas precisam de formação, de orientação, de proteção por padrão das ferramentas, com medidas que a gente tem discutido no âmbito desse PL, e de orientação, muitas vezes, que está faltando inclusive para os seus responsáveis.
Então, a gente precisa de um esforço continuado no letramento midiático da população brasileira e na conectividade significativa para que o acesso à internet não pare na posse de um dispositivo e da conexão, mas para que as pessoas tenham noção de responsabilidade e cidadania online de como promover um ambiente mais seguro e positivo para todo mundo.
O Ministério das Comunicações e o Ministério da Educação têm pautado este tema de forma substancial este ano. Um exemplo positivo tem sido as ações da Secom no âmbito da Presidência, como a consulta do consumo de telas e outras ações que o Fábio mencionou aqui no começo desta audiência. Esse é um desafio para as famílias brasileiras e, enfim, para todos os cidadãos. E é preciso reconhecer e afirmar os compromissos e as responsabilidades do Estado e da sociedade, inclusive das empresas, na proteção compartilhada das crianças e adolescentes.
Então, esses são os pontos que eu gostaria de compartilhar neste momento e eu espero que a gente possa amadurecer este debate no caminho de uma regulação democrática e protetiva.
Muito obrigada.
O SR. PRESIDENTE (Izalci Lucas. Bloco Parlamentar Vanguarda/PL - DF) - Obrigado, Ana.
Passo a palavra agora o Sr. Rodrigo Paiva, que é o Presidente do Conselho da Associação Brasileira de Licenciamento de Marcas e Personagens (Abral).
O SR. RODRIGO PAIVA (Para expor.) - Obrigado, Senador, pela possibilidade de estar presente aqui e discutir um assunto que, para nós, nos atinge diretamente. E fico feliz de participar de um debate de ideias que muitas vezes não se tem espaço para debater.
A Abral representa os interesses, principalmente, de produtores de conteúdos nacionais e estrangeiros - nacionais, como o finado Ziraldo, com o seu O Menino Maluquinho, a Galinha Pintadinha, a família Monteiro Lobato, o Mauricio de Sousa; e internacionais, como Disney, Warner, Nickelodeon.
R
Nós estamos aqui querendo apoiar o relatório do Senador Jorge Kajuru, que teve uma sensibilidade de identificar, no Capítulo V e no art. 10 da redação original do PL, uma tentativa de definir o que é um direcionamento publicitário de comunicação mercadológica para crianças, com a mera presença desses elementos, como aspectos de persuasão.
Hoje em dia, na cultura midiática e imaginética que nós temos na sociedade, é impossível imaginar a nossa comunicação, até a própria apresentação dos nossos colegas, sem a utilização de linguagem infantil, efeitos especiais, excessos de cores; é até difícil definir esses critérios para ter o peso de definir se a tal comunicação é persuasiva, se é mal-intencionada ou se é comercial. Trilhas sonoras musicais infantis, cantadas por vozes de crianças, representação de criança, quer dizer, a gente vai tirar a representação da criança na comunicação?
Pessoas ou celebridades com apelo ao público infantil. Então, um artista que venha a cair no bom gosto do público infantil, automaticamente, está censurado de estar presente na mídia. A gente não pode concordar com isso.
Personagens ou apresentadores infantis, desenho animado ou animação. Olha, grandes marcas e grandes personagens existem há 90 anos, 60 anos. Então, esse imaginário, esse contato com o universo de personagens não cabe apenas a crianças de até 12 anos; isso já faz parte do imaginário de homens adultos, pessoas adultas, mulheres adultas, de famílias inteiras. Então, a gente não pode achar que a mera presença desses elementos configura uma comunicação tendenciosa de persuasão apenas ao público infantil. E até porque é interessante que, enquanto existe essa cultura de vilanização do conteúdo dirigido através de animações e personagens, a gente tem que o Obama, quando foi comunicar a saída dos Estados Unidos da grande crise econômica que houve, escolheu o púlpito da Disney, o melhor cartão de visitas que os Estados Unidos têm. A Rainha Elizabeth foi tomar chá com um personagem local, que é o Ursinho Paddington. E o Primeiro-Ministro japonês, quando foi comunicar o início das Olimpíadas no Japão, da Copa do Mundo do Japão, ele se vestiu do personagem local. Então, não existe essa demonização; muito pelo contrário, é uma valorização da cultura interna.
Outros elementos que a gente acha extremamente excessivos - bonecos e similares, promoção de competições e jogos com apelo ao público infantil, quer dizer, a promoção de campanhas de esporte dentro das escolas -, isso seria impossível e conceitua como que já fosse abusiva para fins de lei, o que não é verdade.
E de onde que veio essa influência? A gente percebe claramente que foi uma cópia da Resolução nº 163, de 2014, do Conanda, que tem os mesmos elementos que eu citei agora. Podendo se fazer uma comparação, fica muito clara a repetição disso.
R
E, diferentemente deste debate, desta oportunidade de a gente ver tantos atores discutindo e colocando seus pontos de vista, nós não tivemos a mesma oportunidade antes da publicação dessa resolução, que deixaria todo esse arcabouço de produtores de conteúdo criminalizados ou vilanizados.
Eu sei que meu tempo é curto, então vou me ater a um artigo que eu recomendo às pessoas que tenham contato, que é: "Desvendando a Publicidade Infantil do Brasil: separando fatos e ficção". A autoria é de Marici Ferreira, nossa Presidente, e da Talita Garcia, que é uma advogada que atua na área.
Primeiramente, uma verdade: publicidade infantil é permitida e regulamentada no Brasil, até porque existe uma desinformação falando que a publicidade infantil é proibida no Brasil; publicidade infantil, que, na verdade, é o direcionamento de comunicação de produtos e serviços para crianças e adolescentes. Nós temos uma segurança jurídica bastante extensa, com cobertura da Constituição Federal, Código Civil, Código de Defesa do Consumidor e ECA, inclusive, que deixa claro que o que é proibido é a comunicação de bebida alcoólica, tabaco, armas e agrotóxicos, o mesmo ECA que assegura o direito da criança à informação, lazer e educação. Então, no momento em que a gente retira ou criminaliza esses elementos, a gente estaria comprometendo também a possibilidade de lazer, educação e informação da criança.
O controle misto da publicidade é eficiente - na nossa posição -, contrariando o entendimento de que a autorregulamentação não é suficiente para proteger as crianças. No caso da publicidade na área de comunicação, nós temos o Conar, que é o órgão que faz a autorregulamentação de todo o mercado de comunicação no Brasil com uma agilidade e eficiência muito maiores do que o Judiciário, infelizmente. Enquanto uma ação no Judiciário vai levar anos e com um custo absurdo, pelo Conar ela é rápida e muito mais barata.
A Resolução do Conanda nº 163, de 2014, não tem força de lei. Apesar do que se fala, que o órgão tem competência para legislar, nós sabemos que, para a atividade publicitária, ela é regulada apenas pela legislação federal, de competência privativa da União, que não possui competência constitucional para alterar leis federais, como o Código de Defesa do Consumidor e o próprio ECA.
Então, a gente percebeu nessa decisão uma atitude muito unilateral e arbitrária, com uma sugestão de coibição de grande impacto para a sociedade. Impacto esse que hoje a gente percebe em toda a discussão sobre as crianças estarem nas telas, porque antigamente existia um suplemento de jornal dirigido para crianças, que era mantido através do patrocínio de empresas com produtos e serviços direcionados para crianças. Isso acabou no jornal, acabou nas revistas, na TV aberta, que é o local de lazer de 80% da população brasileira. Esse conteúdo foi extinto também pela falta de apoio publicitário para manter essa programação, e menos de 30% têm acesso a TV a cabo.
R
Outra questão também: não há decisão ou jurisprudência que vede a publicidade infantil no Brasil. Lógico que há. Os únicos casos em que houve a condenação de publicidade infantil daqueles que foram apresentados foi porque ela estava atrelada...
(Soa a campainha.)
O SR. RODRIGO PAIVA - ... a outras situações, que eram vendas casadas - essas, sim, eram crimes.
Lembro que a publicidade infantil pode ser muito educativa e benéfica, porque ela apoia comunicação, campanhas institucionais, uma enormidade de assuntos. Por exemplo: a indústria criativa brasileira movimenta R$272 bilhões, mais do que o mercado de mineração e de construção no Brasil, gerando cerca de 7,5 milhões de empregos. Isso já está afetando muito o setor cultural, principalmente, em que, de cerca de 45% dos trabalhadores da área com carteira assinada, caiu para 34% os que estão com carteira assinada.
Muito obrigado pela atenção.
Estamos à disposição para continuar a discussão.
O SR. PRESIDENTE (Izalci Lucas. Bloco Parlamentar Vanguarda/PL - DF) - Obrigado.
Passo imediatamente a palavra a Taís Niffinegger, Gerente de Políticas Públicas da Meta para Segurança e Bem-estar.
A SRA. TAÍS NIFFINEGGER (Para expor. Por videoconferência.) - Obrigada, Senador.
Eu gostaria de compartilhar a minha tela. Um instante, por favor. (Pausa.)
Bom, os senhores conseguem enxergar a minha tela?
O SR. PRESIDENTE (Izalci Lucas. Bloco Parlamentar Vanguarda/PL - DF) - O.k.
A SRA. TAÍS NIFFINEGGER (Por videoconferência.) - Perfeito.
Boa tarde, senhoras e senhores. Primeiramente, na pessoa do Senador Izalci, eu cumprimento todos os presentes e agradeço pela oportunidade de participar desta audiência pública sobre um tema que é tão caro a todos nós, que é a proteção de crianças e adolescentes em ambiente digital.
Meu nome é Taís Niffinegger. Eu ocupo a posição de Gerente de Políticas de Segurança e de Bem-Estar para a América Latina aqui na Meta e gostaria de usar este espaço que nos foi concedido para trazer alguns pontos de destaque em relação a nossa abordagem sobre segurança e bem-estar dos jovens que esclarecem vários dos temas que são tratados no Projeto de Lei 2.628, de autoria do Senador Alessandro Vieira.
Proteger a nossa comunidade é uma prioridade para a Meta. Nós queremos promover um ambiente que seja seguro, positivo e inclusivo para as pessoas, para que o tempo que elas passam nas nossas plataformas seja significativo. Portanto, nós trabalhamos de forma contínua no desenvolvimento de ferramentas e recursos para que as pessoas possam controlar a sua experiência nas nossas plataformas, gerenciar o tempo que passam nos aplicativos e para conectá-las com o apoio de que elas precisam. Também trabalhamos próximo a especialistas em segurança e bem-estar no mundo todo para construir cada vez mais maneiras de proteger a nossa comunidade.
Nós temos cerca de 40 mil profissionais trabalhando em áreas ligadas à segurança e investimos mais de US$20 bilhões desde 2016, incluindo cerca de US$5 bilhões apenas no último ano. Nós criamos e compartilhamos ferramentas para remover conteúdo impróprio e analisamos uma ampla variedade de sinais para detectar comportamentos problemáticos. Nós usamos a estrutura baseada no melhor interesse da criança que foi desenvolvida por organizações como a ONU como um ponto de partida para criar orientações para ajudar as nossas equipes internas a criar as melhores experiências possíveis para os jovens. Essa abordagem, que já foi citada por outros aqui previamente a mim nesta audiência, inclui princípios como: reconhecer e envolver jovens e famílias que usam os nossos serviços, criar ambientes seguros e adequados à idade dos jovens, promover a autonomia dos adolescentes considerando os direitos e deveres dos pais, priorizar o bem-estar e a segurança dos adolescentes em relação aos objetivos e interesses comerciais, apoiar a privacidade dos adolescentes em todas as decisões sobre produtos e capacitar os adolescentes e os pais a entender e exercer os seus direitos sobre os dados.
R
Nós realizamos trabalhos de consulta a adolescentes e pais, além de especialistas em áreas temáticas, para nos ajudar no desenho de produto de forma segura e adequada à idade. Inclusive, uma dessas sessões de "codesenho" foi recentemente realizada em Brasília, no mês passado, explorando temas como verificação de idade e o papel de pais e responsáveis no uso de plataformas digitais. E além da consulta realizada com os pais, cuidadores e adolescentes, a sessão contou também com ampla participação de representantes do Governo, academia, especialistas, organizações internacionais e sociedade civil - alguns deles presentes aqui nessas duas sessões de ontem e de hoje desta audiência pública.
Bom, uma medida que a Meta adotou, levando em conta essas percepções de "codesenho" obtidas ao longo dos últimos anos, foi a criação de controles flexíveis que permitem aos pais levar em consideração o contexto situacional do jovem, por exemplo, dia da semana, final de semana, feriados escolares, além de controle de tempo de tela, de como lidar com temas sensíveis e delicados e como denunciar conteúdo e se proteger de riscos.
Nós elaboramos também as nossas políticas para poder garantir que elas equilibrem o ideal de dar voz às pessoas com a realidade prática, que é mantê-las seguras nas nossas plataformas. Para isso, nós construímos políticas de modo a garantir que elas sejam aplicáveis na prática e que sejam claras ao determinar o que é e o que não é permitido fazer nas nossas plataformas.
Nós também nos certificamos de que o nosso processo de desenvolvimento de políticas seja aberto e colaborativo. Nós temos o compromisso de compartilhar essas políticas e o pensamento por trás delas com a comunidade e convocá-las a nos ajudar a atualizar essas políticas.
Nós utilizamos uma combinação de tecnologia de inteligência artificial e equipes humanas para revisar o conteúdo e remover aquilo que viola os nossos padrões da comunidade. Então, para vocês terem ideia, cerca de 95% do conteúdo violador que é gerado é detectado por inteligência artificial e removido antes mesmo que suba ao ar.
Nós também incentivamos as pessoas a denunciarem os conteúdos e as contas que acreditem violar as nossas políticas através de ferramentas disponíveis dentro dos próprios aplicativos.
O bem-estar dos adolescentes e a segurança das crianças são de extrema importância para nós. Ao longo dos últimos anos, nós criamos mais de 30 ferramentas e recursos para ajudar a proteger os jovens e dar aos responsáveis a supervisão e o controle de como os adolescentes estão utilizando os nossos serviços.
R
Nós construímos ferramentas de supervisão parental que permitem que os adolescentes e os seus responsáveis gerenciem o tempo de uso, além de limitar o tempo total gasto em nossas plataformas. Isso permite programar pausas, bloquear o acesso durante horários específicos, como também durante o período da escola, na hora do jantar. A gente também tem ferramentas sobre notificação de pausa para poder mostrar lembretes para os adolescentes para que façam uma pausa quando já estão há muito tempo dentro da plataforma. Nós também sugerimos a adolescentes a função do modo silencioso, que desativa as notificações e abre respostas automáticas nas mensagens, no que se refere ao Instagram, durante determinado período, como, por exemplo, o período noturno. O Instagram também, por exemplo, envia avisos sugerindo mudança de foco caso o adolescente fique muito tempo visualizando o mesmo conteúdo ou lembra que talvez seja a hora de fechar o aplicativo por conta do horário.
Nós também temos tecnologia de verificação de idade para confirmar a idade, quando o adolescente, por exemplo, altera a sua idade, informando que tem mais de 18 anos.
Nós também oferecemos proteção especial para contas de jovens. As contas de menores de 16 anos são consideradas privadas por padrão para que os adolescentes possam controlar quem vê e responde aos seus conteúdos. Essas contas são padronizadas com configurações de conteúdo e recomendações mais restritivas para tornar mais difícil também encontrar conteúdos ou contas com conteúdos sensíveis. Cerca de 99% dos adolescentes em todo o mundo - já vêm essas configurações restritas por padrão - continuam utilizando esse tipo de configuração. E nós anunciamos recentemente medidas adicionais para ajudar a proteger os adolescentes de contatos indesejados, desativando por padrão a capacidade desse jovem de receber mensagens diretas de qualquer pessoa que eles não sigam ou com quem não estejam conectados, incluindo outros adolescentes.
Além dessas proteções específicas para adolescentes, nós ocultamos resultados de pesquisa de termos considerados sensíveis, como, por exemplo, temas relacionados a suicídio, a automutilação, a transtornos alimentares, oferecendo em troca acesso a fontes confiáveis e educativas sobre esses temas.
Além disso, nós desativamos por padrão a opção dos adolescentes de receber mensagens de qualquer pessoa que eles não sigam ou que não esteja conectada com eles. Se um adolescente já estiver conectado com um adulto potencialmente suspeito, nós enviamos ao adolescente avisos de segurança também. E nós utilizamos avisos ou mensagens de segurança para incentivar os adolescentes a serem cautelosos nas conversas com os adultos com os quais eles já estejam conectados, damos a eles a opção de encerrar a conversa, bloquear, denunciar ou restringir esse outro usuário e tornamos também mais fácil a denúncia de conteúdos com a nova opção dedicada para priorizar uma denúncia caso envolva uma criança nas nossas plataformas.
E, por fim, já encaminhando aqui para o final da minha fala, eu queria trazer aqui algumas iniciativas de destaque. A gente tem a Coalizão Lanterna, que é uma iniciativa de colaboração entre plataformas para compartilhar sinais relacionados à exploração infantil. Então, a gente compartilha esses sinais com outras plataformas para que elas, por sua vez, consigam restringir esse tipo de conteúdo nas suas próprias plataformas.
R
A gente também implementou recentemente essa ferramenta chamada Take It Down em parceria com o NCMEC, que é um serviço que permite que os jovens impeçam que suas imagens íntimas sejam divulgadas e compartilhadas na internet. É uma ferramenta superinteressante, que interessa muito a este tema que é tão importante, que é a exploração sexual.
Por fim, agradeço a oportunidade de participar desta audiência pública.
A gente também, não só aqui, em relação ao debate do PL 2.628, enaltece outras iniciativas que estão sendo feitas no Governo como o grupo de trabalho para a elaboração do Guia para Uso Consciente de Telas, que está sendo liderado pela Secom, e também a já anunciada consulta que a NPD vai realizar em breve e com a qual a gente vai contribuir também.
Devolvo a palavra ao Senador e fico à disposição para esclarecer eventuais dúvidas, depois do término das outras apresentações.
Obrigada.
O SR. PRESIDENTE (Izalci Lucas. Bloco Parlamentar Vanguarda/PL - DF) - Obrigado, Taís.
Passo a palavra, imediatamente, à Sra. Ana Bialer, Coordenadora do GT de Privacidade e Produção de Dados, da Câmara Brasileira da Economia Digital.
A SRA. ANA BIALER (Para expor.) - Senador, muito obrigada pela palavra e pelo convite para a camara-e.net participar deste debate.
A Câmara Brasileira da Economia Digital é uma entidade de maior representatividade da economia digital no Brasil e tem por objetivo promover o desenvolvimento integrado e sustentável da economia digital no país.
Parabenizo, antes de mais nada, o Senador Alessandro Vieira e o Senador Flávio Arns pela autoria e relatoria deste importante projeto e agradeço ao Senador Izalci a presidência desta audiência pública e a oportunidade de debate e colocação de temas tão relevantes.
Vou trazer, inicialmente, cinco pontos de atenção com relação ao texto do projeto.
O primeiro deles é com relação ao escopo de aplicação do projeto. Da forma como ele está proposto, ele inclui a sua aplicação a todo produto ou serviço de tecnologia da informação direcionado ao provável acesso por crianças e adolescentes. A referência ao provável acesso nos preocupa bastante, porque sabemos que, no ambiente digital, é muito difícil a gente controlar todo o acesso.
Então, um produto ou serviço que seja desenvolvido ou direcionado a menores ou a outro a que seja possível o acesso. Aqui, a gente consegue identificar a digital ou a inspiração no Código de Design do Reino Unido. É um código que eu gosto bastante por trazer e refletir muito a preocupação da flexibilidade que a gente precisa ter quando a gente está falando do melhor interesse dos menores, mas, no código do Reino Unido, existe toda uma parte de exposição de motivos ou de "considerando" que, infelizmente, por nossa estrutura normativa, a gente acaba não conseguindo trazer para a nossa lei, de maneira que faz falta a gente conseguir qualificar essa utilização e, provavelmente, excluir o provável acesso por crianças e adolescentes, para que a gente tenha um objetivo mais claro no projeto de lei em termos de a quem ele está efetivamente direcionado.
O segundo ponto que eu trago para atenção - e que já foi objeto da fala de alguns colegas - é o dever de cuidado, que foi incluído aqui no art. 5º deste projeto de lei e que gera uma série de preocupações.
De maneira geral, a gente tem visto esta discussão do dever de cuidado e aqui, Senador me lembro de termos conversas, ainda na época da pandemia, no âmbito do PL das Fake News, que hoje está na Câmara dos Deputados. É uma discussão que nós temos no âmbito do PL de inteligência artificial; é uma discussão que aparece quando se discute um projeto de regulação de plataformas. E a gente vem novamente aqui a este projeto - e preocupa a fragmentação desta discussão em projetos diferentes, projetos que são tanto mais macros ou mais holísticos, como o de regulação de plataforma ou mesmo o de inteligência artificial -, num projeto que é específico e direcionado ao tratamento de menores no ambiente online.
R
Dessa maneira, para garantir uma segurança jurídica estrutural, seria importante que nós tivéssemos essa discussão e incorporássemos as preocupações em torno do dever de cuidado num projeto mais geral, e não num projeto específico relacionado ao tratamento de dados de menores.
E reforço aqui algo que já foi falado também, que é essa preocupação. Quando a gente vai à granularidade do dever de cuidado, o texto hoje traz algumas referências que são abstratas e que acabam chamando para a necessidade de um regulador, para poder esclarecer, por meio da via da regulamentação, como que isso seria implementado. Uma figura que a gente não tem de uma maneira clara aqui no texto proposto.
O terceiro ponto que eu trago para a atenção dos senhores é o que nós estamos chamando de uma necessidade de uma separação estrutural no texto. O texto, da forma como está proposto hoje, tem a sua maioria dos artigos endereçados a crianças e adolescentes de uma maneira conjunta. Quando a gente olha a documentação - e se falou do comentário geral da ONU já - e toda a literatura a respeito de dados de menores, a gente tem uma clareza muito grande a respeito da importância de se levar em consideração os diferentes estágios de desenvolvimento.
A minha preocupação, quando eu estou falando da interação de um menor no ambiente digital aos quatro anos, é muito diferente daquela que eu tenho aos 14, aos 16 ou aos 17 anos.
Nesse sentido, nos parece que seria um avanço importante no texto que se separasse aquilo que eventualmente sejam obrigações gerais - falando dos menores - daquilo que seja efetivamente para crianças.
Então, seguiremos aqui os critérios do ECA, do nosso Estatuto da Criança e do Adolescente, olhando para uma proteção maior e efetiva daquelas que sejam crianças e com alguma flexibilidade que de fato respeite a autonomia e o estágio de desenvolvimento dos adolescentes, daqueles que estão entre 14 e 18 anos.
Eu falei anteriormente do Código de Design do Reino Unido e aqui eu vou fazer referência novamente, porque eu o acho muito interessante. Só para que se tenha referência, ele traz ciclos de 0 a 5 anos, 6 a 9 anos, 10 a 12 anos, 13 a 15 anos e 16 a 17 anos. Esse é o grau de granularidade, entendendo que os estágios de desenvolvimento são absolutamente distintos, e assim deveriam ser a forma e a autonomia que esses adolescentes e essas crianças podem ter no ambiente digital.
O terceiro ponto que eu compartilho para a atenção dos senhores é a questão do perfilamento. A gente tende a olhar para a questão do perfilamento com grande preocupação, e a minha referência aqui é a mensagem de que o perfilamento não pode ser automaticamente associado a uma prática prejudicial. É necessário se fazer o perfilamento, por vezes, para cumprimento de obrigação legal ou regulatória. Eu preciso fazer um perfilamento e coletar alguns dados para saber que se trata, de fato, de uma criança ou para saber que, de fato, se trata de um adolescente, e que não é um adulto.
R
Então, a coleta de algumas informações, para fins de perfilamento, é absolutamente necessária, e nós temos, inclusive, autoridades de proteção de dados de outras jurisdições - e aqui eu falo da Irlanda e da França, em especial -, que reconhecem a necessidade e o uso de inteligência artificial para que se faça o perfilamento em situações como essa.
O perfilamento e a personalização podem ser relevantes - acho que o Rodrigo mencionou rapidamente isso -, para que se possa trazer elementos contextuais e levar aquele menor a algo que seja do seu interesse, por exemplo, uma série de divulgações do Ministério da Saúde a respeito de vacinação e outras informações que sejam relevantes. Esse é um outro ponto que a gente traz para a atenção.
E, por fim, o último ponto que eu queria trazer para a atenção dos senhores é a intersecção que a gente tem em vários artigos deste projeto com a própria Lei Geral de Proteção de Dados. A Lei Geral de Proteção de Dados, sobre a qual, ontem, o representante da INPD falava ser uma lei relativamente recente - eu acho que a gente ainda está no vício de chamar a LGPD de recente, sendo que ela já vai fazer seis anos -, traz uma obrigação de tratamento de dados de uma maneira responsável. Ela não proíbe o tratamento de dados pessoais seja de adultos, seja de menores, mas ela traz balizadores para que esse tratamento seja feito de uma maneira responsável.
Um desses balizadores é o atendimento e o cumprimento das bases legais que a LGPD elenca. E, nesse sentido, parabenizo o relatório que, atualmente, abarca o entendimento da INPD, já formalizado em enunciado da autoridade, no sentido de que todas as bases legais da LGPD podem ser utilizadas para o tratamento de dados de menores. Isso é absolutamente fundamental, ainda que algumas com alguns critérios um pouco mais rígidos de aplicação.
Quando a gente fala...
(Soa a campainha.)
A SRA. ANA BIALER - ... e foi uma recorrência nas falas que me antecederam, da preocupação com esse órgão regulador, parece-nos que, de fato, existe um espaço relevante a ser ocupado pela INPD dentro das competências que já são atribuídas à autoridade no âmbito da INPD, para poder implementar e fazer valer uma série das obrigações de proteção aos menores. Nem todas precisariam estar refletidas no âmbito desta lei, pois a LGPD já trata de garantir a competência legal ao INPD para fazê-las.
Senador, muito obrigada pela oportunidade e, mais uma vez, parabenizo pela audiência pública.
O SR. PRESIDENTE (Izalci Lucas. Bloco Parlamentar Vanguarda/PL - DF) - Obrigado, Ana.
Passo a palavra, imediatamente, ao Prof. Juliano Maranhão.
O SR. JULIANO MARANHÃO (Para expor. Por videoconferência.) - Boa tarde a todas e a todos. Boa tarde, Senador Izalci.
Eu gostaria, primeiro, de agradecer a oportunidade de contribuir com este importante debate sobre a regulação e proteção de crianças e adolescentes no ambiente digital. Esse - que é um tema da maior importância, da maior urgência - merece regulação do ponto de vista das preocupações que são trazidas sobre os novos tipos de exposição a que crianças e adolescentes estão sujeitos no ambiente digital.
R
Eu gostaria de fazer uma contribuição de cunho mais jurídico em relação a parâmetros constitucionais que podem balizar essa regulação. É claro que, na discussão da melhor forma de proteger crianças e adolescentes, nós podemos nos inspirar em diversas sugestões de políticas públicas, em jurisdições estrangeiras, em experiências internacionais, mas, quando nós lidamos com uma legislação, obviamente, essa legislação deve corresponder aos parâmetros que já são delineados na Constituição Federal.
Nós estamos lidando com um tema importante de estabelecimento de proteções, portanto, regulação da comunicação social, em que existe uma preocupação com liberdade de expressão. É claro que, na nossa Constituição, a liberdade de expressão tem um tratamento diferente do de muitos países nos quais essas políticas são debatidas e têm servido de inspiração também a esse projeto de lei ou aos debates que alimentam a elaboração e todo esse trâmite legislativo.
Agora, é importante chamar atenção para um aspecto da Constituição no que diz respeito à regulação e estabelecimento de restrições à liberdade de expressão no ambiente de comunicação social.
O art. 220 da Constituição faz referência, e a linguagem está voltada para a mídia tradicional, o que vai exigir interpretação; mas é muito claro de se perceber que a Constituição, ao falar da possibilidade de restrição à liberdade de expressão na comunicação social, não incumbe ao Estado estabelecer essas restrições diretamente, porque havia uma preocupação - e existe essa preocupação, obviamente - com censura e com limitação à liberdade de expressão, mas a liberdade de expressão não é um valor absoluto, e, portanto, a Constituição incumbe ao Estado - e é importante olhar para a forma pela qual a Constituição faz esse delineamento - estabelecer os meios legais que garantam à pessoa e à família a possibilidade de se defenderem de programas ou programações - olhando para as mídias tradicionais de rádio e televisão - que possam ser nocivos.
Eu quero chamar a atenção exatamente para esse mecanismo, que busca encontrar o equilíbrio entre liberdade de expressão e as proteções à família decorrentes de conteúdos que podem ser nocivos. Aqui, a Constituição prevê meios legais de proteção disponibilizados às famílias para se protegerem das mídias tradicionais que serão centralizadas.
Hoje, a gente tem uma nova realidade, num ambiente virtual, com comunicações entre pares e divulgação de conteúdo entre pares em novas mídias, que fazem parte importante dos processos de comunicação social e que são disponibilizadas por plataformas virtuais que detêm tecnologia.
O que significaria estabelecer os meios legais para proteção? Hoje nós temos que entender que os meios legais não estão limitados a regulações, regras e dispositivos estritamente jurídicos, mas também, no âmbito de uma comunicação social que é pautada ou viabilizada por uma plataforma, por tecnologias, envolvem mecanismos técnicos, seja de arquitetura de código, seja organizacional, no estabelecimento de padrões dessa comunicação.
R
Nós tivemos vários exemplos nas falas anteriores de mecanismos técnicos e de configuração de códigos, de arquitetura de códigos, que se disponibilizam para a família, por meio de supervisão parental, ou por meio de estabelecimentos por padrão de acesso de conteúdo, ou de privacidade, que trazem meios de proteção. Então, ainda que a gente considere a plataforma assumindo um papel importante no processo de controle da comunicação social, aqui reverberamos algo que apareceu na fala do Francisco do InternetLab, que chamou a atenção: "Não é papel da plataforma exercer poder de polícia".
Eu acredito que isso já esteja delimitado na própria Constituição, na medida em que não é papel do Estado estabelecer intervenções na comunicação, mas estabelecer os meios legais para que a família se proteja. Cabe às plataformas estabelecerem os meios técnicos organizacionais para que as famílias se protejam, e não adotarem uma posição que possa ser restritiva e mesmo paternalista em relação às famílias.
Então, nesse sentido, é importante como esses meios técnicos evoluem conforme a tecnologia, conforme os processos e os novos riscos que aparecem na comunicação social, é importante que haja flexibilidade para que essas plataformas estabeleçam e busquem as melhores práticas de governança e os melhores meios técnicos para a proteção desses interesses.
Então, sem fazer uma consideração específica sobre o projeto de lei, aqui a gente tem tanto os meios técnicos como também formas educativas de direcionamento de conteúdo para lidar com essas ameaças, orientar as famílias, orientar inclusive as crianças e adolescentes acerca dos riscos a que elas podem estar expostas, e a melhor forma de elas aproveitarem a experiência online.
Então, o primeiro ponto é que haja flexibilidade no estabelecimento desses meios legais, de tal forma que a regulação não deveria entrar nessas técnicas ou nos meios técnicos, mas, sim, indicar quais são as preocupações e o que se busca proteger. E eu dou um exemplo acerca disso que vem justamente.... Um tema que já foi ventilado, acabou de ser ventilado na fala da Ana Bialer, diz respeito ao perfilamento.
O perfilamento é uma técnica, é um meio técnico que permite o direcionamento de conteúdo, mas que pode ter uma série de emprego positivo. A Ana Bialer trouxe alguns exemplos, mas, mais do que isso, a personalização de conteúdo é uma das diretrizes principais hoje em educação infantil, educação de crianças e adolescentes, no sentido de identificar necessidades específicas que possam, então, permitir que sejam direcionados conteúdos para uma construção educativa e cognitiva específica para a criança ou para grupos de crianças que estejam em um determinado perfil.
R
Então, essa técnica educativa que vem recebendo um avanço enorme com o emprego de sistemas de inteligência artificial que são capazes, por perfilamento ou por classificação, detecção de padrões, de fazer essas classificações e trazer conteúdos cada vez mais adequados para o desenvolvimento cognitivo e social das crianças, de tal forma que deve haver um cuidado para que não se traga conteúdo, na legislação, que possa dar interpretação de uma proibição de uma técnica, como técnica de perfilamento per se. Por quê? Porque ela pode ser utilizada para diversas finalidades que são importantes.
Cada vez mais, com o uso de inteligência artificial, podem aparecer plataformas educativas que vão direcionar conteúdos extremamente benéficos para o desenvolvimento de crianças e adolescentes online. Nós já vimos, inclusive, alguns exemplos, nas falas das empresas, de uso desse mecanismo para direcionar conteúdo informativo para a própria proteção da criança e adolescente, não só para as crianças e para os adolescentes, mas também para as famílias, no sentido parental.
Nesse aspecto, eu acho extremamente importante também, em relação ao art. 15, estabelecer uma diferença entre, portanto, qual a finalidade de publicidade que se busca evitar, porque a publicidade pode ser interpretada como uma propaganda educativa ou conteúdo de comunicação educativo, mas pode ser entendida como comunicação no sentido de comercialização de produtos.
É mais interessante, na regulação, não olhar para o meio e deixar a flexibilidade para as plataformas encontrarem os meios técnicos mais adequados para lidar com esses problemas e para oferecer os meios de proteção a crianças e adolescentes e estabelecer, exatamente, qual é a restrição que se quer fazer. Nesse caso, se for uma restrição de publicidade comercial, então, que isso esteja claro na lei e que haja também uma ponderação - como já foi colocado por vários, eu não vou me alongar nesse ponto -, com a classificação etária adequada em relação ao conteúdo publicitário também.
Muito obrigado.
O SR. PRESIDENTE (Izalci Lucas. Bloco Parlamentar Vanguarda/PL - DF) - Obrigado, Juliano.
Bem, passo a palavra agora para a Sra. Flávia Annenberg, Gerente de Relações Governamentais do Google Brasil.
A SRA. FLÁVIA ANNENBERG (Para expor.) - Boa tarde.
Começo agradecendo pela oportunidade de falar, hoje, nesta audiência pública. Quero também cumprimentar as demais pessoas presentes e saudar esta Comissão, pela iniciativa, na pessoa do Senador Izalci. Muito obrigada, Senador.
Eu falo em nome do Google, com a intenção de colaborar, de contribuir com este debate, que é fundamental para a gente pensar sobre a proteção de crianças e adolescentes no ambiente online.
Para começar, eu queria destacar que essa proteção das crianças e dos adolescentes no ambiente online tem sido tratada com prioridade pelo Google, já há muitos anos, e isso fez com que, ao longo do tempo, o Google desenvolvesse uma série de recursos, ferramentas e políticas relacionadas à proteção das crianças no ambiente online.
No ano passado, para contribuir com o trabalho justamente de quem trabalha para implementar e formular políticas públicas, o Google lançou o que a gente chama de arcabouço de políticas públicas para a proteção de crianças e adolescentes. A ideia desse arcabouço é oferecer uma série de princípios e de sugestões para quem está elaborando as normas relacionadas a esse tema.
R
O primeiro princípio é o de respeitar as diferentes etapas do desenvolvimento. Isto significa que, no nosso entendimento, a legislação deve assegurar que os serviços online respeitem as diversas etapas do desenvolvimento de crianças e adolescentes adotando padrões de privacidade e de segurança que sejam apropriados para cada etapa.
O segundo princípio é o de oferecer controles e recursos adequados para cada faixa etária. Isto quer dizer, então, que os serviços online devem equilibrar as opções de controle parental com o desenvolvimento das habilidades e com a autonomia dos adolescentes.
O terceiro princípio é o de reduzir os riscos do conteúdo enquanto se mantêm os benefícios desse conteúdo. Isto quer dizer, então, que é necessário permitir restrições a conteúdo adulto, conteúdo violento ou sexual explícito, mas, ao mesmo tempo, assegurar a aplicação das regras de forma proporcional aos danos, protegendo a liberdade de expressão.
E o último princípio é o de garantir supervisão e responsabilização. Isto diz respeito aos dispositivos de responsabilização, como as avaliações de risco, que analisam como um serviço processa dados de crianças e adolescentes e prioriza o que é melhor para esse público. Isso pode promover o desenvolvimento responsável dos serviços online, mas, para isso, as exigências de avaliação de risco precisam ser definidas, para abordar os riscos de maior gravidade, devem ser flexíveis e também, operacionalmente, factíveis e realistas.
Então, com esses princípios em mente, eu queria apresentar alguns dos recursos, como eu falei no início, que foram desenvolvidos pelo Google ao longo dos anos, partindo sempre do pressuposto de que é importante entender como as plataformas funcionam para a gente pensar nos melhores desenhos normativos.
Então, em primeiro lugar, o Google fez uma opção de bloquear a segmentação de anúncios com base em idade, sexo ou interesses de menores de 18 anos. Então, os anúncios do Google não são personalizados com base em informações confidenciais, como saúde, raça, religião, orientação sexual, para nenhuma pessoa, mas, além disso, para os usuários que são menores de 18 anos, os anúncios não podem ser personalizados com base em idade, sexo, dados históricos que sejam usados para determinar ou influenciar a seleção de anúncios, incluindo, por exemplo, as atividades anteriores, como quais sites a pessoa acessou, quais aplicativos foram usados.
Além disso, quando o anunciante define a sua audiência, ele não tem sequer a opção de escolher esse público-alvo de pessoas menores de 18 anos. Mas - e esta ressalva é importante - isso não quer dizer proibir anúncios contextuais, que são baseados em sinais contextuais, como o conteúdo que está sendo assistido naquele momento, a consulta de pesquisa que a pessoa está fazendo, a localização geográfica, que são informações que aprimoram a entrega de um resultado para o usuário.
No conteúdo que é feito para a criança nas nossas plataformas é presumido que esse conteúdo está sendo acessado por alguém menor de 18 anos, e, portanto, não tem anúncios personalizados. Além disso, a gente tem a redução de exibição de categorias de anúncios considerados sensíveis para certas idades. Então, para os menores de 18 anos tem restrições a anúncios de categorias sensíveis e proibição de certos conteúdos, como violência explícita, imagens assustadoras, humor ofensivo, linguagem obscena, alusões sexuais, exposição do corpo, entre outros.
Além disso, a publicidade que é exibida no conteúdo feito para crianças não pode ser enganosa, não pode ser injusta e não pode ser inadequada. Então, por exemplo, os anúncios não podem sugerir que um produto vai causar uma mudança no status social da pessoa, porque isso seria uma informação enganosa.
R
Da mesma forma, os anunciantes nas plataformas do Google não podem usar rastreadores externos nem tentar coletar informações pessoais de menores ou conteúdo definido como feito para crianças.
Ainda na linha dos nossos produtos - eu falei nessa primeira parte de anúncios, mas queria falar agora da ferramenta que a gente tem, que é o Link da Família -, o Link da Família permite que cada família monitore o acesso das contas, por pessoas menores de 18 anos, vinculadas a vários recursos do Google. Por exemplo, é necessária a autorização prévia dos responsáveis para acesso a alguns tipos de conteúdo ou para alguns tipos de aplicativo. A loja de aplicativos do Google, por exemplo, usa classificação indicativa. Então é possível o responsável delimitar que ele não quer que a pessoa com menos de 18 anos acesse uma determinada faixa etária de conteúdo, de acordo com a idade. Esse Link da Família tem também um guia de privacidade, que explica para as crianças e para os adolescentes como a família controla a conta, o que pode ser feito e quem pode ver o que está sendo compartilhado online.
E, por fim, nessa explicação das nossas ferramentas, a gente tem um longo histórico de desenvolvimento de tecnologia para combater o abuso sexual infantil, como outras pessoas aqui já falaram. O Google desenvolveu uma tecnologia para identificar, denunciar e remover imediatamente imagens e vídeos de abuso sexual infantil, sem permitir que esse conteúdo ilegal seja redistribuído. E aí, como outras já falaram também, essa identificação do conteúdo violador faz com que o Centro Nacional para Crianças Desaparecidas e Exploradas seja informado e então ele comunica às autoridades brasileiras e internacionais.
Então, feita essa breve explicação de algumas ferramentas, eu gostaria de conectar isso com a discussão do projeto de lei, primeiro dizendo que o projeto de lei traz para a gente uma chance única de debater qual é o melhor modelo para uma legislação que proteja crianças e adolescentes. E, pensando então em como transformar este momento no melhor resultado possível, o nosso primeiro ponto de preocupação tem relação com a linguagem que trata da recomendação personalizada de conteúdo. Como Juliano Maranhão e Ana Bialer falaram há pouco, a personalização do conteúdo é importante porque garante uma experiência de qualidade na internet. Então, pensando nos usos positivos, especialmente para os usuários mais jovens, a personalização ajuda a organizar toda essa quantidade enorme de informação que está disponível e facilita que o usuário encontre rapidamente a informação que está procurando. Também ajuda a filtrar os conteúdos inadequados e reduz a exposição aos conteúdos prejudiciais. Ou seja, restringir totalmente as recomendações personalizadas pode ter um efeito negativo, especialmente para esse público mais jovem.
Em relação à publicidade, o Google compreende a importância de proibir anúncios que usam dados sensíveis na publicidade direcionada para menores de 18 anos, mas é importante que a legislação permita anúncios que protegem a privacidade e que se baseiam em outros elementos, como elementos contextuais, o conteúdo que está sendo visualizado, a consulta que a pessoa fez no mecanismo de busca, localização geral, hora do dia. Isso ajuda a preservar a privacidade do usuário e, ao mesmo tempo, ajuda a sustentar o conteúdo gratuito, disponível inclusive para famílias com situação financeira mais difícil.
E o terceiro ponto que eu queria trazer é sobre o controle parental. Embora a gente reconheça que tem uma importância para as crianças mais novas, é muito importante a gente considerar o impacto que isso pode ter na autonomia dos adolescentes. Dependendo da forma como o controle parental é desenhado, ele pode afetar os adolescentes que não têm o apoio dos pais e dos responsáveis para enfrentar uma situação difícil e que buscam na internet a sua comunidade, acham lá um espaço seguro que às vezes não encontram em casa.
R
O quarto ponto que eu queria trazer em relação ao projeto é sobre as caixas de recompensas, chamadas de loot boxes. Essas caixas de recompensas são comumente utilizadas em jogos por desenvolvedores no mundo todo e a proibição total pode ter efeitos não intencionais. Talvez diferenciar por idades, em vez de proibir totalmente, possa ser um caminho mais alinhado com os princípios que eu mencionei no início.
É importante pensar também na definição. A caixa de recompensa não é o mesmo que um jogo de azar porque não tem nada a ser perdido. Então, a gente também sugere aprimorar essa definição.
E, por fim, o último ponto que eu quero destacar no projeto de lei é em relação ao dever de cuidado e os mecanismos de notificação. Outras pessoas já trouxeram essa preocupação hoje. E eu ressalto que é importante que esses mecanismos não tenham como resultado nenhum tipo de monitoramento prévio de conteúdo, o que levaria as plataformas a removerem conteúdo em excesso, o que não é desejável. Tenho certeza de que não é esse o objetivo do projeto de lei.
Para finalizar, só gostaria de agradecer novamente pela oportunidade de falar aqui hoje e me colocar à disposição para seguir nessa conversa para a gente pensar como fazer um ambiente online mais seguro e enriquecedor para a criança e o adolescente.
Obrigada.
O SR. PRESIDENTE (Izalci Lucas. Bloco Parlamentar Vanguarda/PL - DF) - Obrigado, Flávia. Passo imediatamente a palavra ao Sr. Rodrigo Nejm, especialista que vai estar de videoconferência.
O SR. RODRIGO NEJM (Para expor. Por videoconferência.) - Olá, boa tarde. Agradeço ao Senador Izalci, na pessoa de quem eu agradeço e cumprimento a todas e a todos da mesa. Parece que não me veem, talvez agora.
Bom, primeiro, salutar aqui a importância desse debate, ouvindo os colegas ontem e hoje. Eu sou o Rodrigo Nejm, sou psicólogo, Doutor em Psicologia Social pela Universidade Federal da Bahia e tenho trabalhado nos últimos 20 anos com relação à proteção de crianças e adolescentes no ambiente digital.
Também acompanho há mais de dez anos as pesquisas como membro especialista dos grupos de pesquisa da TIC Kids Online e da TIC Educação, que são pesquisas importantes feitas pelo Cetic.br no Brasil para nos ajudar a basilar essas discussões e amparar algumas das decisões que a gente tem que tomar quando a gente pensa especialmente em crianças e adolescentes no contexto brasileiro em relação ao uso das plataformas digitais.
Eu queria começar saudando e parabenizando pela iniciativa e dizer que é uma conquista enorme esse texto. Ainda com todos os aspectos que estão sendo levantados de aprimoramento, eu acho que merece muitos elogios colocar em primeiro plano a proteção de crianças e adolescentes, fazendo valer e materializando no projeto de lei o que já estava previsto no texto da Constituição Federal, especialmente no art. 227, que traz a absoluta prioridade das crianças e adolescentes na elaboração de políticas e inclusive de novos textos legais, assim como no ECA também, em que a gente tem essa questão da prioridade das crianças e adolescentes, o que está materializado nesse projeto de lei. O que é muito especial para o mundo no qual nossas crianças vivem, que é cada vez mais digital, como a gente sabe.
Já foi comentado no contexto, no dia de ontem e hoje também, mas é indispensável lembrar do ponto de vista do desenvolvimento desses sujeitos com peculiar condição, que são crianças e adolescentes. E, como psicólogo, eu falo isso com muita tranquilidade.
A gente vê que o acesso cada vez mais precoce exige cada vez mais medidas protetivas que a gente possa antecipar dentro das plataformas, inclusive pensando no texto proteções que possam valer não apenas para as plataformas que existem agora, mas inclusive para os novos formatos que a gente vê se desenvolvendo daqui para frente.
R
E lembro que as oportunidades que as plataformas digitais trazem são muitas, também para crianças e adolescentes. Elas são oportunidades que não se traduzem imediatamente em benefícios na vida, no desenvolvimento integral, mesmo no desenvolvimento social ou psicológico. Oportunidades não se traduzem em benefícios, e, da mesma forma, a gente sabe que há perigos e situações de risco que podem também se traduzir em danos. E justamente a tradução de perigos em danos no desenvolvimento, danos na saúde, danos na segurança de crianças e adolescentes depende dessas mediações que existem na família, nas escolas e também das próprias plataformas.
E é nesse sentido que a gente não pode negar que há uma enorme assimetria de poder nas famílias, especialmente no contexto brasileiro, principalmente de mães, mulheres, avós que cuidam com muito pouco recurso econômico, muitas vezes, lidando com a violência urbana na porta de casa, com outras tantas vulnerabilidades que o nosso ambiente de cidades oferece. A gente sabe que deixar apenas às mães, às avós, às famílias ou apenas às escolas, que já também sofrem com tantas vulnerabilidades, esse dever de cuidado e de proteção das crianças e adolescentes seria muito injusto, não só com essas famílias, mas também com as próprias crianças e os adolescentes, que precisam de absoluta prioridade e de absoluto compromisso nesse dever de cuidado, também nos vários ambientes digitais os quais frequentam.
É nesse sentido que esse projeto de lei tem muitos pontos positivos para ajudar a enfrentar essas assimetrias de poder, trazer mais compromissos também para as várias plataformas digitais no enfrentamento dessas vulnerabilidades e minimizar essas vulnerabilidades, para que a gente possa ficar principalmente com as oportunidades que as plataformas digitais oferecem.
E nesse sentido, eu trouxe aqui alguns pontos para destacar. Primeiro, é muito pertinente que o projeto traz um alinhamento muito significativo com o Comentário Geral nº 25, que já foi comentado aqui também, em relação à Convenção sobre os Direitos da Criança das Nações Unidas, da qual o Brasil é signatário e aderiu.
Também há a vedação do perfilamento com fins de publicidade e de uso comercial dos dados de crianças e adolescentes, no art.15, que vários colegas têm trazido, esse ponto. Eu acho que é importante demais destacar a importância de vedar o uso comercial desses dados de perfilamento, como feito no DSA (Digital Services Act), na Europa, e também outros países têm acompanhado esse caminho. Acho que esse uso comercial está longe de poder ser positivo para o pleno desenvolvimento das crianças e dos adolescentes, ainda que a gente tenha escutado alguns argumentos tentando sinalizar ao contrário, mas nos parece que a saúde e a segurança de crianças e adolescentes não tem nada a ganhar com o perfilamento com interesse comercial de um sujeito que está em pleno desenvolvimento, inclusive cerebral, cognitivo, para poder ter a capacidade cognitiva de poder interpretar. E a gente sabe que são cada vez mais conteúdos publicitários velados, opacos, de difícil entendimento por qualquer um de nós. E a criança e o adolescente estão ainda mais vulneráveis a esse uso malicioso de seus dados.
Um outro ponto a que eu queria chamar a atenção, de destaque, de aspecto positivo do projeto é essa inclusão das medidas de proteção, do dever de cuidado, no design, no desenho das plataformas, porque isso vale inclusive para inspirar novos modelos de negócio, inspirar startups brasileiras, criadores brasileiros que possam, desde a concepção do seu produto, pensar na absoluta prioridade da proteção de crianças e adolescentes.
R
E no art. 7, isso traz um elemento importante para que esse dever de cuidado e de proteção se materialize em ferramentas, em produtos, em features, como se diz no âmbito da tecnologia, que sejam de fácil uso e acesso no desenho dessas plataformas.
Um terceiro aspecto que acho que merece muitos elogios também é a dimensão de avaliação de riscos. O mundo inteiro discute, a própria Ofcom, e outras agências reguladoras que foram mencionadas aqui, no caso do Reino Unido, têm feito um trabalho muito exaustivo, com muito trabalho de psicólogos, psiquiatras, pediatras, profissionais da saúde e outras áreas inclusive para pensar sistemas de avaliação de risco e de impacto das diferentes plataformas digitais nas diferentes etapas da vida. E concordo que é importante olhar para os diferentes momentos da criança, os diferentes momentos da adolescência para que a gente possa ter avaliações de risco adequadas e planos de mitigação desses riscos adequados às diferentes etapas do desenvolvimento.
Saúdo também a inclusão de uma perspectiva de saúde no projeto, porque a gente sabe que é muito mais do que apenas segurança do ponto de vista literal. É também questão de saúde e questão de cidadania, do ponto de vista de que, inclusive, participar da vida social e comunitária hoje para uma criança ou adolescente é, impreterivelmente, também participar de ambientes digitais, mas essa participação precisa ser mediada, precisa ser cuidada. Assim como a gente cuida do acesso das nossas crianças às praças, aos espaços comerciais, às próprias escolas e aos serviços públicos que são adequados às faixas etárias, isso também precisa acontecer nos espaços digitais e a avaliação de risco prevista no art. 8º é muito pertinente e bem-vinda.
Queria destacar também um quarto ponto que é encarar a realidade. A gente viu dados ontem e hoje. Crianças de três, quatro, cinco anos de idade muitas vezes têm um intenso acesso às telas digitais e às plataformas, às vezes, sem nenhum tipo de moderação das famílias, que não sabem nem sequer por onde começar. Com o volume de famílias analfabetas funcionais no Brasil, a gente sabe que tem inúmeras vulnerabilidades que impedem até mesmo aqueles que gostariam de acompanhar as suas crianças e não têm condição. E essas crianças estão presentes.
Então, o possível acesso de crianças e adolescentes é muito pertinente para que a gente respeite o 227 da Constituição Federal e traga essa prevalência da proteção de crianças e adolescentes, especialmente de crianças hipervulneráveis. Então, encarar que é fato que crianças muito menores de 13 anos acessam as várias plataformas e que também as empresas precisam agir nessa mediação desse acesso, ou até na restrição desse acesso, é justo quando a gente pensa que as famílias e tampouco as escolas são capazes de sozinhas fazerem suficientemente rápida essa educação midiática para que tenhamos todos e todas as famílias condições de fazer essa mediação parental.
Mediação parental é fundamental, ela está prevista no projeto, mas há também uma atuação proativa das plataformas, inclusive usando a expertise tecnológica da experiência dos usuários. E, nesse aspecto, me parece fundamental ter essa previsão de facilitar o acesso às informações.
E termino com esse ponto de transparência, outro ponto positivo do projeto, que merece elogios, que é a gente ter mais dados sobre a presença de crianças e adolescentes. O colega Fernando do TikTok apresentou um dado do TikTok, mas é importante a gente saber com mais detalhes, de fato, não só qual o volume de perfis de menores de 13 anos que foram removidos, mas saber como estão sendo feitos os usos das ferramentas de controle parental. Como que, no Brasil, as famílias usam? Qual a proporção de usuários que usam essas ferramentas, as ferramentas de controle, de bloqueio, de denúncia? Quanto mais dados e mais transparência houver sobre esses usos das ferramentas já disponíveis, inclusive a gente permite um debate menos especulativo sobre as boas práticas de mediação parental, as boas práticas de proteção a crianças nos ambientes digitais.
R
E reforço o que o Francisco trouxe em relação à necessidade de dados para os pesquisadores, pesquisadores em psicologia, em psiquiatria, em pediatria, em saúde pública. A gente também precisa desses dados para entender políticas e programas de proteção a crianças e adolescentes no Brasil, e isso não é apenas na ciência da computação, não é apenas no direito, mas também para a tomada de decisões do ponto de vista da saúde, do desenvolvimento. A gente precisa de dados e essa transparência é fundamental.
E o último ponto, ainda sobre transparência, é, de fato, ter mais controle sobre os sistemas de recomendação. Sobre os sistemas de algoritmos que fazem não só nas redes sociais, mas em outras tantas plataformas, a gente precisa ter, sim, condições de alguma customização do ponto de vista do cidadão escolher a forma ou entender, com alguma transparência, quais são as regras de funcionamento dos sistemas algoritmos que fazem as escolhas por nós. Até porque sabemos, Senador, que, inclusive, serviços de saúde, serviços de educação, serviços públicos têm sido digitalizados e eles também passam a contar com sistemas de recomendação algorítmica, em alguns casos, e é preciso a máxima transparência em como eles funcionam e também a máxima diversidade de opções para cada cidadão, para cada cidadã, inclusive crianças e adolescentes, como cidadãos, poderem escolher e entender como funcionam, com uma linguagem simples e acessível, esses sistemas, que fazem, definitivamente, parte da nossa vida, não apenas no nosso desenvolvimento social, político, mas também cognitivo, psicológico, emocional e que nossas crianças e adolescentes têm vivido com muita intensidade.
Então, eu queria terminar novamente parabenizando e reforçando a importância de ter, nesse PL, uma materialização do que os Constituintes escolheram dar como absoluta prioridade, que é esse dever de cuidado e proteção de crianças e adolescentes e que traduz também - último ponto - um desafio de financiamento, muito bem colocado no PL, para que o Fundo dos Direitos da Criança e do Adolescente possa ter, eventualmente, mais capacidade de implementar essas ações com essa perspectiva transversal de dever de cuidado, de possível acesso e de avaliação de risco com planos de mitigação. Isso porque não adianta fazer avaliação de risco se a gente não tem um enforcement e uma capacidade de controlar e fiscalizar os planos de mitigação para os riscos identificados num contexto tão vulnerável como é o contexto brasileiro.
E não seria justo - termino com esse ponto - crianças brasileiras terem menos direitos e menos proteções do que têm, por exemplo, crianças na Inglaterra, crianças no bloco da Europa e na Austrália, por exemplo, países nos quais a proteção à criança tem traduzido mudanças nas formas que essas plataformas funcionam, operam e inauguram novos serviços com possível acesso para essa faixa etária.
Então parabenizo e sigo completamente à disposição desta Comissão para futuros debates.
O SR. PRESIDENTE (Izalci Lucas. Bloco Parlamentar Vanguarda/PL - DF) - Obrigado, Rodrigo.
Vamos agora para a última expositora, mas, antes, só quero ler aqui os comentários e perguntas que vieram aqui pelo e-Cidadania.
Leonardo, de Mato Grosso: "É importante que as crianças e adolescentes tenham segurança nos ambientes digitais, pois, muitas vezes, os pais não supervisionam".
Jorge, do Rio de Janeiro: "Deve-se enrijecer as leis que punem crimes contra crianças e adolescentes".
R
Vanessa, do Rio de Janeiro, pergunta: "De que maneira as instituições de ensino podem contribuir para uma maior orientação de pais e alunos [...] [sobre navegação segura na internet]?".
Hudson, de Minas Gerais: "Como será feita a proteção de crianças e adolescentes? Quais os cuidados estão tomando para o PL não ser utilizado para fins de censura?".
Paula, de São Paulo: "Pensando na atuação na raiz do problema, quais medidas estão previstas para educar a sociedade na prevenção, e como agir na ocorrência?".
Gabriela, de Mato Grosso: "Quais são os dois exemplos de ferramentas de controle parental que podem ser utilizadas para monitorar a atividade online de crianças?".
Maristela, de São Paulo: "Uma vez que estamos usando o mundo digital para melhorar o estudo das nossas crianças, que tipo de medida protetiva estão organizando?".
Sther, de São Paulo: "Como o projeto de lei pautará os limites e barreiras para a proteção de cibercrimes entre crianças e adolescentes?".
Elymara, do Mato Grosso: "Quais são as restrições relacionadas à publicidade digital voltada para as crianças [...] [previstas no projeto]?".
George, do Distrito Federal: "Quais medidas serão tomadas em relação à proteção de crianças e adolescentes, e como os pais poderão intervir no acesso e monitoramento?".
Igor, da Paraíba: "[...] como se dará a fiscalização e a garantia do cumprimento da norma jurídica discutida [no projeto]?".
Então, para finalizar, eu passo a palavra à expositora, a nossa Assessora Especial da Educação e Cultura em Direitos Humanos do Ministério dos Direitos Humanos e Cidadania, Sra. Letícia Cesarino.
A SRA. LETÍCIA MARIA COSTA DA NÓBREGA CESARINO (Para expor.) - Boa tarde, Senador. Boa tarde, colegas de audiência.
Eu quero começar agradecendo à Presidência desta Comissão por ter viabilizado a nossa participação nesse debate tão importante. Essa pauta da proteção da criança e adolescente em ambientes digitais tem se tornado bastante prioritária para o ministério, principalmente, é claro, através da Secretaria Nacional da Criança e Adolescente, que tem a competência de fazer valer o sistema de direitos e garantias de proteção dos direitos desse público.
A minha assessoria é uma assessoria especial dentro do gabinete do Ministro, que ajuda a organizar e articular tudo o que tem a ver com políticas digitais dentro do ministério. Então, a gente dá um apoio técnico para a Secretaria Nacional da Criança e Adolescente nessa pauta também.
Quero destacar a recente aprovação pelo Conselho Nacional da Criança e do Adolescente da Resolução 245, que trata exatamente desse tema. E as diretrizes mais globais do ministério vão muito nessa direção. A gente quer pontuar a importância desse documento também para as discussões que vão ser feitas em torno desse projeto de lei.
No geral, a gente tem bastante entusiasmo com relação ao PL. A gente vai encaminhar, pelas vias institucionais, contribuições mais específicas com relação ao texto.
No pouco tempo que eu tenho aqui, eu gostaria de trazer algumas considerações mais gerais. Como eu sou a última a falar, eu espero enfatizar pontos que ou não foram trazidos, ou não foram enfatizados o suficiente, nos dois dias de audiência.
Eu entendo que o meu trabalho aqui, como Ministério dos Direitos Humanos, é empurrar a chamada janela de Overton, que é os limites do pensável e do possível, sempre para a direção das prescrições constitucionais, da Constituição Federal e do ECA, com relação aos princípios gerais da proteção dos direitos da criança e do adolescente, que são: da absoluta prioridade, da proteção integral e do superior interesse da criança e do adolescente. Por que eu estou falando isso aqui? Por conta de algumas expressões e detalhes que aparecem no texto, que aparecem no relatório, que apareceram aqui nessas audiências.
É claro que, como foi colocado aqui, crianças e adolescentes têm graus diferentes de desenvolvimento. Isso deve ser levado em conta com relação a muitas questões, por exemplo, com relação à questão da privacidade, como foi falado aqui, mas o ECA não faz esse corte em termos de princípios gerais de proteção. Entende-se que crianças e adolescentes são sujeitos que precisam de proteção especial, porque ainda estão no seu processo de desenvolvimento, embora isso possa variar, obviamente, de acordo com a idade e o grau de desenvolvimento.
R
Uma outra preocupação - eu acredito que eu possa estar falando em nome do Secretário Nacional, Cláudio Vieira - é com relação a uma expressão que tem sido muito utilizada e que está no texto também que é a noção de melhor interesse da criança e do adolescente. Isso não está na Constituição Federal. Isso não está no Estatuto da Criança Adolescente. Superior interesse não é a mesma coisa que melhor interesse. Pode parecer um detalhe semântico, mas a ideia de melhor interesse, que parece ser uma tradução de uma expressão que é usada em alguns documentos internacionais, que é a ideia do best interest, não reflete o ordenamento jurídico brasileiro. O superior interesse é o interesse acima de qualquer outra consideração. A gente pensa que a ideia de melhor interesse pode estar abrindo para uma relativização desse sistema de proteções e garantias de direitos, e essa não é a nossa posição nem a da Constituição Federal.
E é claro que o risco maior aqui é se relativizarem esses direitos fundamentais a partir de outros interesses como o interesse econômico, como a gente sabe que é normal, é do jogo, mas é principalmente colocado aqui através da indústria de tecnologia e da indústria de publicidade e propaganda. A gente pode até dizer que é tudo a mesma indústria, porque mesmo a indústria de tecnologia não é exatamente uma indústria que vende tecnologia, tanto que as plataformas, boa parte delas é gratuita para o usuário. Elas vendem a atenção do usuário, os dados dos usuários para os seus reais clientes, que são a publicidade, outras empresas, cada vez mais agora, treinamento de modelos de inteligência artificial etc.
Então, vão aparecer argumentos, como sempre aparecem, com relação à insegurança jurídica, com relação a desafios operacionais. E há a ideia mesmo que foi trazida ontem de que não haveria evidências suficientes ou consenso científico de que plataformas de mídia social, de jogos e outras têm algum impacto sobre a saúde mental e o desenvolvimento de crianças e adolescentes. Isso é mais velho que andar para frente. Esse tipo de argumento também já foi trazido em outros momentos, mas existem, como foi colocado por várias falas aqui, mais do que estudos suficientes apontando, sim, que existe o impacto.
E tem uma preocupação também com relação a algumas falas que foram colocadas como se plataformas fossem fatores ou variáveis, entre outras, que impactam a saúde mental, por exemplo, de crianças e adolescentes, além de potencializar outros tipos de violação. Plataformas não são variáveis. Plataformas são infraestruturas, são ambientes, são mediações que mediam vários outros fatores. E o tipo de causalidade que está em jogo aqui não é uma causalidade linear em que a gente tem um fator causando o outro, e você tem as metodologias tradicionais de se pensar em causalidades. Causalidades cibernéticas são inerentemente causalidades circulares, causalidades recursivas. Eu, obviamente, não vou entrar nisso aqui por falta de tempo, mas, inclusive, é a minha área de estudo. Eu sou antropóloga. Eu estudo as relações humano-máquina. A gente tem que olhar o nível relevante de causalidade, o nível do ecossistema, o nível do ambiente e não apenas o nível de conteúdos específicos ou de agentes específicos ou de relações causais lineares, porque não é assim que esse tipo de ambiente funciona.
Às vezes, eu gosto de dar exemplo simples para qualquer pessoa que está ouvindo conseguir entender. Então, pensem num peixe dentro dum aquário, e aquela água começa a ficar suja. Como é que a gente vai resolver aquele problema? A gente vai fazer educação aquática no peixe, para ele respirar menos aquela água? A gente vai orientar a família do peixe a tirar o peixe daquela água durante x horas por dia? Não, quem construiu aquele aquário, quem botou aquele peixe lá dentro e quem deixou aquela água ficar podre e tóxica é quem tem a responsabilidade e a obrigação de limpar aquela água.
R
Por que eu estou falando isso? Eu já estou chegando ao meu terceiro ponto e não vou conseguir - já estou vendo - abordar todos eles. É a questão da responsabilidade compartilhada, que também é arcabouço jurídico máximo da Constituição Federal e do ECA, que coloca a responsabilidade, com relação ao bem-estar e aos direitos das crianças e dos adolescentes, compartilhada entre família, comunidade, sociedade e poder público.
A Resolução 245 do Conanda já coloca, já entende que a indústria faz parte da sociedade e também é responsável por implementar o sistema de garantias e proteções. Agora, não existe uma simetria entre esses agentes - isso eu quero colocar bem claro no caso dos ambientes digitais. Do modo como a forma funciona hoje sem regulação nenhuma, ambientes digitais são praticamente espaços de soberania paralela. Quem tem o poder decisório, o controle de fazer suas decisões valerem nesses ambientes, é praticamente só a indústria, com algumas exceções, como decisões judiciais.
E aí de novo, trazendo uma ideia bastante simples, a moral do Homem-Aranha: "Com grandes poderes vêm grandes responsabilidades". Então, quem tem mais poderes, no sentido lato da palavra, de impactar, é quem precisa ter mais responsabilidades para garantir a proteção desses direitos. Você vê que o tempo todo aqui a indústria fala das nossas políticas, dos nossos termos de uso, mas as políticas dos termos de uso não estão acima do ECA nem acima da Constituição brasileira. É uma questão, realmente, de soberania digital, e não é à toa que esse tema está vindo cada vez mais forte para o debate brasileiro, para os Estados Unidos e em outros lugares também.
E aí coloco, então - só tenho dois minutinhos -, uma preocupação, ainda dentro da temática da responsabilidade compartilhada, com relação às famílias. É claro que a primeira rede de proteção da criança e do adolescente, principalmente da criança, é a família, mas por que o ECA e a Constituição Federal distribuem essa responsabilidade? Porque, se você não tem a proteção no seio da família, você tem a quem recorrer. Você pode ir à escola, você pode ir a uma liderança comunitária, porque, às vezes, a violação e o abuso estão acontecendo dentro da família, por exemplo.
Então, deve haver um equilíbrio. E a gente fica com a impressão de que, muitas vezes, o argumento da indústria é colocar toda a responsabilidade por esse controle em cima da família. Não é à toa que, na apresentação da meta, tinham cinco, seis fotos, e todas elas eram fotos de pais juntos com crianças e adolescentes, e isso não é verdade. Não só porque a responsabilidade maior é das empresas que construíram esses ambientes e deixaram essa água ficar suja, como a gente conhece a realidade das famílias brasileiras. Existem famílias que são famílias de mães solteiras que trabalham em dois, três empregos por dia. Você realmente acha que ela vai baixar o Family Link - como eu fiz, aliás, com o celular da minha filha - e vai ficar ali controlando? Então, claro, controle parental é importante, mas a gente tem que ter uma noção de proporção aqui. A gente tem que ter... Não é um fetiche que vai resolver tudo. Então, a gente tem que chamar, como a Resolução 245 chamou, as empresas para uma responsabilidade maior que seja proporcional aos seus poderes.
E, nos 30 segundos que me restam, comento dois pontos em que a gente incidiria mais. Tratar a questão do risco dentro do PL, mas na linha de riscos sistêmicos, como foi durante boa parte do PL 2.630. Ou seja, na questão da proteção por design, que foi aqui falada pelo Rodrigo, pela Secretária Lílian ontem, por exemplo, você está antecipando esses efeitos na própria construção desses ambientes, e não a posteriori, quando a violação já aconteceu, quando um direito da criança e do adolescente já foi violado, quando o efeito na saúde mental já aconteceu.
E o último ponto, que eu não vi ninguém trazer, mas é uma preocupação muito grande nossa dentro da assessoria, principalmente, é porque, quando a gente está falando de violência e violações de direitos de crianças e adolescentes em ambiente digital, muitas vezes o perpetrador dessas violações também são crianças e, principalmente, adolescentes. Isso a gente sabe, isso os estudos mostram, já teve milhares de reportagens, inclusive do jornalismo, sobre isso. Então, quando a gente está falando de risco sistêmico, a gente tem que atentar também para se antecipar a esses processos, por exemplo, de dessensibilização de adolescentes com relação ao sofrimento alheio - isso é algo que tem sido observado em pesquisas também -, porque estão imersos em conteúdos absolutamente de violência explícita, tortura animal, além da própria questão da pornografia que foi trazida ontem. As pessoas podem estar perdendo uma empatia pelo outro, e isso é algo sistêmico.
R
E, para finalizar, a questão da radicalização. E aí é uma questão complexa, porque, quando o jovem está lá no servidor do Discord ou dentro do grupo de Telegram radicalizado num grupo neonazista, numa comunidade misógina, tóxica, ele foi levado até àquele ambiente, ele foi recrutado antes, ele foi recrutado na superfície da internet, por exemplo, num perfil redpill do Instagram ou num canal do YouTube. Então, a gente tem que ter, de novo, essa noção do caráter distribuído, ecossistêmico e ambiental de todos esses riscos que a gente tem colocado aqui. Esse é o último ponto que eu gostaria de enfatizar, porque não foi enfatizado suficientemente.
Agradeço-lhe, de novo, Senador. Ficamos à disposição também para detalhar alguns desses pontos em outra oportunidade.
O SR. PRESIDENTE (Izalci Lucas. Bloco Parlamentar Vanguarda/PL - DF) - Obrigado.
Bem, quando se fala da família também, você tem que separar os pais dos avós; os avós são muito liberais com os netos, não é?
A gente ainda vai ter outras audiências, mas agradeço a participação de cada um de vocês. Quem puder contribuir com sugestões, com justificativas, nós agradecemos. (Pausa.)
Todo o material já está na página, mas as sugestões podem ser encaminhadas também para a Comissão.
Como começou a Ordem do Dia, eu vou agradecer a presença de vocês e vou declarar encerrada a nossa audiência pública.
Obrigado.
(Iniciada às 14 horas e 18 minutos, a reunião é encerrada às 16 horas e 45 minutos.)