Notas Taquigráficas
| Horário | Texto com revisão |
|---|---|
| R | A SRA. PRESIDENTE (Eliziane Gama. Bloco Parlamentar da Resistência Democrática/PSD - MA. Fala da Presidência.) - Havendo número regimental, declaro aberta a 7ª Reunião da Comissão de Defesa da Democracia da 2ª Sessão Legislativa Ordinária da 57ª Legislatura, que se realiza nesta data, 12 de junho de 2024. Antes de iniciarmos os nossos trabalhos, submeto à deliberação do Plenário a dispensa da leitura e a aprovação da Ata da 6ª Reunião, realizada em 6 de junho de 2024. As Sras. Senadoras e os Srs. Senadores que aprovam permaneçam como se encontram. (Pausa.) A ata está aprovada e será publicada no Diário do Senado Federal. A presente reunião destina-se à realização de audiência pública, com o objetivo de discutir a democracia e as eleições: o impacto da inteligência artificial no contexto eleitoral brasileiro, em atenção ao Requerimento nº 5, de 2024, de autoria do Senador Humberto Costa, e ao Requerimento nº 6, de 2024 de autoria da Senadora Teresa Leitão. |
| R | Participarão da audiência - e eu já convido para estar conosco, à mesa, o Senador Beto Faro -, o Marcelo, na verdade o Renato Monteiro, Chefe Global de Privacidade do X. A Margareth... O Renato está presente ou está no virtual? (Pausa.) No virtual. Convido também para estar conosco, à mesa, a Margareth Kang, Gerente de Políticas Públicas da Meta, já convido. (Pausa.) Ah, ela também está virtualmente. Convido para estar conosco à mesa o Fabiano Barreto, Gerente de Políticas Públicas do TikTok Brasil, e a Estela Aranha, membro do Conselho Consultivo de Alto Nível da ONU para a Inteligência Artificial. Também estará conosco na audiência a Flávia Annenberg, Gerente de Relações Governamentais e Políticas Públicas do Google Brasil. A Flávia está presente ou é virtual? (Pausa.) Também virtual. Então, nós temos aí dois presentes e três pelo sistema virtual. Aguardamos também a presença do Marcelo Eugenio Feitosa Almeida, Procurador-Geral da União. Eu gostaria aqui, gente, profundamente, antes de tudo, de agradecer a presença de todos aqui, nesta reunião, de cumprimentar os Parlamentares, os Senadores que foram também autores dessa solicitação, dessa audiência, que tem como temática central o impacto da inteligência artificial no processo eleitoral brasileiro. Contamos hoje aqui com a presença de vários representantes das chamadas big techs, empresas que operam nas fronteiras limites da tecnologia informacional e também cibernética. Os meus agradecimentos e a manifestação de uma convicção da colaboração entre o poder público e o segmento privado tecnológico, o que, em nosso caso, é recomendável, imprescindível e também fundamental. Sem essa colaboração, crises são inevitáveis e todos nós, claro, não as queremos. Também quero fazer um registro de que, exatamente agora, no momento desta audiência pública, nesta manhã, nós temos, durante a tarde, uma comissão especial... Na verdade, estará sendo votado um projeto que é defendido, de autoria e também defendido muito, pelo próprio Presidente Rodrigo Pacheco, que vem tratar exatamente da inteligência artificial no Brasil. Ontem, nós tivemos também uma rica sessão temática sobre inteligência artificial, que evidenciou com clareza a complexidade dessa tecnologia sofisticada, que trará grande impacto às sociedades, às nações e também à vida das pessoas. No caso brasileiro, é bom lembrar que, ao contrário da maioria dos países mundo afora, aqui, no Brasil, nós temos uma Justiça Eleitoral, hoje muito bem conduzida por uma mulher; uma mulher, aliás, absolutamente competente, que é a nossa Ministra Cármen Lúcia. A Justiça Eleitoral brasileira hoje, não há dúvida nenhuma, tem um nível de responsabilidade quanto à integridade do voto e do processo eleitoral, que, como todos nós sabemos, são a raiz da credibilidade da nossa democracia. Certamente essa postura será apurada cada vez mais, para que as informações falsas não permaneçam e acabem realmente complicando e trazendo prejuízo à consciência da cidadania e dos eleitores brasileiros. |
| R | Nessa direção destaco a recente resolução da maior importância do TSE, que são as novas normas disciplinadoras das eleições avançadas para inibir crimes e manipulações de informações. Como mulher e Senadora, eu também fico contente em saber que a Ministra Cármen Lúcia é muito zelosa quanto aos princípios democráticos e, particularmente, na igualdade entre gêneros, uma mulher batalhadora dentro do arcabouço legal e constitucional para que outras mulheres possam também representar tanto o Parlamento brasileiro como também a mais alta Corte do nosso país. Vivemos um mundo contemporâneo tumultuado, complexo, onde mentiras e narrativas procuram solapar a integridade do voto e, mais largamente, a própria razão. E quando as tecnologias são responsabilizadas massivamente e de forma mais rápida que as próprias ações do poder público para coibi-las, portanto, mais uma vez, creio que só a colaboração entre atores privados e públicos pode retirar da tecnologia tudo o que é positivo, inibindo ações nefastas que agridem os princípios da transparência e também da liberdade. A inteligência artificial, neste momento, é uma espada de Dâmocles sobre as nossas cabeças. É um instrumento perigoso na formação das deepfakes, também das fake news e também de bolhas, onde são capazes de separar o cidadão de seu diálogo com a sociedade aberta e também com as diferenças. Espero que o Brasil seja um exemplo no combate a crimes tão estúpidos que não matam necessariamente pessoas fisicamente, mas matam a democracia e até mesmo o processo civilizatório tal como nós conhecemos. Esta Comissão de Defesa da Democracia, aliás, nasceu exatamente nesse sentido, nessa linha do fortalecimento da democracia no país. E esta audiência pública vai na esteira daquilo que nós defendemos e num programa continuado e sistemático de vigilância do processo democrático brasileiro. O 8 de Janeiro não acabou; é uma luta diária, e aí, portanto, as instituições brasileiras, que são fortes, têm um papel preponderante para que o 8 de Janeiro nunca mais volte na história do Brasil. É um dia em que nós precisamos esquecer do ponto de vista da sua repetição, mas nós precisamos lembrá-los, todos os dias, do ponto de vista da luta e do combate, para que essa situação de fato nunca mais aconteça na história do Brasil. Antes de passar a palavra aos nossos convidados, comunico que esta reunião será interativa, transmitida ao vivo e aberta à participação dos interessados, por meio do Portal e-Cidadania, na internet, no endereço senado.leg.br/ecidadania, ou pelo telefone 0800 0612211. O relatório completo com todas as manifestações estará disponível no portal, assim como as apresentações que forem utilizadas pelos expositores. Na exposição inicial, cada convidado poderá fazer uso da palavra por até dez minutos. Ao fim das exposições, a palavra será concedida aos Parlamentares inscritos para fazerem perguntas ou comentários. (Pausa.) O sistema virtual já está o.k., não é? Então, nós vamos iniciar a nossa audiência pública, e a gente inicia passando a palavra pelo tempo de até... quantos minutos? Vinte? (Pausa.) Até dez minutos, e a gente inicia com o Renato Monteiro, que é Chefe Global de Privacidade do X. Pois não, Renato, você tem até dez minutos de fala inicial. O SR. RENATO MONTEIRO (Por videoconferência.) - Obrigado, Senadora, só para verificar: tudo o.k.? Estão conseguindo me ouvir aqui? A SRA. PRESIDENTE (Eliziane Gama. Bloco Parlamentar da Resistência Democrática/PSD - MA) - Tudo certinho. O SR. RENATO MONTEIRO (Para expor. Por videoconferência.) - Obrigado. Primeiro gostaria de cumprimentar a Presidência desta Comissão de Defesa da Democracia, a Senadora Eliziane Gama, bem como os Parlamentares autores dos requerimentos para debater esse assunto tão relevante para o ecossistema digital, junto a autoridades interessadas no tema. Também gostaria de cumprimentar todos os aqui presentes. |
| R | Agradeço pela oportunidade de falar aqui hoje. É uma honra poder dividir esse espaço com vocês. Como dito pela Senadora, eu sou o líder global em privacidade e proteção de dados do X e também sou responsável, em conjunto com os mais diversos times da nossa organização, por várias das nossas iniciativas de desenvolvimento e uso seguro de ferramentas e funcionalidades que se valem de inteligência artificial, nas suas mais diferentes formas. A gente sabe que existem hoje as mais diferentes tecnologias. Nesse contexto, temos participado ativamente das discussões no Brasil das iniciativas de regulação de IA, como algumas mencionadas aqui pela Senadora. Para a nossa conversa de hoje, gostaria de focar no impacto da inteligência artificial no contexto eleitoral brasileiro. Como plataforma pública e em tempo real, o X - ou aqui o "xis", vamos falar - tem o objetivo de oferecer a todos a capacidade de se conectar, debater e compartilhar informações e suas perspectivas, além de se engajar em conversas e ter acesso a cada lado de um debate. De acordo com o interesse da discussão de hoje, acreditamos que temos a importante responsabilidade de garantir que nosso serviço não seja usado com a intenção de manipular o discurso público ou interromper a autenticidade da conversa. Levamos essa responsabilidade a sério. Explicarei, em minha declaração, as medidas que estamos implementando para garantir que combatamos efetivamente a manipulação do serviço, bem como a desinformação e a má informação de um modo geral. O X, Senadora, é fundado sobre um conjunto de valores fundamentais para a defesa e o respeito à voz do usuário e um compromisso com a liberdade de expressão e a proteção à privacidade. Nós fazemos isso servindo à nossa audiência global e focando nas necessidades das pessoas que usam o nosso serviço. No X, estamos comprometidos em prover um serviço que encoraje e facilite o debate aberto, democrático e mais diverso e plural possível. Para que esse objetivo seja alcançado, o X entende ser necessário prover às pessoas um ambiente em que elas se sintam seguras ao se comunicar na plataforma. Como centro global de conversa pública, sabemos que o debate público no período que antecede as eleições terá lugar e acontecerá no X. Estamos orgulhosos de que o nosso serviço seja um impulsionador de conversas que alimentam o debate democrático no Brasil e em vários lugares do mundo. Em tempos de eleições e em todos os momentos, é fundamental manter a autenticidade da conversa no X. Nossas equipes permanecem alertas sobre qualquer tentativa de manipulação da plataforma por parte de maus atores e redes, seja por meio de uso de ferramentas de IA ou não. Temos políticas robustas em vigor para evitar spam e manipulação da plataforma e removeremos contas envolvidas nesse tipo de comportamento. É importante frisar, Senadora, que, independente de um conteúdo violador das nossas políticas ter sido criado por meio de ferramentas de IA ou não, ele será acionado. Também nos certificamos de que estamos bem equipados para lutar contra qualquer mídia manipulada e deepfakes e colocaremos rótulos visíveis em qualquer conteúdo que tenha sido denunciado por uma fonte confiável que indique que este viola as políticas da nossa plataforma. Temos vários exemplos de situações globais, situações no Brasil, em que isso aconteceu e, caso seja aqui do desejo da Comissão, da Senadora, nós podemos compartilhar algumas métricas que podem consubstanciar o nosso debate. |
| R | De acordo especificamente, Senadora, com a política de integridade cívica do X, é proibido, por exemplo, usar o serviço com o propósito de manipular ou interferir em eleições e em outros processos cívicos, como postar ou compartilhar conteúdo que possa suprimir a participação, enganar as pessoas sobre quando, onde ou como participar de um processo cívico ou levar à violência offline durante uma eleição. Se a tentativa de manipulação e violação se der por meio de ferramentas de IA, ela será acionada, Senadora. Qualquer tentativa de minar a integridade da participação cívica impacta os princípios fundamentais de liberdade de expressão, proteção da privacidade e outros direitos fundamentais. Como resultado, aplicamos rótulos visíveis a publicações violadoras das nossas políticas, informando aos utilizadores que o conteúdo viola a nossa política de integridade física - cívica, em específico. Finalmente, o X oferece uma ferramenta única e colaborativa, a qual eu gostaria de destacar aqui na nossa conversa, conhecida em inglês como Community Notes, que permite que qualquer pessoa no X leia, comente e avalie os conteúdos postados na plataforma de forma cooperativa, e os colaboradores que desbloquearem a capacidade de escrever notas podem adicionar comentários às postagens para adicionar contexto para permitir o melhor entendimento e informar a todos os usuários. Esta ferramenta está se tornando ferramenta útil e valiosa de informação dirigida pela comunidade colaborativa em tempos de eleições. O Community Notes está disponível no Brasil e em vários lugares do mundo, com novos contribuidores sendo adicionados frequentemente. Ainda estamos de contato regular com nossos reguladores e com as autoridades competentes para explicar os nossos esforços para proteger a conversa em torno das eleições e fornecer-lhes canais de emergência em caso de necessidade. No contexto de regulação de IA, inclusive no Brasil, Senadora, em termos gerais, qualquer regulamentação deve refletir as diferentes formas de funcionamento das plataformas e dos demais sistemas, incluindo as formas como os conteúdos são classificados e potencialmente amplificados, ao mesmo tempo em que protege direitos fundamentais, maximiza a concorrência, equilibra a segurança, a proteção de dados, a liberdade de expressão e protege contra outros impactos não intencionais e manipuladores. Acreditamos que as pessoas precisam de mais opções e controle sobre os algoritmos (Falha no áudio.)... as suas experiências online. Os algoritmos que empregamos no X são projetados para permitir experiências personalizadas e relevantes para o usuário, ao mesmo tempo em que permitem o uso seguro e que fomentam o debate público saudável. Dito isso, Senadora, mais uma vez agradeço a oportunidade de participar deste importante debate. O X está comprometido em colaborar com a proteção da democracia, a civilidade da conversa pública, a privacidade e a produção de dados no contexto eleitoral, e nos responsabilizaremos publicamente sobre essa missão. Seguir a conversa pública e manter as pessoas informadas sobre o que está acontecendo no mundo é central para o nosso trabalho. A saúde da conversa no X será construída e medida pela forma como incentivamos o debate cívico, as conversas e o pensamento crítico. Muito obrigado, Senadora. Fico aqui à disposição. A SRA. PRESIDENTE (Eliziane Gama. Bloco Parlamentar da Resistência Democrática/PSD - MA) - Muito obrigada, Renato Monteiro. Eu quero cumprimentar aqui o Deputado Jilmar Tatto, dar aqui as boas-vindas a você na nossa Comissão de Defesa da Democracia; cumprimentar a Senadora Teresa Leitão, a nossa grande Senadora, que, aliás, é autora do requerimento de que resultou esta audiência pública - tem que falar corretinho, porque ela é professora, então, você errou aqui, ela corrige na mesma hora. Profa. Teresa, na verdade, como eu disse, é autora do requerimento desta audiência pública. |
| R | A Professora quer fazer uma fala, não é isso? (Intervenção fora do microfone.) A SRA. PRESIDENTE (Eliziane Gama. Bloco Parlamentar da Resistência Democrática/PSD - MA) - Ah, a Deputada Edivanda... (Intervenção fora do microfone.) A SRA. PRESIDENTE (Eliziane Gama. Bloco Parlamentar da Resistência Democrática/PSD - MA) - Deputada Dilvanda Faro, também muito obrigada pela sua presença. Olha, nós temos um Parlamento neste momento com maioria de mulheres. Então, nós temos aqui três Parlamentares, que são os Senadores e o Deputado, e três outras Parlamentares: duas Senadoras e uma Deputada. É raríssimo a gente ter a maioria. Um dia nós chegaremos lá, viu, Deputado? Então, parabéns às nossas Parlamentares. Senadora. A SRA. TERESA LEITÃO (Bloco Parlamentar da Resistência Democrática/PT - PE. Para interpelar.) - Muito obrigada, Senadora Eliziane Gama, Presidenta desta tão importante Comissão. Quero cumprimentá-la. Quero cumprimentar o Sr. Fabiano Barreto, a Sra. Estela Aranha, os nossos colegas aqui de bancada. Quero dizer que a paridade é nosso sonho. Nós chegaremos lá. Embora nós sejamos maioria na população, a paridade nas Casas Legislativas já nos contentaria. Estamos lutando por isso, não é, Senadora? Quero agradecer a possibilidade de falar antes de todos, porque eu fui demandada para uma entrevista, que era agora às 11h30, e eu pedi para retardar um pouquinho, porque não queria faltar. É evidente que terei acesso a todo esse rico conteúdo, importante conteúdo, Deputado Jilmar, que nós estamos querendo debater nesta audiência, porque eleições democráticas precisam de transparência. Fiz um rápido texto, para ser mais objetiva. A uma das questões a Senadora já se referiu. Não só eu, mas ela também, além do Senador Beto Faro, além do Senador Humberto Costa, subscrevemos esse requerimento, e acho que a audiência vai nos enriquecer bastante com aquilo que a gente precisa saber. Um tema dessa proporção achamos que deve ser enfrentado sob diversos ângulos, de maneira multidimensional, uma vez que envolve a elaboração de regras e regulamentos específicos, mas também o entendimento do potencial da inteligência artificial e o desenvolvimento de ferramentas de combate a notícias falsas. O nosso veto, o veto do Governo em relação às fake news foi derrubado. Todos sabemos disso, não é? Então, existe ainda uma preocupação maior com o uso da inteligência artificial por conta dessa trava, que seria uma trava democrática, mas democraticamente o Congresso não entendeu assim, e isso resulta em mais preocupações e, ao mesmo tempo, mais atenção para vencermos o problema. Nossos convidados, eu tenho certeza, representam muito bem essa diversidade de pensamentos e de conhecimentos. O debate entre representantes de empresas de tecnologia e autoridades do Judiciário, do Executivo e do Legislativo será certamente instrutivo e enriquecedor, além de contarmos com a presença muito importante de um representante das Nações Unidas. Estamos dialogando sobre inovações que nos oferecem uma possibilidade em meio a dois caminhos. Um caminho traz imensas contribuições à democracia, como o estímulo à participação popular, a simplificação de processos eleitorais e a redução de custos de campanha. Outro caminho é o uso abusivo de inteligência artificial disseminando notícias falsas e desinformação. Eu mesma fui vítima disso na última campanha. Uma coisa simples, mas que eu não havia dito, mas a minha voz foi modificada. A voz de quem falou foi modificada para ter o tom da minha voz, e eu fazia uma chamada que não era verdadeira. Era uma simples chamada para um ato de uma candidata que eu não apoiava, era a candidata de oposição ao nosso candidato, e aí botaram a minha voz fazendo a chamada. Uma coisa relativamente simples, mas altamente comprometedora. |
| R | Então, nesse sentido, enquanto o uso adequado da inteligência artificial tende a auxiliar a campanha eleitoral e direcionar mensagens para diferentes públicos, o uso inadequado pode gerar fake news, bem como deepfakes, com um elevado grau de realismo, confundindo os eleitores. Foi o que aconteceu com a minha voz. Essa nova dinâmica exige adaptação da nossa maneira de enfrentar o problema. Precisamos mudar o foco. Percebam que, em lugar de nos dedicarmos ao acesso à informação, devemos agora conferir especial atenção à avaliação do conteúdo. Podemos dizer que nosso acompanhamento não é mais centrado apenas na questão da transparência e publicidade do candidato ou candidata e de suas propostas, o que ainda é muito importante. Passamos também a ser mais exigidos na análise do conteúdo que está sendo efetivamente gerado pelas campanhas. Essa verificação se deve ao nosso receio de que a inteligência artificial seja utilizada para manipular informações e opiniões. Isso não é um exagero. A inteligência artificial generativa dispõe de recursos que podem ser utilizados para simular discursos, criar perfis falsos de candidatos e candidatas e disseminar informações errôneas. Condutas desse tipo já foram inclusive vedadas pelo Tribunal Superior Eleitoral, mas não é tarefa simples fazer a sua apuração no dia a dia das eleições. Já nos deparamos com textos, imagens, áudios e vídeos manipulados com o propósito de influenciar o eleitor e corromper o sistema político. A manipulação encontra, de modo lamentável, campo fértil em nossa sociedade, em razão de vivermos uma política polarizada, marcada pela rivalidade e chegando até o extremo das violências. Os grupos extremos e os gabinetes do ódio gostam desse ambiente e se utilizam da desinformação para conquistar espaços. Todavia, devemos reforçar o entendimento de que a eleição manipulada não é legítima. Um voto influenciado por informações falsas não atende ao interesse democrático nem a indicativo da ampla liberdade de expressão. A Ministra Cármen Lúcia tem batido nesta tecla: a liberdade de expressão jamais deve servir de propósito da arbitrariedade e da falta de controle. Inclusive, no seu discurso de posse, ela foi veemente em relação a esta questão. Foi nesse sentido que o TSE aprovou resolução para manter a inteligência artificial dentro dos parâmetros da legalidade e da moralidade. Todavia, ainda estamos nos familiarizando com esse novo contexto. Precisamos ficar atentos e atentas às inovações tecnológicas e ao que tem ocorrido em outros países. Vou pular um pedaço, porque repete um pouco essa mesma informação, mas eu quero citar algo que está ocorrendo aqui na Casa, que é a minha fala final. Quero citar especificamente a Comissão Temporária sobre Inteligência Artificial, que irá votar daqui a poucas horas, ainda na tarde de hoje, o relatório do PL 2.338, de 2023. O Relator é o Senador Eduardo Gomes, e o autor do projeto é o Presidente da Casa, Senador Rodrigo Pacheco. Esse PL tramita em conjunto com outros dois projetos, todos ligados diretamente à regulamentação da inteligência artificial. Espero e desejo que o relatório apresente as soluções adequadas e que possamos, em breve, aprovar a proposta. |
| R | Eu participei de uma atividade, no ano passado, em outubro, se não me engano, em Montevidéu, uma cúpula de Parlamentos para analisar a utilização da inteligência artificial em vários âmbitos, Dr. Fabiano, no âmbito tanto da gestão pública, quanto da gestão privada e dos Parlamentos. E é uma matéria realmente sobre a qual nós não podemos mais olvidar ou desconhecer. É uma coisa que a gente pode dizer que é dessas que vieram para ficar, mas o cuidado tem que ser realmente redobrado para que não se manipulem nem se veiculem informações que desinformam. Concluo, realçando o meu entendimento de que não há espaço na democracia para manipulação de ideias nem para liberdade de expressão sem limites. A vida em coletividade pressupõe o respeito às diferenças e o reconhecimento de opiniões diversas. Isso significa que as liberdades individuais não podem se sobrepor aos direitos alheios e aos direitos coletivos. Muito obrigada, Sra. Presidenta. Desculpo-me e lamento, por mim própria, porque não vou poder me enriquecer e ouvir a todos e a todas que, certamente, vão abrilhantar muito esta audiência pública. Obrigada. A SRA. PRESIDENTE (Eliziane Gama. Bloco Parlamentar da Resistência Democrática/PSD - MA) - Muito obrigada, Senadora, pelas suas palavras. Fique à vontade. A gente sabe que, na terça-feira e na quarta-feira, a situação no Senado Federal - no Congresso Nacional como um todo, pois também na Câmara dos Deputados - não é fácil. A gente acaba tendo que ir a várias Comissões, ser meio onipresente, para poder dar conta, de fato, da agenda. Eu vou passar aqui a palavra à Dra. Flávia Annenberg, que é Gerente de Relações Governamentais e Políticas Públicas do Google Brasil, que vai fazer a sua participação também pelo sistema virtual. Flávia, você tem dez minutos. O SR. FLÁVIA ANNENBERG (Para expor. Por videoconferência.) - Bom dia. Muito obrigada. Antes de iniciar, eu só queria conferir que conseguem me escutar. A SRA. PRESIDENTE (Eliziane Gama. Bloco Parlamentar da Resistência Democrática/PSD - MA) - Sim, querida. O SR. FLÁVIA ANNENBERG (Por videoconferência.) - Certo. Muito obrigada. Bom dia a todos e a todas. Meu nome é Flávia Annenberg. Sou da equipe de políticas públicas do Google. Quero começar agradecendo pelo convite para falar hoje. Cumprimento a Senadora Eliziane Gama, na pessoa de quem cumprimento também os demais membros da Comissão de Defesa da Democracia. E agradeço a possibilidade de participação virtual. Infelizmente, não pude estar em Brasília hoje. Muito obrigada por viabilizar minha participação. O assunto discutido hoje nesta reunião é da maior importância para o Google. Apoiar e proteger as eleições é essencial para o compromisso do Google com o processo democrático brasileiro. A gente sabe que mais de 5 mil municípios vão às urnas em outubro, e o nosso objetivo é continuar ampliando os esforços para manter as nossas plataformas seguras contra abusos e desinformação e, ao mesmo tempo, melhorar o acesso das pessoas a fontes confiáveis, ajudando os eleitores para que eles entendam os conteúdos que eles encontram na internet e, assim, possam tomar decisões bem informadas. O combate à desinformação é, então, uma parte central desse compromisso do Google, e o Google tem como missão justamente organizar as informações do mundo e torná-las úteis e disponíveis para todos. |
| R | O que isso significa quando a gente fala de eleições? Isso significa justamente fornecer suporte para os eleitores na busca por informações oficiais e úteis para que eles possam fazer uma escolha mais informada quando eles vão votar. Conectar pessoas a informações confiáveis é, portanto, o primeiro pilar da nossa atuação nas eleições. A espinha dorsal desse trabalho, como muitos já devem saber, tem sido uma parceria com o TSE, que vem desde 2014; então, tem quase dez anos. Nas eleições de 2022, por exemplo, nós lançamos com o TSE as ferramentas "como tirar título de eleitor" e "como votar", que eram recursos que apareciam diretamente na busca do Google para ajudar as pessoas a encontrar o melhor conteúdo para participar do processo democrático, justamente o conteúdo que era fornecido pelo TSE, a fonte oficial de informação sobre eleições no Brasil. Eu gostaria de compartilhar alguns números para dar a dimensão do quanto essas ferramentas foram importantes. Durante o primeiro e o segundo turnos das eleições de 2022, esses recursos foram vistos quase 240 milhões de vezes. Também nos dias de votação, a gente entregou na busca, em tempo real, o resultado das eleições com dados extraídos, de novo, diretamente do TSE. Nos dias do primeiro e do segundo turnos, esse recurso representou aproximadamente 30% de todo o tráfego de pesquisa na busca do Google no Brasil, o que mostra a relevância de a gente ter ferramentas que dão destaque ao conteúdo do TSE como fonte oficial. Na nossa loja de aplicativos, a gente também teve uma coleção de aplicativos destacados para fácil acesso dos usuários que incluía aplicativos da Justiça Eleitoral, como o e-Título, que certamente muita gente conhece, e aplicativos cívicos relacionados às eleições, como, por exemplo, para a checagem de fatos, que foi o caso do aplicativo do Comprova, um aplicativo que contou com o apoio do Google e foi o primeiro aplicativo de checagem no Brasil. A gente também lançou a campanha "Conheça seu voto", para ampliar o uso consciente das informações que circulam sobre eleições. Essa campanha impactou mais de 100 milhões de eleitores. A gente também teve uma série de iniciativas para apoiar checadores de fatos e veículos jornalísticos, com foco especial em eleições. E, no YouTube, a gente desenvolveu alguns recursos destinados a eleições no Brasil, especificamente. Tinha o alerta de integridade eleitoral, que era exibido nas buscas no YouTube por eleições no Brasil e direcionava o usuário, de novo, para informações oficiais do TSE sobre a integridade do processo eleitoral. E a gente também disponibilizou no YouTube o painel de informações sobre a urna eletrônica. Então, para um grupo específico de assuntos passíveis de desinformação, como era o caso da urna eletrônica, era apresentado um contexto adicional com informações de terceiros, como o TSE. Neste ano, esses esforços nossos para ajudar as pessoas a tomarem decisões informadas e divulgar informações de qualidade vão continuar, mas agora com um foco maior no papel da inteligência artificial. Como já foi falado aqui, qualquer tecnologia emergente tem os seus desafios e as suas oportunidades. No Google, a gente tem se preparado para entender como a inteligência artificial pode tornar o cenário da desinformação ainda mais complexo. Nos últimos anos, o Google tem apoiado eleições no mundo todo, e, em cada ciclo eleitoral, a gente vai aplicando novos aprendizados para melhorar os nossos produtos. Quando a gente fala do desenvolvimento de inteligência artificial, o Google tem adotado uma abordagem responsável, considerando, de novo, oportunidades e riscos de qualquer tecnologia emergente. Os nossos modelos de inteligência artificial tendem a melhorar os nossos esforços de combate ao abuso, incluindo aí a capacidade de aplicar as nossas políticas em uma escala cada vez maior. |
| R | O Google já tem políticas de longa data para coibir conteúdos que tenham ódio, assédio, incitamento à violência, alegações comprovadamente falsas que podem minar os processos democráticos, entre outros. O Google tem políticas que proíbem conteúdo e anúncios que confundam os eleitores sobre como votar ou que estimulem a interferência no processo democrático. E isso não depende do tipo de conteúdo: pode ser vídeo, imagem, texto, inclusive o conteúdo sintético, o conteúdo criado por inteligência artificial. Então, por mais de uma década, a gente já tem utilizado a inteligência artificial para identificar e remover conteúdos que violam essas políticas que eu mencionei, mas, agora, com avanços mais recentes, esses sistemas têm se tornado cada vez mais rápidos, cada vez mais adaptáveis. O Google está especialmente focado no papel que a inteligência artificial generativa pode ter no contexto eleitoral. Por isso, o segundo pilar da nossa atuação é o de ajudar o usuário a entender o conteúdo gerado por inteligência artificial. E, para ajudar o usuário a identificar um conteúdo que pode parecer realista, mas que, na verdade, é gerado por inteligência artificial, o Google introduziu várias ferramentas e políticas novas, e eu vou dar aqui alguns exemplos. Primeiro, há o de rótulos de conteúdo. Em março, o YouTube passou a exigir que todos os criadores identifiquem os conteúdos criados por inteligência artificial ou com uso de ferramentas de inteligência artificial para facilitar o entendimento do público sobre vídeos manipulados ou modificados digitalmente. Então, esse conteúdo tem que ser sinalizado por meio da aplicação desses rótulos. Esse novo rótulo tem como objetivo fortalecer a transparência com os espectadores e construir uma confiança entre o criador e o seu público. Alguns exemplos que o criador precisa identificar incluem usar a semelhança de uma pessoa real, alterar a imagem de eventos ou lugares reais, gerar cenas realistas, entre outros. Também no Gemini, a gente começou a implementar restrições sobre os tipos de perguntas relacionadas às eleições para as quais o Gemini vai dar respostas. O Gemini acaba direcionando muitas dúvidas para a própria busca do Google e, além disso, tem um recurso de verificação dupla, que avalia se tem um conteúdo na web disponível para fundamentar a resposta que ele fornece. A gente tem também o SynthID, que é uma ferramenta do Google DeepMind, que incorpora diretamente uma marca d'água digital em imagens e áudios gerados por inteligência artificial. A gente também tem buscado oferecer contexto adicional para os usuários sobre o que eles veem. E aqui vou dar o exemplo de um recurso que é o "Sobre esta imagem". O "Sobre esta imagem" está disponível na busca do Google e é um recurso que dá para as pessoas mais contexto e mais ferramentas para ajudá-las a avaliar a confiabilidade do que elas estão vendo online. E isso é fundamental para combater a desinformação, sendo ela gerada por inteligência artificial ou não. Então, esse recurso permite identificar quando uma imagem foi vista pela primeira vez na busca e se ela já foi publicada antes. Também dá para ver o que os sites de notícias e agências de verificação já publicaram sobre essa imagem e conferir, quando disponíveis, os metadados que foram adicionados pelos criadores e editores de conteúdo sobre aquela imagem. Então, essas informações ajudam a entender se a imagem foi retirada de contexto, por exemplo. |
| R | O Google tem feito um trabalho contínuo em colaboração com autoridades locais, com a indústria, com a sociedade civil, justamente como eu falei no início, para continuar conectando os eleitores com as informações mais confiáveis. Para dar alguns exemplos, recentemente, o Google aderiu a um esforço intersetorial para ajudar a fornecer mais transparência e contexto para as pessoas do conteúdo gerado por inteligência artificial. Então, junto com outras empresas líderes em tecnologia, a gente assumiu esse compromisso. É um acordo tecnológico para combater o uso enganoso de IA nas eleições, com um conjunto de compromissos para implantar a tecnologia que combata o conteúdo prejudicial gerado por IA, que pode ser destinado a enganar os eleitores. E o último exemplo - aqui eu já vou encerrar - é que a gente também se juntou, recentemente, ao C2PA, um órgão global de padrões que promove a transparência online, por meio da certificação da procedência de conteúdo digital. Foi um passo importante, justamente para trazer mais transparência para o conteúdo digital, incluindo como e quando o conteúdo foi criado ou modificado. Todos esses esforços de que eu falei aqui contribuem para o nosso trabalho para conectar os eleitores a informações confiáveis e úteis, o que é um passo fundamental para combater a desinformação na eleição brasileira. Para encerrar, queria reforçar que o Google está sempre comprometido com as iniciativas para apoiar o processo eleitoral no Brasil, e eu sigo à disposição da Comissão para tirar qualquer dúvida. Muito obrigada. A SRA. PRESIDENTE (Eliziane Gama. Bloco Parlamentar da Resistência Democrática/PSD - MA) - Muito obrigada, Flávia, pela sua participação. Queria registrar aqui a presença também do nosso sempre Senador Donizeti Nogueira. Seja bem-vindo à nossa sessão! Cumprimento o Dr. Marcelo Eugenio Feitosa Almeida, Procurador-Geral da União, que já convido para estar conosco aqui, na mesa dos trabalhos. Vou passar aqui a palavra ao Senador Beto Faro, porque, como eu disse, as nossas reuniões, as nossas agendas realmente são muito cheias, e ele também terá que seguir para uma outra Comissão. Senador Beto Faro. O SR. BETO FARO (Bloco Parlamentar da Resistência Democrática/PT - PA. Para interpelar.) - Senadora Eliziane Gama, Presidente desta Comissão, agradeço - também coautora desta audiência pública. Cumprimento aqui o Deputado Jilmar Tatto, que, inclusive, é Secretário de Comunicação do PT, do Brasil, além de Deputado por São Paulo, e que tem feito um trabalho importante nessa área da comunicação. Cumprimento aqui a todos os nossos palestrantes, vamos dizer assim, como o Fabiano Barreto, o Marcelo, a Estela e aqueles que estão participando de forma virtual; o ex-Senador e também nosso parceiro aqui Donizeti; e a Senadora que já, inclusive, saiu, por Pernambuco. Cumprimento a todos. Primeiro, é uma audiência extremamente importante. Nós estamos nos avizinhando de uma eleição, uma eleição que, para este tema, às vezes, é até bem mais complexa, porque, em eleição municipal, há municípios pequenos em que o único instrumento de comunicação talvez sejam as redes sociais, porque não tem rádio, não tem televisão participando das eleições. Talvez o único instrumento seja essa questão das... E é uma eleição até com uma complexidade maior para acompanhamento daquilo que se põe nas redes: é verdade ou é falso? É até mais complexo para você acompanhar e monitorar. Eu quero até lamentar - e não estou entendendo muito - a ausência aqui do TSE, porque o TSE tem sido um guardião dessa questão da democracia, tem nos ajudado muito, tem trabalhado a regulamentação, inclusive, dessa questão das redes. Não estar aqui é ruim, mas eu entendo que... |
| R | Eu sei do compromisso da Ministra Cármen Lúcia, do Alexandre, que saiu, e dos projetos que estão dentro do TSE trabalhando essa questão da regulamentação. Os resultados desta audiência com certeza chegarão a eles, e a gente aprimorará cada vez mais isso. Quero agradecer muito aqui a participação das big techs, trazendo as informações do trabalho que está sendo feito, para que a gente possa inibir essa questão das inverdades nas redes. Então, é fundamental. E quero dizer que me sinto muito contemplado, porque nós estamos debatendo isso na Casa, no Senado, tem projetos também tramitando na Câmara e que, com certeza, não chegarão a tempo dessas eleições. Não, nós não teremos o resultado desse trabalho e dos projetos já votados em Plenário para tempo dessas eleições, mas teremos para o futuro. Como é uma coisa que cresce, a gente precisa disso a tempo, mas o TSE está trabalhando nisso, e todas as informações que nós podemos debater aqui no Parlamento são fundamentais. Eu também já fui vítima, aliás, é muito difícil alguém não ter sido vítima - alguém público - da má informação, das fake news; é muito difícil alguém no país não ter sido vítima disso. Portanto, audiências como esta aqui melhoram, aprimoram e nos ajudam a vencer essa etapa. Nós temos exemplos já de eleições no mundo em que essa questão foi muito forte, como na Argentina e em outros países - foi muito forte -, e é necessário nós nos preocuparmos com isso. Eu quero parabenizar, então, aqui a iniciativa. Quero dizer que eu vou ter que sair porque tenho uma outra agenda importante, mas queria saudar aqui e parabenizá-lo, Presidente, pela condução do nosso trabalho. Era isso. Obrigado. A SRA. PRESIDENTE (Eliziane Gama. Bloco Parlamentar da Resistência Democrática/PSD - MA) - Muito obrigada, Senador Beto Faro, pelas suas palavras. Eu vou passar aqui a palavra ao Dr. Marcelo Eugenio Feitosa Almeida, que é Procurador-Geral da União, e, na sequência, ao Deputado Jilmar Tatto, que também dará sua contribuição. Dr. Marcelo. O SR. MARCELO EUGENIO FEITOSA ALMEIDA (Para expor.) - Bom dia. Obrigado, Senadora Presidente desta Comissão. Eu gostaria de fazer dois registros iniciais, Senadora. O primeiro é um registro em relação à própria criação da Comissão de Defesa da Democracia. Existe hoje uma literatura que trata de defesa da democracia, de democracia defensiva, em que eles colocam quatro estratégias, agrupam as estratégias em quatro, e uma dessas estratégias é a defesa da democracia por meio da ação política, é a defesa da democracia por dentro dos Parlamentos. E esta Comissão é um instrumento claro dessa estratégia de defesa de democracia. Então, eu acho importante fazer esse registro e ressaltar a importância desta Comissão dentro do ferramental de democracia defensiva no Brasil. E isso, Senadora, não sou eu que digo, são os pesquisadores, enfim, dessa matéria. |
| R | Um outro destaque inicial que eu gostaria de fazer é a escolha da temática. Nós temos desafios relacionados à tecnologia, temos desafios relacionados às novíssimas tecnologias, e esta Comissão também se ocupa desse tema, se preocupa e busca o debate para que a gente possa aqui reunir estratégias para esse enfrentamento. Em relação à manifestação da Advocacia-Geral da União, eu queria problematizar a partir de uma fala de um jurista americano, que é o Thurgood Marshall, que foi Juiz da Suprema Corte dos Estados Unidos. Enquanto advogado, atuando em um caso muito importante de comunicação política, ele disse o seguinte, que centraliza muito bem o problema de que nós estamos falando aqui, dentro desse contexto de igualdade de oportunidades eleitorais, de campo de jogo nivelado eleitoral: como somos realmente iguais, quando determinados grupos podem usar o seu poder econômico - e agora o poder tecnológico - para exercer um controle extraordinário sobre o mercado de ideias? Basicamente, é dessa temática que nós estamos falando hoje. A gente sabe que, se as novas tecnologias e as novíssimas, por um lado, barateiam, aumentam o alcance da comunicação política, do debate político, nós temos algumas preocupações associadas que impactam o campo de jogo nivelado eleitoral, a possibilidade de produção de uma desinformação mais sofisticada, mais precisa em termos de público-alvo, mais precisa em termos de capacidade de manipulação e de maior alcance e com padrão composicional mais difícil de ser destacado. Especialmente em relação às deepfakes, há justamente uma sofisticação na criação do conteúdo desinformacional, com a utilização de imagens e vídeos altamente realistas, criados por inteligência artificial, que podem até mesmo imitar indivíduos reais em situações inexistentes, que é a preocupação maior de todos nós. Trata-se de uma preocupação global, hoje liderada aqui pelo Senado e também pelo Tribunal Superior Eleitoral, como o Senador bem destacou. Nós temos que garantir a precisão, a consistência e a confiabilidade da informação de interesse político para a formação livre de convicções e, consequentemente, livre exercício do sufrágio. Senadora, nós vamos propor quatro linhas de atuação, muito brevemente. A primeira foca na criação de marcos jurídicos regulatórios bem desenhados. É importante que eles sejam bem desenhados, bem debatidos, e uma audiência como esta é fundamental para um bom desenho desses marcos regulatórios. É importante que esses marcos deem previsibilidade, porque, na medida em que nós temos marcos regulatórios previsíveis, eles passam a ser confiáveis, então as pessoas envolvidas, as entidades envolvidas vão ter mais confiança no tratamento dessa matéria. Isso dá mais estabilidade e isso pacifica o trato da matéria. Um outro ponto importante é a estruturação de instituições competentes e independentes. Mais uma vez, eu reitero o papel do Senado Federal. A Justiça Eleitoral é uma dessas instituições com competência e vocação para tratar dessa matéria. Uma terceira linha de atuação é a cooperação multissetorial. Ou seja, essas instituições que eu mencionei - o Parlamento, a Justiça Eleitoral -, a indústria de serviços tecnológicos, os partidos políticos são muito importantes dentro deste debate, e é importante a cooperação e a atuação em comunhão de objetivos para o bom uso das novas e novíssimas tecnologias. |
| R | O quarto ponto eu vou deixar para o final. Voltando um pouquinho, Senadora, à questão das instituições e dos marcos jurídicos regulatórios, este Senado tem desempenhado um papel essencial nesse debate. Entendemos, como eu falei, que os partidos podem contribuir muito, por meio de orientações e diretrizes às campanhas eleitorais, sobre práticas, bons usos e aplicações dessas novíssimas tecnologias. A Justiça Eleitoral, que é uma instituição que, como o Senador Beto Faro falou, é uma ponta de lança no enfrentamento desses desafios que as novas tecnologias impõem, tem se voltado à instituição de medidas para assegurar a regularidade da propaganda política veiculada pela internet, como também tem combatido a desinformação sobre a própria higidez do processo eleitoral, exatamente diante dessa premissa inafastável, que deve orientar o nosso debate, de que a informação de qualidade é indispensável para o efetivo exercício do direito ao voto. É importante destacar a Resolução 23.732, de 2024, do TSE, que estabelece normas específicas para o uso de inteligência artificial na criação e propagação de conteúdo durante as eleições. Ainda quanto a esses marcos jurídicos, é importante destacar a jurisprudência do tribunal e das cortes regionais eleitorais, que tem equilibrado cada vez mais a liberdade de comunicação política, ainda que por meio de tecnologias, com a necessidade de proteção da integridade da informação de interesse político, para que a cidadania possa formar livremente as suas convicções e tomar as suas decisões políticas. Quanto à cooperação multissetorial, voltando a esse tema, eu queria registrar um movimento muito importante, que é a criação do Centro Integrado de Enfrentamento à Desinformação e Defesa da Democracia (Ciedde), do TSE. Qual é o objetivo ali? Abro aspas: "[...] será auxiliar na atuação coordenada da Justiça Eleitoral junto aos Poderes, órgãos da República e instituições públicas e privadas na promoção da educação em cidadania, nos valores democráticos, nos direitos digitais e no combate à desinformação, discursos de ódio, discriminatórios e antidemocráticos, no âmbito eleitoral". Portanto, nós temos ali vários órgãos reunidos, a indústria de serviço de tecnologia está lá também, e temos atuado nessa comunhão de propósitos. A AGU está lá, atendeu o convite também. E eu tenho visto cada vez mais as grandes plataformas colaborativas e em diálogo com o poder público no enfrentamento dessas situações. Junto à AGU, eu posso assegurar que isso tem acontecido cada vez mais. E aqui eu faço uma conclusão, já encerrando, Senadora, que é uma reflexão fazendo um paralelo com o desafio que nós enfrentamos no passado, em relação ao que viveram as instituições financeiras no passado, quando elas faziam a seguinte reflexão: "Circulam recursos aqui no meu sistema, mas eu não tenho que me ocupar com a origem lícita ou ilícita desses recursos, eu tenho que prestar o meu serviço". E essas instituições financeiras, com o passar do tempo, evoluíram no seu pensamento, entenderam a importância do papel delas em combater a lavagem de dinheiro e, hoje, as instituições financeiras protagonizam os esforços e a luta de combate à lavagem de dinheiro. Parece-me que esse é o momento... (Soa a campainha.) |
| R | O SR. MARCELO EUGENIO FEITOSA ALMEIDA - ... de reflexão por que eles estão passando - e aqui eu concluo, Senadora - de dizer... Não pode ter mais aquela indiferença e dizer: "Ah, eu não tenho nada a ver com isso, se o conteúdo é lícito ou se é ilícito, eu estou só hospedando esse conteúdo". Não, é preciso que as plataformas - e eu acho que elas estão nesse movimento, sim - saiam desse sentimento de indiferença ao que elas hospedam para cada vez mais terem um dever de cuidado. Então, concluo, Senadora, dizendo que a quarta e última estratégia é a gente focar na formação de capacidade crítica da nossa cidadania. Essa é a arma, melhor dizendo, a ferramenta definitiva para a gente enfrentar esses desafios que se impõem. Obrigado. Espero ter contribuído. A SRA. PRESIDENTE (Eliziane Gama. Bloco Parlamentar da Resistência Democrática/PSD - MA) - Muito obrigada, Dr. Marcelo. Eu vou passar aqui a palavra agora ao Deputado Jilmar Tatto, do PT, de São Paulo. Na sequência, nós vamos ouvir a Margareth Kang - não sei se estou pronunciando corretamente -, que é Gerente de Políticas Públicas da Meta. Deputado Jilmar Tatto. O SR. JILMAR TATTO (PT - SP. Para expor.) - Obrigado, Senadora Eliziane Gama. Parabenizo-a pela condução dos trabalhos e parabenizo a iniciativa dos Senadores de fazer esta audiência pública, um debate tão importante, tão urgente e tão necessário em relação a garantir que a vontade do eleitor aconteça na sua plenitude. Nós estamos falando de democracia. Uma das questões mais sagradas da democracia é justamente a vontade do eleitor, é a eleição, e você garantir que o pleito seja feito de forma transparente, democrática, com lisura é fundamental. Portanto, esta audiência pública é fundamental. Cumprimento a Sra. Estela Aranha, representante da ONU; cumprimento o Sr. Marcelo Eugenio Feitosa Almeida, Procurador-Geral da União, o Fabiano Barreto, do TikTok, big tech, que está aqui, e as outras big techs que estão online conosco. Eu sou representante do PT lá na Câmara. O Presidente Arthur Lira fez uma Comissão de 20 Parlamentares de todos os partidos para discutir o Projeto 2.630, que está sendo discutido lá, e tem 90 dias para concluir os trabalhos. Portanto, 90 dias significam que para essa eleição não vai dar certo, porque, se vocês considerarem julho, agosto e setembro, então, não serve para essas eleições. Mas eu fiquei bastante preocupado e triste - para não falar outra coisa - com o veto em relação a fake news, o veto feito pelo Congresso Nacional, portanto, pelos nossos Deputados e Senadores, que regulamentava fake news. O que causa estranheza é que os Parlamentares não concordaram em regulamentar isso. Eu ouso dizer, primeiro, que tem uma parte dos nossos legisladores de desconhecimento, do que é fake news, deepfake, essa é uma parte. Tem uma outra que, de forma muito legítima, acha que está cerceando a liberdade, que todo mundo tem direito a entrar na rede, todo mundo tem direito de fazer o que quiser, quer dizer, o vale-tudo, e que - eu estou tentando ser bastante generoso com quem pensa isso, vamos dizer - isso é legítimo. E tem uma parte que usa o ódio, usa fake news para lacrar, para ganhar dinheiro e para conseguir votos. Então, quando se fala da democracia, tem uma parte também dos Parlamentares que usa isso para conseguir votos e usa, inclusive, para ganhar dinheiro e para ganhar votos. |
| R | Então, eu acho que o esforço que o Tribunal Superior Eleitoral está fazendo é importante. A Resolução 23.610, de 2024, está proibindo deepfakes. É fundamental... Quer dizer, está proibido. Segundo, há a obrigação do aviso sobre o uso de inteligência artificial na propaganda eleitoral. Eu vi a representante do Google falando isso. Então, ela está obrigando as big techs a dizerem que é uma inteligência artificial, que aquilo lá foi modificado de forma eletrônica. Restrição a emprego de robôs é importante, responsabilizando as big techs de não retirar do ar imediatamente conteúdos com desinformação, discursos de ódio, ideologia nazista, fascista, assim como falas antidemocráticas, racistas e homofóbicas. Vamos lembrar que hoje as big techs estão aqui, entenderam que isso tem que ser discutido, que tem que ser regulamentado, mas estava havendo uma resistência muito grande, Sra. Senadora Presidenta. Elas não estavam concordando no início. Achavam que podiam fazer o vale tudo na rede social. E o Dr. Marcelo colocou uma coisa - eu gostei do exemplo do senhor -, que é essa coisa dos agentes financeiros, dos bancos, entendeu? É verdade. Não vale movimentar dinheiro se esse dinheiro é do narcotráfico, se esse dinheiro é da comercialização de drogas, se esse dinheiro é de corrupção. Eles têm responsabilidade. Então, as big techs também têm responsabilidades. Então, eu acho que nós estamos numa situação em que, felizmente - e eu sou uma pessoa que acha que a gente tem que ser otimista -, agora todo mundo está colocando na mesa e vamos dizer o seguinte: não se trata de cercear a liberdade de opinião, de expressão. As pessoas têm o direito de se expressar e ter opinião. Não se trata aqui de atitudes autoritárias. Trata-se do seguinte: o vale tudo está deixando a nossa sociedade doente, o vale tudo não serve para a democracia, o vale tudo não ajuda na liberdade de expressão. É por isso que esta iniciativa, esta audiência pública, as iniciativas que o Senado está fazendo, as iniciativas que a Câmara está fazendo, mais as iniciativas que o Judiciário e os órgãos de controle estão fazendo eu acho importantes. E as experiências que nós estamos tendo do ponto de vista internacional, em que já há um avanço muito grande, Sra. Estela, em relação aos outros países, são experiências importantes para a gente chegar aqui e ter um denominador em que, vamos dizer o seguinte, a liberdade é importante, é necessária, mas também tem que ter limites. É por isso que hoje a disputa política eleitoral se dá muito nas redes. Ainda tem muitas reuniões presenciais, mas se dá muito nas redes. O Google tomou a decisão de não fazer impulsionamento em relação às eleições deste ano por causa das restrições do TSE, entendeu? Não chegaram a um acordo, vamos chamar assim. |
| R | Então, eu acho que, colocando na mesa, colocando as dificuldades, todos nós vamos chegar e vamos garantir o pleito democrático, transparente, em que a vontade do eleitor aconteça. Por isso, parabenizo a iniciativa desta Comissão no sentido de abrir esse debate. Obrigado. A SRA. PRESIDENTE (Eliziane Gama. Bloco Parlamentar da Resistência Democrática/PSD - MA) - Muito obrigada, Deputado Jilmar Tatto, pelas suas palavras. Agora eu vou passar para Margareth Kang - que ela vai me corrigir se estiver falando o nome dela errado -, que é Gerente de Políticas Públicas da Meta. Margareth. A SRA. MAG KANG (Para expor. Por videoconferência.) - Exma... A SRA. PRESIDENTE (Eliziane Gama. Bloco Parlamentar da Resistência Democrática/PSD - MA) - Não estamos ouvindo, Margareth. A SRA. MAG KANG (Por videoconferência.) - Agora sim? A SRA. PRESIDENTE (Eliziane Gama. Bloco Parlamentar da Resistência Democrática/PSD - MA) - Agora sim. A SRA. MAG KANG (Por videoconferência.) - Ótimo. Exma. Senadora, o meu nome está corretamente pronunciado. Obrigada. A SRA. PRESIDENTE (Eliziane Gama. Bloco Parlamentar da Resistência Democrática/PSD - MA) - Obrigada. Ufa! (Risos.) A SRA. MAG KANG (Por videoconferência.) - Cumprimento, então, todos aqui presentes na pessoa da Presidente da Comissão, assim como os demais membros da Comissão, Senadores, Deputados e colegas também da indústria. Agradeço a oportunidade de falar desse assunto que é tão caro para a Meta, porque de fato a democracia e as eleições são prioridades para a Meta. Inicio aqui a minha apresentação. Um segundo. Eu vou precisar apresentar assim, se vocês não se incomodam, por um problema que eu estou tendo aqui no meu computador. Mas entendo que a compreensão da tela não vai ser comprometida. Vale destacar primeiramente que a missão da Meta é dar às pessoas o poder de elas criarem comunidades e se aproximarem do mundo. Nesse sentido, a ampliação das fronteiras das descobertas científicas em termos de IA, além dos inúmeros benefícios que ela pode trazer, que são globais, proporciona também benefícios que precisam ser mais bem avaliados. Nesse contexto, a IA não é novidade para a Meta. A Meta utiliza a IA, a inteligência artificial, há muitos anos em duas grandes áreas de trabalho. A primeira seria na área de infraestrutura, de recomendações, classificações que alimentam os produtos, tanto nos feeds, quanto nos reels, no sistema de anúncios; e também no sistema de integridade, no qual a Meta trabalha há muitos anos. Vale destacar que também, em segundo plano, os modelos que utilizam a inteligência artificial não estão restritos a essa atividade que a Meta realiza há muito tempo de gestão dos aplicativos em si, mas também eles estão imbuídos nos modelos de base generativa que estão possibilitando uma classe completamente diferente e nova de produtos e experiências. Trazendo um pouco mais de informação sobre a utilização da inteligência artificial em nossa infraestrutura, destaco aqui os nossos padrões da comunidade, que são as regras em que são explicados o que pode e o que não pode ser compartilhado dentro das plataformas dos aplicativos Meta. E aqui eu trouxe tanto a Central de Transparência da Meta quanto as diretrizes do Instagram, mas também existem diretrizes específicas para o Threads. Vale ressaltar que as políticas aplicáveis que estão disponíveis na plataforma do Facebook são aplicáveis tanto para o Instagram quanto para o Threads, mas para esses dois últimos aplicativos nós temos algumas orientações adicionais. E, dentro desse escopo, tanto a implementação dessas políticas como a gestão para que a gente consiga ter mais escalabilidade e eficiência nos processos utilizam muito a inteligência artificial. Para além disso, quando nós pensamos nas IAs de origem, de modelo generativo, que são essas deepfakes, que são essa nova classe de produtos e serviços com inteligência artificial, a Meta possui um direcionamento de uma inteligência responsável, e, nesse sentido, quando ela aplica isso para dentro de seus produtos e serviços, ela traz consigo compromissos. |
| R | Quais compromissos, então, estão imbuídos dentro dos produtos e serviços que a Meta tem criado? A criação de conjunto de dados e ferramentas para produtos de IA mais inclusivos, a proteção da privacidade, a inovação no aprimoramento da imparcialidade, a geração de associações responsáveis e redução de associações de conteúdos problemáticos que possam refletir de alguma forma ou reforçar preconceitos e intolerância, o "proporcionamento" às pessoas de mais controle sobre feeds e recomendações baseados em inteligência artificial, o desenvolvimento de novos métodos para explicar os sistemas de inteligência artificial e como eles funcionam, e testes de novas abordagens. Eu vou trazer aqui alguns exemplos, a partir de agora, de como nossos compromissos são aplicados no dia a dia. Eles não são exaustivos, são apenas exemplificativos para trazer um pouco mais de clareza de como nós aplicamos isso no dia a dia. Um dos projetos incríveis que a Meta tem muita alegria de poder trazer para o público é o projeto chamado No Language Left Behind, um projeto pioneiro que usa modelo de código aberto e que é capaz de fazer traduções de alta qualidade em mais de 200 idiomas. Então, é a nossa proposta, é a proposta da Meta trazer mais inclusão e disponibilidade desse tipo de tecnologia. Outro exemplo é o Red Teaming, que é um exemplo de aplicação em que o modelo é testado, é estressado através de um esforço sistemático no intuito de identificar vulnerabilidades, riscos que possam provocar comportamentos ou resultados indesejados. Esses exercícios de Red Teaming são realizados tanto internamente, com os especialistas internos, quanto com especialistas externos, inclusive especialistas brasileiros. Além disso, quando nós pensamos sobre os compromissos aplicados dentro dos produtos e serviços imbuídos de IA, existe também o pilar da transparência e da explicabilidade, e alguns exemplos que trouxe aqui para vocês são: o cartão de modelo de IA, que é uma forma de trazer informações em um formato padroniza o, documentado, rastreável e monitorável desses modelos individuais; o cartão de sistema de IA, que explica como um grupo de modelos de machine learning e de outras tecnologias de IA e de não IA trabalham em conjunto. Então, são formas de trazer transparência para a comunidade para que ela possa entender como que tudo isso tem sido construído; e o Guia de Uso Responsável, que é um guia para desenvolvedores com boas práticas e considerações na criação de produtos habilitados por grandes modelos de linguagem. A Meta acredita que é superimportante que as decisões sobre produtos e políticas relacionadas com a inteligência artificial generativa sejam baseadas em pessoas e especialistas de todo o mundo. Por isso, eu trago aqui o exemplo do Fórum Comunitário da Meta sobre IA Generativa. Esse fórum é realizado em conjunto com o Deliberative Democracy Lab, da Stanford, e a equipe de insights comportamentais e foi criado exatamente para atuar como uma ferramenta de governança e um recurso para a comunidade. Reúne, portanto, representantes e pessoas de diversas habilidades para discutir e deliberar sobre quais valores devem sustentar a inteligência artificial, e muitos brasileiros foram incluídos dentro desses debates. O relatório está disponível dentro do site da Stanford, e eu posso compartilhá-lo com vocês depois. |
| R | Mais um exemplo da aplicação dos compromissos ora lá citados é a cooperação técnica para combater o uso enganoso da inteligência artificial no contexto das eleições de 2024. Existe, como foi levantado aqui por diversos membros, a necessidade e a atenção sobre essa temática, que é tão cara, e é por isso que nós estamos aqui. E o objetivo foi fazer, então, uma aliança de organizações, de empresas do setor, para que possamos trabalhar em relação a esse tema de forma conjunta, trazendo mais força, inclusive, às iniciativas internas. Sigo aqui com algumas outras iniciativas da empresa que são, de forma proativa, para trazer mais transparência, mais explicabilidade quanto aos conteúdos que tem a inteligência artificial, que nos preocupa tanto hoje. Em fevereiro, além dessa cooperação técnica que foi lançada na Conferência de Munique, nós também anunciamos, neste ano, a inclusão do rótulo criado com AI para todas as imagens que forem criadas com o Meta AI. Para além disso, a Meta também trabalha com parceiros da indústria na identificação de conteúdos com a inteligência artificial, incluindo vídeos e áudios, para que os sinais sejam lidos uns dos outros. Acho que cabe destacar que, quando esses sinais são legíveis, a Meta coloca para os conteúdos orgânicos, a partir de maio, essa identificação de que foram criados com a inteligência artificial. No entanto, cabe destacar que, em alguns casos, esses sinais não são legíveis. Em outras circunstâncias, atores mal-intencionados podem, inclusive, retirar esses sinais para fins inúmeros. A Meta trabalha, tem um centro de pesquisa chamado FAIR, desde 2010, e um dos pontos centrais, um dos pontos de trabalho desse laboratório de pesquisa é incluir dados, metadados, marcas d'água que não sejam passíveis de serem retiradas, para que quaisquer empresas, quaisquer atores do ecossistema possam entender que aqueles conteúdos que saíram da Meta têm a IA envolvida quando a IA está... (Pausa.) Vou correr um pouquinho com a apresentação. A gente também tem a obrigação de que anunciantes que têm anúncios em temas sociais ou políticos coloquem a informação em que utilizaram a inteligência artificial, quando de fato isso for colocado. Isso é uma regra hoje. E, por fim, os esforços que incluem também investimentos em segurança de informação, são mais de 20 bilhões de investimentos aí colocados desde 2016, com mais de 40 mil pessoas trabalhando nessa área, parcerias e colaborações com autoridades eleitorais. A Meta também trabalha capacitando candidatos em suas campanhas eleitorais em todo o Brasil e no combate à desinformação com a maior rede independente de verificadores de fatos da indústria. Hoje, só no Brasil, são seis grandes empresas que fazem essas verificações para combater a desinformação. Então, em razão do tempo, termino aqui a minha apresentação. Agradeço imensamente pela oportunidade de poder compartilhar e dialogar sobre esse assunto. Obrigada. A SRA. PRESIDENTE (Eliziane Gama. Bloco Parlamentar da Resistência Democrática/PSD - MA) - Muito obrigada, Margareth, pelas suas palavras. A gente ainda vai voltar com todos para fazer... Nós temos uma série de perguntas aqui que vieram pelo e-Cidadania. A gente, então, vai passar todas as perguntas, e aí os nossos convidados poderão responder resumidamente, porque são várias perguntas. Vamos passar, agora, a palavra à Estela Aranha, membro do Conselho Consultivo de Alto Nível da ONU para a Inteligência Artificial. Estela. |
| R | A SRA. ESTELA ARANHA (Para expor.) - Boa tarde, Senadora. Boa tarde a todas e todos que estão na mesa e que estão nos acompanhando. Enfim, eu trouxe uma vasta... exemplos de como foi usada a inteligência artificial em diversos países, o que nós acompanhamos no debate do AI Advisory Board da ONU, de inteligência artificial, que é o conselho consultivo de alto nível da ONU de inteligência artificial. Nós tivemos contribuições de muitos países, tivemos um amplo debate inclusive sobre esse tema, num aprofundamento recentemente promovido pelo Ministério da Holanda. Mas, antes, eu queria gastar uns minutinhos da minha fala técnica, porque eu acho que a gente precisa ressaltar que todos esses problemas técnicos a gente tem que entender como trabalhar, como fazer a legislação, mas hoje, sobretudo, a gente está falando de um problema grande político - não é? -, o uso das ferramentas de IA em relação ao contexto eleitoral, contra a integridade eleitoral faz parte de um processo político, de uma crise política, de uma crise institucional, de uma crise social que também é amplificada pelo modo da comunicação hoje social, das redes sociais. E, também, sem a gente olhar isso, a gente também não consegue resolver este problema. Esse é o impacto sociotécnico. A gente tem diversos países com realidades históricas, políticas e econômicas diferentes sofrendo do mesmo problema, porque tem um fator técnico aí que está unindo, que é a mudança desse modo de comunicação, essa economia de atenção, esse modo de espetáculo. Então, isso cria um campo político que é contra a regulação, que não se preocupa com integridade dos processos eleitorais, que quer criar o caos para, enfim, se autopromover e atua contra qualquer tipo de regulação em que fatos não importam, o compromisso é só com narrativas que podem mobilizar, engajar, entre outras coisas. Então, é importante todo o debate técnico, mas, na verdade, tudo isso é resultado de uma crise política que nós temos que atacar, tanto o seu lado político quanto esses elementos sociotécnicos que levam a estados das coisas no mundo. Falando um pouco aqui dos desafios que nós temos. No Legislativo, nós temos aqui o debate do projeto de lei de IA; o projeto que a gente discutiu ao largo do ano todo e agora vai ter uma nova Comissão sobre regulação de redes sociais, que era o Projeto 2.630, que eu não sei se vai seguir ou não; o Código Eleitoral, que o Senador Marcelo Castro entregou recentemente, com todo um acompanhamento na parte de direito digital, que são, enfim, diplomas que nós vamos ter que debater nos próximos meses, em relação às eleições. Eu queria falar um pouco do uso de deepfake em eleições que nós temos visto e acompanhado em alguns países. Eu acho que o país que teve mais impacto em relação às eleições foi a Índia, a recente eleição da Índia, para qual é importante chamar atenção, porque a gente está falando de alguns dispositivos, e uso de deepfakes de voz, por exemplo, que eu vou mostrar como foram feitos, que hoje o nosso TSE veda para candidatos, mas isso não quer dizer que eventuais apoiadores... Hoje a gente vê muito isso, movimentações que não são necessariamente de campanhas oficiais, que não são de candidatos, que o TSE eventualmente não alcança com sua proibição e que elas têm um impacto enorme pedindo votos ou, enfim, criando fatos negativos contra outras campanhas, ou debatendo fatos negativos de outras campanhas, ou trazendo outras discussões políticas que interferem no resultado das eleições. Então, um modelo mais básico que é o autorizado, que é o aprimoramento facial usado por IA, criado de material político, que é o mais tranquilo. Eu vou falar um pouco da questão do salto do uso da deepfake, que é vedada hoje para os candidatos. Ela foi usada em outros países, mas pode ser usada por isso, por apoiadores, por todo esse sistema. |
| R | Eu vou dar um exemplo da eleição da Índia. A gente tinha criação de vídeos em que um candidato falava diretamente com o seu eleitor. Você chamava pelo nome, você tinha um recolhimento de dados pessoais, mandava uma mensagem altamente personalizada, e isso criava um alto grau de engajamento. Então, eram dois tipos desse tipo de mensagem, tinha de vídeo e tinha de áudio. E também para militantes e pessoas participando do processo de campanha eleitoral para incentivar a trabalhar mais, e dos próprios candidatos. Elas não tinham, obviamente, rótulo, então tinha uma falsa sensação de intimidade. Na Índia, ainda tinha a questão da língua, são dialetos e línguas diferentes e a IA também mexia nessa questão. A outra questão, enfim, em que houve um grande problema, por exemplo, foi na Eslovenia, na questão de voz, de deepfakes em relação a entrevista. Na Indonésia isso também foi muito explorado, especialmente na questão de línguas, mas para, por exemplo, usos de TikTok, dancinhas e tal. Na Indonésia, um exemplo, como é um eleitorado muito jovem, é que, para aproximar um candidato que era o presidente, que tinha, enfim, um perfil mais autoritário, que não tinha mais aproximação, foram criados tanto um avatar, que inclusive espalhava desinformação, quanto este clima, infantilizava, às vezes, até a imagem dele e trazia o que muita gente diz, trazia um revisionismo histórico das questões, porque infantilizava todo o debate e criava toda essa manipulação. Então, tanto a partir de vídeos e criando cenários que não existiam, entre outras coisas, quanto desses avatares fofinhos, bonitinhos e tal, para você amansar a imagem de candidatos mais duros, principalmente em relação a candidatos muito mais jovens, cantando canções, fazendo dancinhas. E esse tipo de material é o que viraliza. Se você vai ao TikTok fazendo discursos, não vai viralizar; vai viralizar é uma dancinha, alguma coisa que é perto daquele discurso que viraliza. Outra coisa muito usada na Índia, por exemplo, foi para coletar dados, e aí tanto para pesquisa eleitoral - a gente não tem nada de pesquisa eleitoral na nossa resolução - quanto para as próprias campanhas, porque elas, tanto por telefone quanto pessoalmente, gravavam entrevistas de nome, dados, opiniões, etc., e por meio de IA transcreviam e criavam grandes bancos de dados. A gente não está olhando para isso, mas tem um impacto enorme esse direcionamento de mensagem, e essa é a questão principal hoje em relação às redes sociais. A gente tem um grande caso do Cambridge Analytics, que foi justamente isto: você trabalhar com diferentes humores, criar esses bancos de dados e direcionar a publicidade, a propaganda em relação a isso, e você usar a IA generativa, por exemplo, para criar mensagens hiperpersonalizadas, com um poder de persuasão muito grande, e ainda trazendo instruções do tipo aquilo que gera mais engajamento nas redes sociais. A gente sabe que, dependendo das palavras e da mensagem, a gente gera um engajamento enorme. Eu mesma tive experiências de posts, de assuntos. Tem post meu em uma rede social que tem 10 milhões de reações e visualizações e outros com mil, dependendo do conteúdo, desta monta, imagine um candidato que quer, entre outras coisas... Entre outros usos de IA também tem o big data, que é muito importante; esses vídeos... É muita coisa. |
| R | Ah, e a gente já vê hoje muitos políticos no Brasil usando a IA generativa para produzir esse material. Tem alguns candidatos, futuros candidatos, políticos, que a gente já vê, por meio das palavras mais repetidas. E não tem como detectar isso, porque ele faz, coloca palavras que são as que mais engajam. Perfis falsos de eleitores, com cards, depoimentos, etc., também. Bots de manipular debate. A gente tem debates em que mais de 50% das interações - eu tenho relatórios - políticas no Brasil são de robôs. Então, cria uma falsa percepção da realidade. O uso de chatbot hoje, cada vez mais, parecendo que é uma pessoa, porque, com a IA generativa, você consegue realmente ter respostas e travar um diálogo que engana. Outras ferramentas também que a gente viu, por exemplo, e não têm nenhum tipo de regulamentação - isso foi na Indonésia -: Pemilu.AI, que é um consultor político de IA que fornece conteúdo político personalizado para os políticos que usam o serviço. Com só um aplicativo, você consegue criar esse monte de coisas muito baratas, usando todas essas ferramentas. Outra que ficou muito popular entre os jovens nas eleições lá... (Soa a campainha.) A SRA. ESTELA ARANHA - ... e não tem nenhuma regulação é uma que ajuda os eleitores iniciantes, como assistente de IA, a escolher um candidato ideal com base no seu perfil. A gente não tem nenhuma regulação. "Ah, quem é o candidato que mais parece com você?" A gente já viu em outras eleições algumas enquetes em jornais, etc., mas isso daí pode ser usado para manipular, entre outras coisas. Também modelos preditivos de pesquisa que acabam alterando o debate eleitoral, às vezes, de institutos até sérios e tal, e a gente não conhece qual é o modelo de IA preditivo de pesquisa, entre outras coisas. Esses são alguns dos exemplos aqui. A gente teve vários problemas... Eu falei da Indonésia, da Índia, enfim, da Austrália, entre outros países que tiveram essas questões. E, aí, no debate, eu vou falar mais um pouco sobre como a gente trabalhar em relação a isso, o que o TSE propõe, quais são as lacks, as faltas que a gente tem em relação a esse debate e a esse uso de IA nas eleições. Obrigada. A SRA. PRESIDENTE (Eliziane Gama. Bloco Parlamentar da Resistência Democrática/PSD - MA) - Muito obrigada, Estela. Nós vamos, então, ao nosso último participante, que é o Fabiano Barreto, Gerente de Políticas Públicas do TikTok Brasil. O SR. FABIANO BARRETO (Para expor.) - Bom dia, Senadora. Obrigado. Eu sou Fabiano Barreto, Gerente de Políticas Públicas do TikTok aqui no Brasil. Eu agradeço, primeiro, o convite para participar desta audiência e poder contribuir com este debate. Como o TikTok é a plataforma mais nova - como plataforma e como empresa, o TikTok ainda é muito novo -, eu queria começar a minha fala por apresentar a empresa e contextualizar um pouco a nossa abordagem, que ainda não é conhecida de todos. Eu acho que isso ajuda a direcionar um pouco os pontos específicos que a gente vai tratar aqui sobre IA e eleições, bem como a sua intersecção. O TikTok é uma empresa mais nova, tem apenas seis anos, e a gente tem trabalhado a partir de uma abordagem de cooperação: cooperação com o poder público, com a sociedade civil, com a academia. O TikTok, mesmo nessa curta história de seis anos, já tem um longo histórico de cooperação com o TSE e, mais recentemente - o Procurador está aqui do meu lado, não me deixa mentir -, um recente acordo de cooperação que foi assinado com a própria AGU. A plataforma do TikTok é uma plataforma de entretenimento cuja missão é inspirar a criatividade e trazer alegria. Hoje a gente tem mais de 1 bilhão de pessoas no mundo que utilizam os nossos serviços e, quando a gente fala em 1 bilhão de pessoas, eu acho que é muito difícil a gente fazer um recorte e dizer que a gente está falando de 1 bilhão de pessoas de uma faixa etária específica ou com uma preferência específica por um tipo de conteúdo só. Quando a gente fala de 1 bilhão de pessoas, certamente, a gente tem uma comunidade muito grande e muito diversa de pessoas que estão ali no TikTok para ver conteúdos de esporte, de culinária, de viagens, de entretenimento, de leitura. |
| R | Esse, aliás, com o exemplo mais recente, que está sendo divulgado bastante nos jornais e não me deixa... e não consigo escapar desse exemplo mais recente, o sucesso de vendas, em 2024, nos Estados Unidos, do livro Brás Cubas, do nosso escritor Machado de Assis, que foi impulsionado justamente por uma criadora de conteúdo lá nos Estados Unidos, falando com a sua comunidade de leitores sobre o quanto ela gostou de ler Machado de Assis lá, nos Estados Unidos, e isso impulsionou as vendas. Hoje a gente está com Machado de Assis, nos Estados Unidos, entre os primeiros livros mais vendidos. Eu acho que isso é só para ilustrar o quanto a comunidade do TikTok é diversa, e é impossível a gente classificá-la só com uma faixa etária, só com um tipo de conteúdo. E a gente sabe que, para que a gente tenha uma comunidade que possa criar de forma autêntica, ela precisa se sentir segura. E por isso que a gente trabalha de forma proativa no desenvolvimento de ferramentas e recursos, pensando na segurança e na privacidade da nossa comunidade dentro do TikTok. Em eventos cívicos, como é o caso das eleições, isso ainda é mais importante. A gente sabe que a política e as notícias ocupam uma pequena parte do conteúdo do TikTok. O TikTok não é o principal destino quando a gente vai falar de conteúdo político ou de eleições. Independentemente disso, a gente reconhece que esse tema pode ter um impacto grande na sociedade, e é por isso que a gente tem um olhar dedicado para o tema durante as eleições. Citei aqui e reitero nosso histórico de ações em cooperação com a própria Justiça Eleitoral, com o TSE. E aqui eu trago dois pontos que diferenciam o TikTok de outros serviços quando a gente fala de ações eleitorais. O primeiro é que o TikTok não permite propaganda política ou eleitoral paga. A gente nunca permitiu, e, até pouco tempo, o TikTok era a única plataforma que não permitia publicidade política. Ou seja, não é possível pagar para que um conteúdo seja promovido no TikTok como publicidade. E aqui, conversando um pouco com a preocupação trazida pelo Deputado Gilmar, no TikTok também não é possível ganhar dinheiro com o conteúdo político. Então, por exemplo, um candidato, durante as eleições, não tem acessíveis ou não estão disponíveis para o candidato as nossas ferramentas de monetização. Ou seja, não é possível pagar para promover conteúdo político no TikTok e, ao mesmo tempo, não é possível ganhar dinheiro no TikTok com o conteúdo político. O segundo ponto que eu trago sobre eleições é nossa abordagem em relação à moderação de conteúdo. O TikTok tem uma política que veda, uma política específica que veda a desinformação eleitoral. E a nossa opção de moderação é a remoção. O TikTok não rotula. Se o conteúdo viola as nossas regras, se o conteúdo é desinformativo, a opção de moderação que o TikTok adota é a remoção. E aqui eu trago um número sobre as eleições de 2022. Somente pela violação da política de desinformação eleitoral, o TikTok removeu, de forma proativa, 66 mil vídeos. Ao mesmo tempo, a gente removeu 222 vídeos com base em ordens judiciais. E aqui, Procurador Marcelo, eu acho que a gente conversa um pouco com a sua preocupação do protagonismo. A gente está falando, na ordem de grandeza, de 200 vídeos que foram removidos por ordem judicial, contra mais de 66 mil vídeos que foram detectados de forma proativa, por violação das nossas políticas. Então, proativamente com o protagonismo o TikTok decidiu remover esses conteúdos que eram violativos. E o que a gente faz em relação ao conteúdo gerado por IA? Primeiro, a gente aprecia o potencial criativo que essa tecnologia e outras tecnologias digitais têm na criação de conteúdo. A gente sabe e reconhece que a maioria das pessoas têm o interesse de usar essa tecnologia, aproveitar essa tecnologia, o conteúdo gerado por IA de forma responsável, mas ao mesmo tempo a gente sempre esteve atento àqueles maus atores que querem usar a tecnologia digital, que querem usar IA para criar conteúdo inverídico e enganar outras pessoas de forma intencional. O conteúdo gerado por IA traz essa dificuldade de a gente conseguir distinguir o que é fato e o que é ficção. E é justamente por isso que, desde sempre, a gente exigiu que o conteúdo gerado por IA fosse identificado. A gente foi a primeira plataforma a determinar que os criadores de conteúdo rotulassem o conteúdo gerado por IA; e aí, para isso, a gente disponibilizou um rótulo. Então, quando a pessoa sobe um vídeo no TikTok, ela tem a opção de autodeclarar que aquele conteúdo foi gerado por IA. Isso é um esforço de transparência para que as pessoas que vão assistir a esses vídeos possam saber. Então, elas identificam porque há um rótulo. Então, se eu estou assistindo ao TikTok, eu consigo saber se aquele conteúdo foi gerado por IA ou não, porque o criador daquele conteúdo tem a opção de disponibilizar essa informação, ele tem a opção de tornar isso transparente. Essa ferramenta, do último trimestre de 2023 para cá, já foi usada por mais de 37 milhões de criadores na nossa plataforma. |
| R | A gente sabe que não é de hoje que o Senado se dedica ao tema de IA, e também não é de hoje que o TikTok se dedica ao tema de IA. A gente tem um conjunto de regras que regula o que pode e o que não pode ser feito no TikTok. Esse conjunto de regras é chamado de diretrizes da comunidade. O TikTok é uma plataforma de 6 anos, história recente, e, desde 2020, a gente já tem uma política específica para tratar do conteúdo de IA dentro do nosso aplicativo. Essas diretrizes vão sendo atualizadas de forma constante, obviamente - a gente precisa acompanhar o desenvolvimento tecnológico -, e a atualização mais recente data agora de abril de 2024. Nessa atualização, a gente segue caminhando no sentido de potencializar o uso da tecnologia, para potencializar o uso criativo e positivo dessa ferramenta, ao mesmo tempo em que a gente segue fornecendo às pessoas que assistem a esses vídeos um contexto importante para que elas saibam se aquele conteúdo foi gerado por uma pessoa ou se aquele conteúdo foi gerado por IA. E aqui vou trazer alguns exemplos do que a nossa política permite ou não. Então, primeiro ponto: a gente não permite que conteúdos gerados por IA representem menores de idade com aparência realista. Isso não pode no TikTok. Um outro exemplo, dialogando com o caso que a Senadora Teresa trouxe: o TikTok não permite um conteúdo gerado por IA que represente figuras públicas, por exemplo, Senadores, endossando um programa político, endossando um candidato, endossando um produto comercial ou uma grande questão política, como é o caso das eleições. Esse é exatamente o exemplo que a Senadora trouxe aqui. Então, esse é um exemplo, é um caso de algo que o TikTok não permite. E o que a gente permite, por exemplo? O TikTok permite o conteúdo gerado por IA que represente, por exemplo, a semelhança de uma figura pública num contexto artístico educacional - aqui, sem dúvida, explorando e potencializando essa capacidade criativa dessa ferramenta. Quem sabe a próxima história que eu conte sobre literatura seja justamente um vídeo do Machado de Assis num contexto educacional, promovendo e alavancando cada vez mais a nossa literatura para fora do Brasil. (Soa a campainha.) O SR. FABIANO BARRETO - Para finalizar, eu queria contar um pouco sobre como a gente mesmo, como plataforma, usa a tecnologia para identificar os vídeos que são gerados por inteligência artificial. Em maio, ou seja, há pouco mais de um mês, o TikTok implementou uma tecnologia desenvolvida por uma coalizão de empresas que permite rotular e identificar os conteúdos gerados por IA de forma automática. Dizendo isso de forma muito simples, essa tecnologia permite que o TikTok identifique o conteúdo que foi gerado fora da plataforma, por terceiros ou em produtos de terceiros. É como se a gente tivesse uma impressão digital. Então, um usuário, numa plataforma de terceiros, criou um vídeo gerado por IA. Com essa impressão digital, quando esse vídeo chega ao TikTok, a gente tem a capacidade de identificar isso de forma automática e, portanto, aplicar e rotular as nossas políticas específicas de IA e, com isso, aumentar a transparência para que as pessoas saibam que aquele conteúdo foi gerado por IA. Esse recurso chegou recentemente. Ele começou a ser implementado com imagens e vídeos, e, muito em breve, a gente deve expandir isso para conteúdos de áudio também, então a gente vai conseguir identificar de forma ativa conteúdos de áudio, imagem e vídeo que foram gerados por IA quando esses conteúdos chegarem para a nossa plataforma. |
| R | Eu encerro por aqui. Acho que esses são exemplos de medidas e iniciativas em colaboração, de medidas proativas, exemplos do nosso compromisso em continuar a trabalhar e evoluir a nossa abordagem à medida que a própria tecnologia evolui, e de como a gente responde a esse avanço tecnológico. Eu agradeço de novo a oportunidade, Senadora, e fico à disposição para o debate. A SRA. PRESIDENTE (Eliziane Gama. Bloco Parlamentar da Resistência Democrática/PSD - MA) - Muito obrigada. Eu quero lhe agradecer, Fabiano, e a todos os demais que também já participaram conosco. Eu vou passar aqui as perguntas do e-Cidadania de uma vez só, porque são várias perguntas; e aí passar a palavra aos senhores que queiram fazer algum comentário e também as suas considerações finais, inclusive àqueles que participaram conosco através do sistema do Zoom. O Pedro, do Rio Grande do Sul, diz: "De fato [...] [a inteligência artificial é] uma ferramenta que pode gerar muita desinformação, principalmente com dublagem, [...] [como diminuir os impactos da inteligência artificial nas eleições]?". "Como a inteligência artificial pode ser usada para fortalecer a democracia e garantir a integridade do processo eleitoral?" "Qual o papel do Senado [Federal] no que diz respeito à inteligência artificial nas urnas?" São as perguntas do Pedro, do Rio Grande do Sul; do Eustáquio, do Distrito Federal; e do João, do Rio Grande do Norte. Ainda o Eustáquio diz: "Como podemos garantir que os algoritmos de inteligência artificial usados em eleições sejam transparentes e compreensíveis para os eleitores [...]?". Matheus, do Paraná: "Como a inteligência artificial poderia ser usada [...] [para] identificar anomalias no pleito eleitoral? [...]". A Neydiane, do Distrito Federal: "Como garantir segurança das informações e votos com a inteligência artificial frente a um cenário de [...] crimes [cibernéticos] e invasão de privacidade?". O Bruno, da Paraíba: "A inteligência artificial é fundamental no processo democrático. Com ela, se alcançam frutos que fortalecem a nossa democracia [...]". Essas são as perguntas. (Pausa.) Eu queria agradecer profundamente a presença de todos que participaram conosco desta audiência pública. As perguntas são essas. E perguntaria, primeiramente, aos que estão no Zoom se querem fazer algum comentário ou já deixar as suas considerações finais. (Pausa.) Não consigo ver aqui ninguém que faça manifestação. Vou, então, passar aqui aos que estão presentes para fazerem as breves considerações e, se quiserem, algum comentário aí sobre as perguntas feitas através do e-Cidadania. A gente começa aqui com a Estela. A SRA. ESTELA ARANHA (Para expor.) - Acho que a primeira coisa que acompanhei em relação ao debate dos outros países e a diferença que nós temos no Brasil é sobre a sensibilização e prontidão dos órgãos eleitorais para monitorar e controlar a utilização de inteligência artificial das eleições. Eu acho que não tem país que tenha essa sensibilização e essa prontidão tão grande quanto o Brasil. Então, a gente tem uma vantagem em relação a essas questões. Enfim, a gente tem um trabalho muito grande, primeiro, nas questões técnicas, em relação a como você vai normatizar isso. E, quando a gente está falando de moderação comercial de conteúdo, a gente precisa, obviamente, do compromisso de onde esse material é disseminado, que são as diversas plataformas de redes sociais, serviços de mensagerias, entre outros, porque senão é impossível, obviamente, caso a caso ser olhado por qualquer órgão de Justiça, por isso que se precisa desse trabalho de detecção. A gente sabe que é muito difícil uma detecção de 100% hoje. Acabou de se trazer uma nova ferramenta aqui do TikTok, mas a gente sabe que todas têm problemas. Tecnicamente a gente tem muita dificuldade de detecção de áudio e de vídeo em números maiores. Isto é uma questão que é importante em relação à criação, entre outras coisas: trabalhar essas recomendações. |
| R | Deixe-me ver, eu até anotei aqui... (Soa a campainha.) A SRA. ESTELA ARANHA - Outras coisas também, quando a gente está falando dessas redes sociais, são: trabalhar um pouco essa avaliação de risco, como é que você vai mitigar esses riscos - e essas empresas e companhias têm essa possibilidade muito maior, avaliando, entendendo os modelos de risco em relação ao conteúdo eleitoral enganoso -; a distribuição de conteúdo, como se aborda adequadamente este conteúdo após ser detectado na plataforma - se é rotulação, se é exclusão, quando se pode ou não -; como a gente promove essa resiliência intersetorial em relação a esse tipo de conteúdo, porque são diversas partes envolvidas, como a gente trabalha em relação a isso; a transparência em relação ao público, em relação à abordagem, à forma; e também a educação midiática. Enfim, é necessário envolver, obviamente, o conjunto global de sociedade civil, acadêmicos, a própria indústria, a população, os Parlamentares para esse esforço coletivo. Também tem um trabalho de conscientização pública, que a gente chama de alfabetização midiática, e a resiliência de toda a sociedade em relação a isso, mas eu falei em linhas muito gerais. Depois, numa outra oportunidade, a gente pode aprofundar questões específicas. A SRA. PRESIDENTE (Eliziane Gama. Bloco Parlamentar da Resistência Democrática/PSD - MA) - Muito obrigada, querida Estela. Vou passar aqui a palavra ao Dr. Marcelo, Procurador-Geral da União. O SR. MARCELO EUGENIO FEITOSA ALMEIDA (Para expor.) - A título de uma palavra final e tentando contemplar alguns questionamentos que foram enviados, a gente precisa focar, até por estarmos hoje no Parlamento - dentro do Parlamento -, a questão dos marcos regulatórios, o que eu reitero: marcos regulatórios que tratem de princípios, de liberdade de escolha dos usuários; que garantam uma proteção em relação ao uso dessas tecnologias para discursos de ódio, discursos discriminatórios, antidemocráticos. É isso que a gente tem que focar, além também de algumas ferramentas que permitam a explicabilidade e a gente conhecer exatamente como vêm se desenvolvendo e sendo aplicadas, no caso concreto, essas tecnologias. É isso. Agradeço, Senadora. Estamos à disposição. A SRA. PRESIDENTE (Eliziane Gama. Bloco Parlamentar da Resistência Democrática/PSD - MA) - Muito obrigada, Marcelo. Com a palavra, para encerrar a nossa audiência pública, o Marcelo Barreto... Fabiano! De onde eu tirei Marcelo? Juntei o Marcelo com o Fabiano. (Risos.) É o horário e a pressão para as próximas reuniões. Fabiano Barreto, que é Gerente de Políticas Públicas do TikTok Brasil. O SR. FABIANO BARRETO (Para expor.) - A nossa cooperação com a AGU está resultando em frutos que a gente não esperava. (Risos.) Quero só agradecer mais uma vez o convite. A gente está à disposição, quer continuar colaborando com o Senado, com o Congresso, com o poder público como um todo, na construção de boa regulação. Quero reforçar que a nossa abordagem em relação a temas de política pública é uma abordagem de cooperação. Trouxe aqui alguns exemplos que eu acho que evidenciam muito isso. O TikTok quer ser um parceiro na construção de boa regulação. Então, quero agradecer por ter um lugar a essa mesa. Esse é o lugar que a gente quer ocupar para poder ajudar a ter um debate mais bem fundamentado e ser parceiro na construção de boa regulação. Obrigado, Senadora. A SRA. PRESIDENTE (Eliziane Gama. Bloco Parlamentar da Resistência Democrática/PSD - MA) - Muito obrigada, Fabiano. Eu quero dizer que esta Comissão nasceu para isto: para debater a democracia no Brasil. E o debate da inteligência artificial - não há dúvida nenhuma - é muito importante. Eu quero agradecer profundamente a presença do Dr. Marcelo, do Renato, da Margareth Kang, que participou conosco pelo Zoom, do Fabiano Barreto, da Flávia Annenberg, que também participou pelo Zoom, do Renato, que também participou pelo Zoom, e da Estela Aranha, pela sua participação aqui conosco nesta audiência pública. |
| R | Quero registrar e agradecer a presença do Dr. João Ataíde, que é especialista em inteligência artificial e servidor público do Superior Tribunal da Justiça. Muito obrigada pela sua presença aqui em nome do Superior Tribunal da Justiça do nosso país. Quero agradecer a todos e todas e convidar, é claro, para as próximas audiências públicas que faremos. Nada mais havendo a tratar, agradeço a presença de todos e todas e declaro encerrada a presente reunião. Muito obrigada. (Iniciada às 11 horas e 19 minutos, a reunião é encerrada às 13 horas.) |

