2ª SESSÃO LEGISLATIVA ORDINÁRIA
57ª LEGISLATURA
Em 11 de junho de 2024
(terça-feira)
Às 10 horas
76ª SESSÃO
(Sessão de Debates Temáticos)

Oradores
Horário

Texto com revisão

R
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG. Fala da Presidência.) - Meu bom dia a todos os senhores e senhoras presentes, acompanhando esta sessão especial de debates sobre inteligência artificial e a proposta de lei que temos para a votação e, naturalmente, que tem recebido contribuições importantes de todos os setores envolvidos.
Declaro aberta a sessão.
Sob a proteção de Deus, iniciamos os nossos trabalhos.
A presente sessão de debates temáticos foi convocada em atendimento ao Requerimento nº 413, de 2024, de autoria do Senador Eduardo Gomes e de outros Senadores, aprovado pelo Plenário do Senado Federal.
A todos que nos acompanham pela TV Senado, o nosso agradecimento. São todos muito bem-vindos.
Nós aqui debateremos todo o trabalho que já foi feito nos últimos anos, especialmente nesses últimos meses, com relação ao assunto inteligência artificial.
O mundo tem se debruçado e discutido muito sobre essa questão, e o Parlamento brasileiro se propõe a estar na fronteira do conhecimento, e colocar uma das leis mais modernas é a nossa intenção, para que nós não tenhamos a possibilidade de que os setores de inteligência e o uso possam prejudicar, em qualquer sistema, a democracia, a privacidade, os direitos humanos, mas também que nós não impeçamos o desenvolvimento de uma tecnologia que vai melhorar e muito a condição da humanidade.
Portanto, você, que está nos acompanhando pela TV Senado, pela Rádio Senado, em qualquer parte do Brasil, é muito bem-vindo, com as suas observações e, naturalmente, o seu posicionamento.
A sessão é destinada a receber os seguintes convidados... Vamos debater a regulamentação do uso da inteligência artificial no Brasil, em especial o Projeto de Lei nº 2.338, de 2023, que dispõe sobre o uso da inteligência artificial.
Nós teremos os debatedores: Sr. Marcos Antônio da Silva Costa, Procurador Regional da República e Coordenador do Grupo de Trabalho Tecnologias da Informação e da Comunicação, da 3ª Câmara de Coordenação e Revisão do Ministério Público Federal; Sr. Miguel Matos, Presidente do Conselho de Comunicação Social do Congresso Nacional (CCS); Sr. Luiz Fernando Bandeira de Mello, Conselheiro do Conselho Nacional de Justiça (CNJ); Sr. Marcos Barbosa Pinto, Secretário de Reformas Econômicas do Ministério da Fazenda; Sr. João Caldeira Brant de Castro, Secretário de Políticas Digitais da Secretaria de Comunicação Social da Presidência da República; Sra. Ana de Oliveira Frazão, Professora de Direito Civil, Comercial e Econômico da Universidade de Brasília (UnB); Sr. Rafael Zanatta, Diretor da Associação Data Privacy Brasil de Pesquisa; Sra. Dora Kaufman, Especialista em Inteligência Artificial; Sr. Marcelo Almeida, Diretor de Relações Governamentais da Associação Brasileira das Empresas de Software (Abes); Sra. Ana Paula Bialer, advogada especialista em direitos digitais; Sr. Rony Vainzof, advogado especialista em proteção de dados e Consultor da Fecomercio-SP; Sra. Estela Aranha, advogada e membro do Conselho Consultivo de Alto Nível da ONU para Inteligência Artificial; Sr. Dalton Morato, Diretor Jurídico da Associação Brasileira de Direitos Reprográficos; e Sr. Pablo Nunes, Coordenador do projeto Rede de Observatórios da Segurança.
R
A Presidência informa ao Plenário que serão adotados os seguintes procedimentos para o andamento da nossa sessão: será, inicialmente, dada a palavra aos convidados por dez minutos - e eu vou solicitar que todos os participantes se mantenham dentro desse prazo, uma vez que nós temos 14 apresentações, para que nós não nos estendamos de uma maneira que torne a sessão cansativa. Após, será aberta a fase de interpelação pelos Senadores inscritos, dispondo cada Senador de cinco minutos para as perguntas.
Compõe a Mesa desta sessão - e daqui a pouco estará conosco - o Senador Eduardo Gomes, Relator do Projeto de Lei nº 2.338, de 2023, e autor do requerimento. O Senador Eduardo está, neste momento, na Comissão de Assuntos Econômicos, porque ele é Relator de um projeto que está sendo lido e vai ser votado na Comissão, e se juntará a nós em alguns minutos, assim que esteja liberado da Comissão.
Sras. Senadoras, Srs. Senadores, senhores presentes, senhores convidados, esta sessão especial destina-se a debater a regulamentação do uso da inteligência artificial no Brasil, objeto da Comissão Temporária que presido, instituída em 15 de agosto de 2023, por iniciativa do Requerimento nº 722, de 2023, de autoria do Senador Rodrigo Pacheco, Presidente deste Senado Federal e do Congresso Nacional.
São várias as propostas parlamentares que tramitam nesta Casa a propósito do tema, com maior ou menor abrangência. Essa variedade de projetos motivou a criação da Comissão Temporária Interna do Senado Federal para Inteligência Artificial no Brasil, que, em breve, deverá completar os trabalhos.
Nosso Relator, o Senador Eduardo Gomes, apresentou, na semana passada, parecer, que agrega discussão sobre a regulamentação do uso da IA em nosso país, integrando os vários projetos de lei que aqui tramitam. Entre eles, ressaltamos o PL 2.338, de 2023, também do Presidente Rodrigo Pacheco, resultante do trabalho de um grupo de juristas encarregado de analisar alternativas regulatórias para o tema.
Antes da votação do substitutivo em Plenário, julgamos relevante a convocação desta sessão especial. Ela é uma oportunidade para que as Sras. Senadoras e os Srs. Senadores tomem conhecimento do tema e contribuam para a construção de uma solução legislativa.
Essa nova tecnologia pode ser considerada revolucionária, em razão do impacto generalizado sobre nossa vida cotidiana. Não mais falamos de um impacto potencial, mas de resultados imediatos, que já estão presentes em praticamente todos os aspectos da vida humana.
A adoção de ferramentas de IA está se generalizando em alta velocidade nas práticas econômicas, na saúde, na publicidade, nas artes, na comunicação e na ciência em geral.
Infelizmente, o deslumbre geral com as possibilidades da inteligência artificial tem ocultado os riscos inerentes a esse processo, o que torna ainda mais relevante o trabalho dessa Comissão Temporária.
Sabemos, hoje, que os próprios treinamentos dessas inteligências foram realizados ao longo dos últimos anos, com a utilização de base de dados e informações, nem sempre com o cuidado de preservar o conhecimento das fontes e autorias.
R
De imediato isso gerou um problema com a legislação de direitos autorais. O autor de uma reportagem, de um texto opinativo, de uma pesquisa disponível na internet tem o direito de ser reconhecido como fonte daquela informação e eventualmente auferir ganhos com isso. As capacidades da inteligência artificial generativa, que podem criar textos, imagens, filmes, sons, músicas, entre outras coisas, podem ser utilizadas até mesmo para abusos como os deep fakes. Não podemos mais confiar cegamente em conteúdos audiovisuais, já que é relativamente simples pegar filmagens de pessoas públicas, por exemplo, e gerar entrevistas e declarações falsas, muito mais perigoso, portanto, que as fake news que já nos assombram há algum tempo no Brasil.
A segurança de nossos dados é outro problema, não apenas por causa de fraudes, como também pelo uso antiético de informações, frente à capacidade da inteligência artificial de devorar imensas quantidades de dados e encontrar relações entre eles. Você pode ter dificuldade de obter um empréstimo, por exemplo, se a IA descobrir que seus parentes estão inadimplentes ou pode ter dificuldade na aquisição de planos de saúde se seus pais tiverem determinadas doenças. Outro grande perigo é entregar totalmente às IAs alguns tipos de decisão. Por essa via, em uma situação extrema, poderíamos tornar reais todas as histórias de ficção científica nas quais as máquinas inteligentes acabam até mesmo um dia por destruir vidas humanas.
Por essas e outras razões, é preciso regular o uso dessas ferramentas tecnológicas. O foco não deve ser o mero ganho de produtividade, mas o bem-estar dos seres humanos afetados pelas IAs. É essa a centralidade da pessoa humana que deve ser preservada a qualquer custo: uma pessoa que é titular de direitos individuais e coletivos, uma pessoa que tem valores, personalidade, formas de expressão e iniciativa que não podem ser aviltadas pela tecnologia.
Afastamos também o ludismo, a rejeição pura e simples do progresso tecnológico. Essa é uma expressão de desconhecimento quase infantil da necessidade de evolução da própria sociedade.
Temos muitos problemas a resolver como nação, e a evolução das práticas humanas nos vários campos do conhecimento e atuação nunca pode prescindir do uso de novas tecnologias. Nosso desafio, portanto, é conseguir achar o ponto de equilíbrio entre a necessidade de avançarmos como sociedade e o respeito aos direitos humanos e sociais por meio da regulamentação.
Ao longo dos nossos trabalhos, promovemos audiências públicas com quase 70 especialistas em áreas relacionadas à inteligência artificial. Anotamos mais de uma centena de sugestões que foram incorporadas ao substitutivo que consta do relatório. Isso não quer dizer que esgotamos completamente o tema. Reconhecemos que é muito mais profundo, abrangente a cada dia de um novo descobrimento, razão pela qual trazemos ao conjunto das Sras. Senadoras e Srs. Senadores os resultados alcançados até o momento. Sabemos que os novos insights podem surgir deste debate em tempo ainda para serem considerados e eventualmente incorporados ao projeto que será votado em Plenário.
Desejo a todos uma boa e proveitosa sessão.
Meu muito obrigado a todos. (Palmas.)
(Intervenção fora do microfone.)
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Obrigado.
O Senador Esperidião Amin e o Senador Jorge Seif, de Santa Catarina - o Seif é novato, mas o Senador Esperidião é um dos nossos decanos e o nosso califa. Ele quer fazer uma homenagem aqui às rainhas da Oktoberfest, que vieram nos visitar e serão muito bem-vindas aqui.
R
Por gentileza.
O SR. JORGE SEIF (Bloco Parlamentar Vanguarda/PL - SC. Fora do microfone.) - E o Prefeito Mário Hildebrandt, de Blumenau.
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - E o Prefeito Mário Hildebrandt, de Blumenau. Ihr seid alle willkommen.
O SR. MÁRIO HILDEBRANDT (Fora do microfone.) - Danke schön!
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Meus parabéns e desejo muitas felicidades.
Ainda não tive a oportunidade de conhecer a Oktoberfest brasileira, mas espero poder fazer muito breve.
Senador Esperidião Amin, o senhor tem a palavra, Senador, por favor.
O SR. ESPERIDIÃO AMIN (Bloco Parlamentar Aliança/PP - SC. Pela ordem.) - Eu quero pedir permissão (Fora do microfone.) a todos os nossos convidados. Eu também vou participar da sessão de debates temáticos sobre esse tema tão importante, mas eu não poderia perder a oportunidade de pedir ao nosso califa verdadeiro, que é o Senador Carlos Viana, que ele recebesse, no Plenário, aliás, junto à Mesa, o Prefeito e as nossas rainhas, junto com a sua comitiva, para fazer apenas um cumprimento e uma foto alusiva a essa visita, que é um convite para a nossa Oktoberfest, em Blumenau, Santa Catarina.
Subam por ali.
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Obrigado e meus parabéns mais uma vez.
Espero sua presença aqui, Esperidião Amin.
Senhores, concedo a palavra ao Sr. Miguel Matos, Presidente do Conselho de Comunicação Social do Congresso Nacional, por dez minutos, por gentileza. (Pausa.)
Ah tá. Eles estão subindo, não é? (Pausa.)
Na Alemanha, existe um ditado que diz assim: Ich habe mein Herz in Heidelberg verloren - Eu deixei o meu coração em Heidelberg. Acho que vai ser Blumenau aqui: Ich habe mein Herz in Blumenau verloren. (Pausa.)
Abra o microfone, por favor. O Prefeito vai fazer um convite.
R
O SR. MÁRIO HILDEBRANDT - Alô, Presidente. Alô, bom dia a todos. Guten Morgen, alle zusammen! Sehr schön mit Euch hier heute zusammen zu sein. Ich freue mich heute hier mit den ganzen Leuten zusammen zu sein, die Brasilien helfen wollen. É uma alegria estar junto com vocês, pessoas que ajudam o nosso país. Muito obrigado, Senador, pela oportunidade. Obrigado, Senador Amin, Senador Jorge Seif.
Quero fazer um convite, no meu nome, em nome da rainha e das princesas, para os dias 9 a 27 de outubro, para a nossa 39ª Oktoberfest, em Blumenau. Reconhecidamente, a segunda maior Oktoberfest do mundo acontece aqui no nosso país, em Blumenau, Santa Catarina. Seria uma honra receber vocês todos lá. Ihr seid alle herzlich willkommen. São todos, de coração, bem-vindos em Blumenau.
Deus abençoe a todos, Deus abençoe o nosso país, Deus abençoe Blumenau!
Obrigado. (Palmas.)
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Obrigado, Prefeito.
Com a palavra, o Sr. Miguel Matos, para a abertura da nossa sessão de debates.
O SR. MIGUEL MATOS (Para exposição de convidado.) - Bom dia, Sr. Presidente, Senador Carlos Viana. Bom dia, senhoras e senhores.
Hoje, estamos diante de uma tarefa de grande importância para o futuro do nosso país: a discussão do projeto de lei sobre regulamentação da inteligência artificial no Brasil. Esse projeto, elaborado com a contribuição de diversos especialistas e entidades, representa um marco crucial para garantir que a tecnologia seja utilizada de maneira ética, segura e benéfica para todos os brasileiros.
A inteligência artificial tem se consolidado como uma das tecnologias mais transformadoras do nosso tempo. Seu impacto é sentido nas mais variadas áreas, desde a saúde à educação, passando pela indústria, segurança e muitas outras. No entanto, com o poder transformador da inteligência artificial, vêm também grandes responsabilidades. Precisamos assegurar que seu desenvolvimento e aplicação sejam guiados por princípios sólidos de ética e respeito aos direitos humanos. Devemos lembrar que a tecnologia deve servir ao ser humano, e não o substituir.
O projeto de lei que discutimos hoje é fruto de um esforço conjunto, e apresenta uma estrutura robusta e detalhada, dividida em capítulos, que abordam as mais variadas frentes. Permitam-me destacar algumas migalhas que reputo fundamentais dessa proposta.
Primeiramente, a abordagem baseada em risco. Seguindo as melhores práticas internacionais, o projeto categoriza os sistemas de inteligência artificial com base no risco que representam, estabelecendo diferentes níveis de regulação, conforme a potencialidade do impacto. Isso nos permite focar recursos e esforços nos sistemas que realmente necessitam de maior vigilância, sem com isso sufocar a inovação.
Em segundo lugar, a ênfase na transparência e responsabilidade. A exigência de transparência nos sistemas de inteligência artificial e a responsabilização de seus desenvolvedores são medidas essenciais para promover a confiança e segurança da população. A transparência dos algoritmos e a aplicabilidade das decisões automatizadas são cruciais para garantir que a inteligência artificial opere de maneira justa e compreensível.
Outro ponto de destaque é a proteção aos direitos dos cidadãos. Este projeto de lei coloca a proteção dos dados pessoais e os direitos fundamentais no centro da regulamentação. Em um mundo onde a coleta e o processamento de dados são cada vez mais intrusivos, é vital que asseguremos que os dados dos nossos cidadãos sejam protegidos e utilizados de maneira responsável.
Registro também a governança e supervisão. A criação de um sistema de regulação e governança da inteligência, com uma autoridade competente para supervisionar o cumprimento das normas, é uma medida que garante a efetividade da lei. Esse sistema permitirá uma fiscalização contínua e a possibilidade de ajustes e aprimoramentos conforme a tecnologia evolui.
R
Não podemos deixar de mencionar a importância da formação e capacitação. Para que a aplicação da lei seja efetiva, é fundamental que os órgãos públicos responsáveis estejam capacitados tecnicamente. Proponho que promovamos programas contínuos de formação para assegurar que nossos servidores estejam preparados para o mister de enfrentar os desafios tecnológicos que a inteligência artificial apresenta.
E, finalmente, no projeto, há integração com outras leis e regulações. Este projeto de lei está harmonizado com outras normas vigentes, como a Lei Geral de Proteção de Dados, garantindo uma abordagem coesa e abrangente para a regulamentação da inteligência artificial.
Senhoras e senhores, este projeto de lei é um passo vital para posicionar o Brasil como um líder na regulamentação da inteligência artificial. Estamos criando um ambiente que não apenas promove a inovação, mas também protege nossos cidadãos e assegura que a tecnologia seja utilizada de forma ética e responsável. A inteligência artificial deve ser uma aliada, e não uma adversária.
O Conselho de Comunicação Social do Congresso Nacional, órgão paritário e com legitimidade constitucional que tenho a honra de presidir, desempenhando seu papel na mediação entre a sociedade e o Legislativo, realizou nos últimos meses três audiências públicas sobre inteligência artificial. Na data de hoje, estamos aqui, no Plenário do Senado, apoiando a aprovação deste projeto, com os ajustes que V. Exas. entenderem necessários, pois ele representa um compromisso com o futuro do Brasil, garantindo que a inteligência artificial seja uma força para o bem, promovendo progresso e justiça social. A coexistência harmoniosa entre homem e máquina é a chave para um futuro próspero.
Muito obrigado. (Palmas.)
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Obrigado ao Sr. Miguel Matos, Presidente do Conselho de Comunicação Social do Congresso Nacional, que muito colaborou na elaboração do relatório que está sendo entregue para análise e votação.
Concedo a palavra agora ao Sr. Luiz Fernando Bandeira, Conselheiro do Conselho Nacional de Justiça, nosso Secretário desta Mesa por tantos anos, com muita competência, hoje Conselheiro do CNJ.
Seja muito bem-vindo, Bandeira.
(Intervenção fora do microfone.) (Risos.)
O SR. LUIZ FERNANDO BANDEIRA DE MELLO (Para exposição de convidado.) - Sr. Senador Carlos Viana, muito bom dia. Que honra, que alegria estar aqui nesta tribuna. O senhor talvez não saiba, e vou aproveitar para dizer em público: é a primeira vez, apesar de 20 anos em que servi nesta Casa, que ocupo esta tribuna durante a sessão. Que alegria estar em sua companhia, Senador Carlos Viana.
Aproveito para cumprimentar todas as senhoras e senhores aqui presentes, vários, diversos amigos...
O SR. ESPERIDIÃO AMIN (Bloco Parlamentar Aliança/PP - SC) - E a Casa lhe garante liberdade de expressão.
O SR. LUIZ FERNANDO BANDEIRA DE MELLO - Graças a Deus, Senador Esperidião Amin. É uma alegria também poder dirigir-me a V. Exa., com quem sempre aprendi muito. Espero hoje podermos também aqui debater um pouco e quem sabe trocar muitos conhecimentos.
A todos, muito bom dia. É uma satisfação, como disse, estar aqui hoje participando desta sessão de debates temáticos do Senado Federal para tratar de um tema tão rico e tão importante e de debate tão premente como a inteligência artificial.
R
Eu venho tratando desse tema no CNJ, neste momento presidindo a comissão permanente de TI do CNJ e também coordenando o grupo de trabalho que está atualizando a regulamentação de desenvolvimento de inteligência artificial no Judiciário, grupo de trabalho esse do qual participam vários dos que estão aqui, hoje, no Plenário - eu vejo aqui o Dr. Fabrício Mota, vejo a Dra. Laura Schertel Mendes, a Dra. Tainá Aguilar e vários outros que colaboram com essa atividade
Eu vou tentar focar, Senador, neste recorte da inteligência artificial aplicada ao Judiciário, de forma que possa ilustrar, um pouco melhor, o estágio dos debates e também permitir que outros colegas possam contribuir com essa discussão. Porque, veja bem, se há um consenso hoje em todo o Judiciário e também envolvendo o Ministério Público e a advocacia é que ninguém deseja ser julgado por robô. A inteligência artificial, evidentemente, é útil, pode e deve ser aplicada ao Judiciário, e vou trazer aqui exemplos de aplicação, mas ninguém pretende que sua causa seja submetida a um algoritmo qualquer que cuspa decisões a partir de inputs que ele receba das petições iniciais - não é essa a ideia.
A ideia - e é isto que estamos fazendo hoje no GT, é o que o GT busca - é trazer regras sobre como os sistemas de desenvolvimento dos sistemas de IA deverão ser aplicados ao Judiciário, como eles poderão ser pensados, desenvolvidos e adaptados ao Judiciário. Porque nós muito falamos sobre inteligência artificial, particularmente a generativa, assustados com o poder de redação de minutas e decisões que a máquina pode fazer, e pensamos: será que isto é o futuro também do Judiciário e do Ministério Público, produzir minutas a partir de um dado processo? Não, não é essa a ideia.
Temos, sim, inteligência artificial generativa sendo testada hoje no Poder Judiciário. O Supremo tem desenvolvido um sistema para sumarizar, resumir processos, e foi recentemente exibido aqui no final do ano passado: 24 empresas de software, incluindo as grandes big techs do mundo, apresentaram suas soluções ao Supremo, e funcionou razoavelmente a contento para um sistema que foi elaborado ali - era um piloto desenvolvido em 30 dias. O Tribunal de Justiça do Paraná está com um sistema já avançado chamado ChatJUS, que lhe responde com jurisprudência: você faz uma consulta sobre determinado tema e ele consegue trazer uma jurisprudência com muita acuidade e muita qualidade. Esses dois sistemas ainda são caros do ponto de vista do número de tokens que eles utilizam para produzir o resultado, e isso naturalmente, para ser utilizado em escala nacional, precisaria ser adaptado e adequado.
A maior parte das aplicações de IA que nós temos em funcionamento rodando naturalmente nos tribunais hoje estão destinadas a classificar e de certa forma vincular os temas, o tema do processo, a algum ementário, a algum enunciado, a alguma súmula que o tribunal tenha. Então, tanto o Victor, no STJ, quanto outros diversos sistemas Brasil afora... No Tribunal de Justiça de São Paulo também existem alguns particularmente focados em juizados especiais. Esses sistemas que estão em funcionamento basicamente classificam: vão colocando os processos em caixinhas e dizendo: "Olha, aqui pode aplicar-se a súmula tal, aqui pode aplicar-se o enunciado qual", e de certa forma orientando as equipes de trabalho sobre como cuidar daquele processo.
R
O Supremo também tem um que busca identificar repercussão geral, interesse geral sobre aqueles processos que vão ser ali deliberados; mas estamos falando aqui de outra etapa, uma etapa que virá a seguir.
Quando nós trouxermos a inteligência artificial para dentro do Poder Judiciário, nós temos que ter em mente que não estamos falando somente do processo em papel; a própria audiência e o próprio trabalho do juiz poderão ser positivamente impactados pela inteligência artificial. O juiz pode, por exemplo, dar comandos de voz para o computador. Por que ele tem que necessariamente digitar a sua decisão? É uma decisão simples, como: "façam-se os autos conclusos", "ouça-se o Ministério Público", "intimem-se as partes", "cite-se". São despachos ordinários que um juiz dá. Hoje em dia, ele tem que necessariamente digitar isso, usar assinatura digital no documento, e isso ele poderia passar a fazer por comando de voz. Na própria transcrição de audiência, em que hoje já se busca utilizar, quando é feita em modo virtual, os aplicativos que nós temos disponíveis para videochamada, nós poderíamos ter aplicativos destinados ao Judiciário elaborando as atas de audiência, com isso ganhando tempo e evitando erros de terminologia que naturalmente os softwares que não são feitos para o Judiciário ainda fazem. Pode parecer piada, fala-se isso como uma piada, mas eu já vi uma transcrição em que, em vez de colocar "Excelentíssimo Juiz" - alguém falou o nome desse excelentíssimo juiz -, realmente foi transcrito "Esse Lentíssimo Juiz". Por quê? Porque era um software que não era evidentemente treinado para aquele vocabulário típico do mundo jurídico.
Isso nós podemos ter, nós podemos ter isso aplicado e integrado ao PJE e também podemos buscar a produção, a geração de minutas. Mas de que forma isso? É muito importante explicar aqui como está planejando, imaginando a aplicação da IA generativa no Judiciário.
Como disse, as decisões deverão continuar a ser do humano. O sistema deverá perguntar, ao identificar uma série de preliminares ou pedidos no processo, por exemplo, ao magistrado: "Com essa preliminar aqui de prescrição concorda ou não concorda?", "Essa arguição aqui de reconvenção é o caso de deferir ou não?", "O processo será julgado procedente ou improcedente?", "Haverá multa? De que valor?". E, com esses parâmetros que serão necessariamente colocados pelo magistrado, pelo ser humano, aí, sim, a minuta pode ser gerada por um sistema, inclusive com base nos próprios julgados daquele magistrado ou daquela turma, se se tratar de um tribunal. Quanto ao inventário, às citações, às referências de acórdãos assemelhados, pode vir não um ou dois, podem vir dez. E aí, se o magistrado não encontrou ali o que ele queria, ao apertar um botão de refresh, viriam outros 20 acórdãos, e ele poderá escolher um para citar na sua decisão.
Perceba, não estamos delegando à máquina a decisão, mas, sim, aproveitando o potencial de recuperação de informação da máquina, do potencial de pesquisa da máquina, para trazer uma jurisprudência em uma velocidade maior, mais quantidade, para ganhar horas-homem da produção daquela minuta, o que, na prática, como muitas vezes acontece, o magistrado muitas vezes delega à sua assessoria: após instruções sobre como ele pretende julgar o caso, ele delega à sua assessoria a redação da minuta, para depois reverificá-la. Esse tempo que a assessoria faz, após receber as instruções para produzir a minuta, seguramente, pode ser um tempo enriquecido pelo trabalho de uma inteligência artificial, sem, portanto, o prejuízo da contribuição humana.
R
Eu vejo que me resta um pouco mais de um minuto. Então, eu vou sair um pouco do plano geral das discussões no CNJ para o nosso projeto, que está em tramitação, Senador Carlos Viana. Tive a oportunidade de participar, inclusive, de uma das audiências e de outras tantas...
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Sr. Bandeira, eu vou lhe conceder mais cinco minutos...
O SR. LUIZ FERNANDO BANDEIRA DE MELLO - Agradeço.
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - ... por conta de o senhor ser o Presidente do Grupo de Trabalho sobre Inteligência Artificial no Poder Judiciário. Acredito que seja essa, realmente, uma das principais preocupações nossas com relação à inteligência artificial.
Então, V. Exa. tem mais cinco minutos...
O SR. LUIZ FERNANDO BANDEIRA DE MELLO - Agradeço.
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - ... porque entendo que é relevante para o nosso debate aqui. Por favor.
O SR. LUIZ FERNANDO BANDEIRA DE MELLO - Agradeço, Senador. Será uma honra. Vou tentar explorar, então, esse tempo.
Então, antes de entrar no projeto, vou concluir sobre o estágio em que estamos hoje, no Judiciário, na regulamentação desses produtos, dessas aplicações de IA. Já temos uma resolução vigente no CNJ, a Resolução 330, que regulamenta justamente o desenvolvimento de aplicações de inteligência artificial no Judiciário.
Aproveito para cumprimentar o Senador Marcelo Castro, que entra no Plenário.
Essa resolução, no entanto, foi elaborada antes da inteligência artificial generativa surgir para uso comum na nossa sociedade, vamos dizer que por volta de novembro de 2022, quando o ChatGTP tornou-se acessível a todos nós.
Então, os princípios de desenvolvimento das aplicações já estavam lá, mas o que se buscava, com aquela regulamentação, era particularmente permitir que um tribunal que fosse desenvolver uma aplicação de IA pudesse aproveitar um desenvolvimento feito já por um outro tribunal e, basicamente, transportar aquele conhecimento para internalizá-lo no seu tribunal. Isso funciona através de uma plataforma, a PDPJ (Plataforma Digital do Poder Judiciário), que integra todos os tribunais do país, de forma que se entraria num sistema chamado Sinapses, em que acontece esse registro, e os tribunais poderiam ver quem está desenvolvendo já aplicação de busca de ementas, de jurisprudência: "Ah, eu tenho aqui essa, a que me referi mais cedo, do Tribunal de Justiça do Paraná, o Chatjus. Maravilha! Então, vou pegar aqui esse modelo do Tribunal de Justiça do Paraná e, em cima dele, vou desenvolver, vou personalizar para o TRT da 6ª Região, por exemplo". Caberia também alguma adaptação em virtude do tipo de Justiça: do trabalho, ao invés da justiça estadual. Com isso, você conseguiria ganhar sinergia, economizando recursos.
A ideia, a princípio, vingou, funcionou bem, mas, com a nova inteligência artificial generativa, os tamanhos dos bancos de dados dos modelos são tão agigantados, que, na prática, o sistema Sinapses já não dá mais conta de atender a essa demanda. Então, a gente tem que repensar como vamos desenvolver IA no Judiciário.
E temos feito isso. Sob a relatoria da Profa. Laura Schertel Mendes, que está aqui - logo mais a ouviremos -, estamos desenhando regras gerais de como a IA no Judiciário deve funcionar, para, a partir daí, você conseguir ter sistemas inteligentes.
Senador Eduardo Gomes, satisfação em vê-lo.
R
Perceba: nós temos que buscar dar ao magistrado um instrumento, uma ferramenta útil de trabalho, que poderá, inclusive, trazer a ele um conhecimento direto de coisas que ele não domina, por exemplo, um exame médico. Um exame médico pode vir a ser encartado num processo eletrônico judicial para discutir uma disputa com um plano de saúde ou alguma indenização, até laboral, inclusive. Muitas vezes, o próprio juiz não tem condições de entender e compreender um exame médico, um exame de imagem. Geralmente, ele é acompanhado de um laudo, mas, se tiver uma inteligência artificial treinada, essa IA pode responder a perguntas pontuais do magistrado, orientando-o na decisão daquele caso concreto.
A decisão continuará sendo humana, ele continuará tendo o laudo do médico ali, mas ele pode fazer uma pergunta adicional de interpretação do exame. Se ele não tivesse esse instrumento, fatalmente ele iria decidir com a cognição mais sumária, com a cognição menos aprofundada.
Também estamos preocupados, Senador Carlos Viana, Senador Eduardo Gomes, com os casos em que a gente deve usar com muito cuidado a IA - Senador Nelsinho Trad, satisfação em vê-lo -, como o reconhecimento facial de foragidos. É um tema que o mundo vem discutindo, em que medida a inteligência artificial pode ser utilizada para identificar foragidos da polícia nas ruas e eventualmente ser usada, inclusive para condenação. Neste momento, no estágio atual em que estamos - a Dra. Laura poderá me corrigir se eu estiver incorreto -, mas, salvo engano, neste momento a regulamentação não está permitindo que se utilize a IA para essa finalidade, justamente por conta dos riscos que pode trazer de condenar a pessoa errada. Já tivemos alguns casos no exterior de pessoas que foram presas...
(Soa a campainha.)
O SR. LUIZ FERNANDO BANDEIRA DE MELLO - ... porque o sistema teria indicado erroneamente quem seria aquele foragido. Mas isso é um debate em curso, porque exatamente a IA também evoluirá e permitirá a utilização nesse tipo também em matéria penal, de reconhecimento de imagem.
Bom, vou guardar os últimos segundos para falar do projeto. Quanto ao projeto, Senador Eduardo Gomes, parabéns! Realmente tive o cuidado de ler o último substitutivo, e ele avança muito em diversos temas e várias preocupações que tínhamos em relação às versões anteriores.
Ainda acho que a aplicação da IA no Judiciário poderia merecer uma previsão legal de regulamentação pelo CNJ e explico. O projeto não traz esse detalhe. Ele fala em regulamentações setoriais. Penso, no entanto, que a aplicação no Judiciário é tão relevante, tão sensível, que valeria a pena a lei autorizar...
(Soa a campainha.)
O SR. LUIZ FERNANDO BANDEIRA DE MELLO - ... uma resolução do CNJ a trazer detalhamentos, trazer especificações de funcionamento da IA, o que aumentaria a segurança jurídica.
Não faz sentido fazer isso na lei porque, evidentemente, a lei regulamenta toda a IA no Brasil, mas talvez a aplicação no Judiciário pudesse ter regulamentação via resolução do CNJ. Isso porque, no projeto, as aplicações de IA para administração judiciária que possam influenciar o magistrado estão previstas como alto risco. E, como alto risco, naturalmente, você tem que ter mais cuidados e uma maior observação sobre o que vem a ser desenvolvido e proposto.
Eu vou parar por aqui minhas conclusões. Tem muita gente boa para falar, mas agradeço imensamente a atenção, a concessão do tempo extra por V. Exa. e a oportunidade de enriquecer o debate, ainda mais estreando aqui desta tribuna, o que, para mim, foi uma grande honra.
Muito obrigado pela atenção. (Palmas.)
R
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Obrigado, Sr. Luiz Fernando Bandeira, Conselheiro do Conselho Nacional de Justiça e Presidente do Grupo de Trabalho sobre Inteligência Artificial no Poder Judiciário.
Quero saudar aqui as presenças do Senador Marcelo Castro. Meu bom dia ao Senador Nelsinho Trad. O Senador Esperidião Amin já foi saudado. Acredito que, à medida que forem chegando, nós vamos fazendo as saudações aqui das autoridades.
Senador Eduardo Gomes, nosso Relator, muito bem-vindo.
Quero abrir a V. Exa. a possibilidade do discurso. Estamos ansiosos para ouvi-lo e, naturalmente, caminharmos na finalização desse trabalho tão importante para o nosso Brasil.
O SR. EDUARDO GOMES (Bloco Parlamentar Vanguarda/PL - TO. Para discursar.) - Bom dia a todos, a todas.
Sr. Presidente, Senador Carlos Viana, meus cumprimentos, Senador Marcelo Castro, meu amigo, Relator do Código Eleitoral, meu querido Senador Nelsinho Trad.
Sr. Presidente, primeiro, quero fazer o reconhecimento público a V. Exa. porque, desde o primeiro momento, nessa relatoria dessa importante matéria de autoria do Presidente Rodrigo Pacheco, com a participação efetiva e muito decisiva da Comissão de Juristas a princípio e, em seguida, com centenas de debates e audiências públicas que realizamos acerca desse tema, V. Exa. sempre deu espaço para que o centro crítico desse relatório, desta Comissão, partisse da Comissão, de V. Exa., do Senador Marcos Pontes.
Cumprimento os demais Senadores da Comissão, tendo em vista a complexidade do tema e a disposição para a confusão. Esta Comissão... Essa matéria é uma matéria desafiadora, importante, mas que iguala todos os seres humanos no quesito ansiedade, perspectiva e realidade, porque é global, mas ela tem características muito peculiares de nação, de povo, que precisa correr atrás de uma legislação e não pode correr do desenvolvimento, da competitividade e da realidade global.
Por isso, tantas pessoas de outras áreas, ou até de área nenhuma, como é o meu caso, foram se envolvendo com esse tema e hoje é um grande dia, porque é mais um dia de crítica, é mais um dia de abertura, de debate e é mais um dia para desafiar aqueles que, de maneira muito otimista, exercem o seu pessimismo, porque existe isso no Brasil. Existe gente que luta todo dia para manter o seu mau humor, o seu pessimismo. E a Comissão tem atrapalhado essas pessoas, meu querido amigo Bandeira, porque a gente tem insistido em discutir, insistido em deixar esse assunto completamente fora da atmosfera de debate político, porque, se inteligência artificial resolvesse questão de polarização política no Brasil, a gente já tinha solução para os nossos problemas, não precisava nem de candidato, resolvia tudo. Só que não tem nada a ver uma coisa com a outra, não tem nada a ver com regulamentação específica de fake news ou com qualquer outra coisa que seja. É uma tecnologia que vai estar presente em tudo o que nós estamos fazendo, e a gente vai ter que ter paciência, exercício democrático do debate para achar a solução.
R
Então, eu queria, Presidente, mais uma vez contrariando a assessoria, que faz de maneira muito zelosa esses pareceres todos para a gente, que entendem mais do que a gente... A gente vai colhendo o sentimento e falando: "Olha, pontos muito caros foram debatidos aqui".
E também tem outra dificuldade. Esse tema tem tanta dificuldade que tem mais uma, porque os nossos convidados e as pessoas que, de maneira voluntária, estão ajudando o Congresso Nacional, Presidente, criam um problema cerimonial muito grande, porque todos têm os melhores currículos do Brasil. Então, eu vou citar o nome das pessoas, mas não vou citar o currículo, porque senão a gente não consegue fazer a sessão de debate.
Quero agradecer ao Marcos Antônio da Silva Costa, Procurador Regional da República, que nos honra muito.
Acho que foi citado pelo Presidente também aqui nessa parte formal, mas eu queria pedir para quebrar o protocolo nesta indicação: você imagina se eu vou ter condição de falar do currículo do Luiz Fernando Bandeira de Mello, porque essa mesa foi construída por ele. Então, é o nosso querido Dr. Bandeira, do Conselho Nacional de Justiça.
Henrique de Oliveira Miguel, Secretário de Ciência e Tecnologia para Transformação Digital do ministério, a quem eu também agradeço muito pela colaboração.
Marcos Barbosa Pinto, Secretário de Reformas Econômicas do Ministério da Fazenda.
João Caldeira Brant, que nos ajudou o tempo inteiro, Secretário de Políticas Digitais. Está dentro de casa.
Nosso querido Miguel Matos, Presidente do Conselho de Comunicação Social do Congresso Nacional, um órgão que tem retomado com força as suas atividades.
Ana de Oliveira Frazão, Professora de Direito Civil e Comercial da UnB.
Rafael Zanatta, Diretor da Associação Data Privacy Brasil.
Dora Kaufman, que sempre foi uma bússola para a gente aí nas discussões, na provocação da abertura de que esse relatório precisa.
Marcelo Almeida, Diretor de Relações Governamentais da Associação das Empresas de Software.
Ana Paula Bialer, advogada especialista, que também acompanha esse debate.
Rony Vainzof, advogado especialista.
Nossa querida Estela Aranha, que esteve em vários pontos da discussão, em várias cadeiras da mesa, sempre presente. Então, muito obrigado pela sua presença.
Dalton Morato, Diretor Jurídico da Associação Brasileira de Direitos Reprográficos (ABDR).
Pablo Nunes, coordenador do projeto Redes de Observatórios da Segurança.
E todas as pessoas que ainda não foram citadas aqui, mas que, além de presentes, estão de maneira virtual acompanhando esse nosso debate, essa nossa primeira etapa.
E faço isso, Sr. Presidente, para que as pessoas fiquem logo livres do Relator, porque essas observações que a gente vai fazer aqui são justamente o encerramento de mais uma etapa, para que a gente possa colher as contribuições pontuais e contribuições com relação ao relatório, ver se elas se dão por inclusão e por exclusão de matérias que podem não ter essa consonância. E, por isso, faço aqui, Presidente, só algumas considerações.
O debate de hoje tem um lugar especial no rito legislativo sobre a regulação da IA no Brasil: é uma oportunidade ímpar para dar visibilidade e colher as mais sinceras opiniões em torno dos textos colocados à disposição da sociedade brasileira, desde o PL 21, de 2020, até o PL 2.338, de 2023.
E aqui a minha consideração e meu abraço ao Deputado Eduardo Bismarck, à Deputada Luisa Canziani, ao Deputado Orlando Silva e aos Deputados Federais que tratam desse tema há bastante tempo na Câmara dos Deputados, a Casa que eu estimo muito - por lá fiz três mandatos de Deputado Federal.
R
Substitutivo que esta relatoria publicou na última sexta-feira. Antes, porém, de falar dos inúmeros avanços obtidos até aqui, é preciso destacar o inegável processo de amadurecimento público sobre o debate no Brasil. Vencemos pontos importantes, que merecem ser aqui colocados de forma clara e contundente.
Primeiramente, não há margem de dúvida: o país quer e reclama uma lei sobre inteligência artificial. Se ainda há aqueles que lutam contra legislar sobre este tema, que tentam obstruir o processo democrático, percebemos claramente que são minoria; possivelmente, já nem tenho mais condições de expor sua opinião, já que abrimos opinião para todos.
A Câmara dos Deputados já declarou, em ato público, democrático e institucional, que deseja regular o assunto. Aqui, já cumprimentei os Deputados Eduardo Bismarck, Luisa Canziani, Orlando Silva e o Presidente da Câmara dos Deputados, Presidente Arthur Lira. E o Senado somente avança, cada vez mais, nesta mesma direção: a regulação brasileira sobre IA vai acontecer.
Em segundo lugar, não há interesse público em uma proposta meramente principiológica, excessivamente permissiva, pouco prescritiva. Leis puramente programáticas são leis ineficazes; são desregulação ao invés de regulação; não promovem segurança jurídica mínima nem garantem direitos de maneira adequada. Além disso, leis de regulação que não preveem ferramentas mínimas para atuação do Estado acabam tolhendo o poder público de instrumentos de contenção de abusos, de práticas ilícitas como as de dominação de mercado e monopolização de tecnologias. Estamos vendo o que isso significa na prática e devemos responder à altura.
Em terceiro lugar, a propositura pelo Presidente desta Casa, Senador Rodrigo Pacheco, de uma Comissão de Juristas foi talvez o gesto de maior responsabilidade democrática e republicana, uma vez que também, sem margem de dúvida, foi a Comissão presidida pelo nosso querido nobre Ministro Ricardo Villas Bôas Cueva, a quem cumprimento em nome do Senado Federal, que elevou o debate público, incentivando diversos setores da sociedade a participarem ativamente do tema.
Por fim, mas não menos relevante, o Governo Federal precisou tomar parte deste debate e, para isso, aceitou o nosso convite especialmente no que lhe competia: reorganizar, propor e conduzir as políticas públicas e a organização administrativa necessárias para assegurar o bom desempenho das propostas aqui debatidas.
Nesse sentido, registro os meus cumprimentos aos Ministros Alexandre Padilha e Paulo Pimenta e também ao Ministro Ricardo Lewandowski, nas pessoas de quem cumprimento secretários, diretores, assessores e todos aqueles do Poder Executivo que contribuíram com esta proposta.
Quanto aos avanços do processo, é natural e esperado que nem todos estejam de acordo com cada proposta, mas é a crítica construtiva, acompanhada de sugestões que torna essencial chegarmos a um consenso que viabilize uma legislação justa e eficaz. O diálogo, aliás, tem sido base deste processo, ainda que não seja reconhecido por alguns.
R
Fizemos progressos significativos. Os textos apresentados até agora mostram um amadurecimento coletivo sobre o tema. Nenhum Parlamentar ou grupo tem a posse da verdade absoluta nesse debate. A complexidade do tema exige humildade e disposição para o diálogo. Nem todos têm, mas aqueles que compreendem a dinâmica de mediar interesses em uma democracia sabem e defendem o processo plural e divergente.
Alguns desses avanços são claros. A proposta de consolidação do sistema de governança e inteligência artificial valoriza as agências reguladoras setoriais - a quem cumprimento agora -, melhorando a interação entre a autoridade competente e a autoridade especializada. Aqui, pensou-se em estabelecer uma coordenação do ambiente regulatório por uma autoridade central, permitindo a atuação especializada com poderes de fiscalização das agências reguladoras setoriais, e os setores não regulados ficariam sujeitos à competência plena da autoridade coordenadora, sem espaços para vazios regulatórios. Dessa forma, a autoridade competente deverá ser responsável por normas gerais de harmonização.
Avançamos também na previsão da criação de um painel de especialistas de inteligência artificial, a exemplo do que está propondo a ONU e que já foi proposto pela União Europeia.
Outra evolução do texto foi a proibição total de armas letais autônomas, indicando que não é o momento para se permitirem brechas nesse sentido.
Tenho um compromisso em buscar uma solução em relação à proteção dos direitos autorais. Houve um avanço para o estabelecimento de parâmetros justos para uma futura e efetiva remuneração justa a criadores, artistas, jornalistas, etc. O novo texto não cria uma nova responsabilidade civil, apenas se refere ao que já existe hoje no sistema jurídico brasileiro - CDC, Código Civil, etc. Assim, evitamos uma discussão cara para setores organizados, reduzindo o peso da regulação sobre a atividade econômica e os efeitos colaterais indesejados desse estágio de desenvolvimento da tecnologia.
Houve flexibilização do uso de reconhecimento facial para interesses de segurança pública e justiça criminal, um tema caro e que merece a devida reflexão, mas que buscou respeitar outras legislações em vigor hoje que autorizam essa tecnologia para os mesmos propósitos.
Prevemos políticas de fomento para o desenvolvimento da IA no Brasil. É importante chamar a atenção para esse ponto: não é possível regular, mal entender e nada investir. É preciso que tenhamos essa consciência muito primária do que é a competição de novas tecnologias.
Por fim, reafirmamos a soberania do Brasil na agenda de inteligência artificial com um projeto de lei pró-inovação e, ao mesmo tempo, com garantia de direitos.
Agora, convido a todos a darem mais um passo nessa direção. Precisamos repensar a interação do Estado brasileiro com a tecnologia. Devemos inovar o pensamento parlamentar e governamental, abrindo espaço para as novas ideias e diferentes perspectivas. A sociedade civil também precisa se engajar ativamente nesse debate, buscando informar sobre os desafios e oportunidades da inteligência artificial e contribuindo para a construção de um futuro próspero e justo para todos.
R
Que este debate seja o início da construção de um marco regulatório para a inteligência artificial, que assegure direitos, promova a inovação responsável e garanta o desenvolvimento do Brasil, sem jamais esquecer o bem-estar social, mas que seja também um convite à reflexão sobre novas necessidades políticas do Estado em torno da tecnologia e seus efeitos na sociedade, especialmente para gerações futuras!
Eu faço ainda a observação de que está aqui a Dra. Laura Schertel, que ajudou muito nesse trabalho desde o início; a Adriana, que nos ajudou com a paciência, com a apresentação e com o trabalho de entendimento entre os membros do grupo de trabalho; o César, que chegou também para ajudar; o Bioni, nosso querido amigo; o Dr. Fabricio; e todos os funcionários que ajudaram nessa construção.
Sr. Presidente, de verdade, a impressão que tenho é de que todas as vezes que terminamos uma etapa, começamos uma etapa maior. Hoje, logo cedo, com a notícia do acordo da Apple com o ChatGPT e tudo, eu fiquei assistindo à notícia louco para acabar e para que não tivesse nenhum outro problema depois da notícia. Então, assim, a gente sai daqui com a impressão de que alguma coisa vai acontecer com a inteligência artificial que pega a gente no meio do caminho.
Mas, durante o tempo, foi importante ouvir... Faço meus cumprimentos aqui ao mais brilhante Senador deste Congresso, nosso querido Esperidião Amin, que tenho certeza de que, com a sua inteligência emocional, vai ajudar muito nesse debate. Faço meus cumprimentos. Bom dia. Muito obrigado por ter vindo a este debate, é fundamental a sua presença.
O Sr. Esperidião Amin (Bloco Parlamentar Aliança/PP - SC) - Posso pedir um aparte?
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Perfeitamente, Excelência.
O Sr. Esperidião Amin (Bloco Parlamentar Aliança/PP - SC. Para apartear.) - Há pouco, eu já interrompi a sessão por um motivo prazeroso: a visita da rainha e das princesas da Oktoberfest, que vieram trazer, inclusive, a V. Exa. o convite.
Mas agora eu tenho o dever, junto com o Senador Jorge Seif, de registrar a presença da Sra. Vice-Ministra das Relações Exteriores da Ucrânia, que está em visita ao Senado.
O SR. EDUARDO GOMES (Bloco Parlamentar Vanguarda/PL - TO) - Seja bem-vinda!
O Sr. Esperidião Amin (Bloco Parlamentar Aliança/PP - SC) - Sra. Iryna Borovets e Sr. Andrii Melnyk.
E o seu nome? (Pausa.)
Olena.
Então, desculpe pela interrupção de novo, não é meu hábito fazer isso. Mas, Senador Eduardo Gomes, que nos ensina a procurar sempre um céu límpido para voar, como fazia o seu homônimo, o Brigadeiro Eduardo Gomes, que se apresentava em eleições de maneira muito atraente, eu queria agradecer pela oportunidade e dizer que este tema - eu já informei à Vice-Ministra - é talvez um dos temas mais importantes aqui, como tem sido na Europa, que conseguiu recentemente aprovar uma lei que vai requerer grande debate na sua regulamentação também.
R
Portanto, é uma tarefa muito grande em dimensão e, certamente, em prazo da duração dos seus debates.
Muito obrigado.
O SR. EDUARDO GOMES (Bloco Parlamentar Vanguarda/PL - TO) - Muito obrigado.
Sr. Presidente, Carlos Viana, Senador Carlos Viana, quero agradecer a todos pela paciência, pela participação, pela colaboração, e este debate está apenas começando.
Tenho certeza de que esta é mais uma etapa que nós estamos apresentando à sociedade brasileira, até a votação, na Comissão, no dia de amanhã e, consequentemente, na próxima semana, na votação neste Plenário, sabendo que, no sistema bicameral, nós ainda temos que ajustar essa relação quanto ao projeto de Câmara e Senado, mas faremos isso com muito respeito, com muita tranquilidade, no tempo certo, sobre inteligência artificial.
Vou cometer o erro de não citar o nome da pessoa, mas vou passar para vocês depois: uma das coisas que mais me impressionou, nesse debate sobre inteligência artificial, principalmente com relação a direitos autorais, está na frase de uma artista plástica, em que ela fala, de maneira muito tranquila, Presidente Carlos Viana. Ela diz o seguinte: "Eu quero que a IA lave os meus pratos e arrume a minha casa, para que eu possa me dedicar à minha arte de escrever e de promover aquilo que penso, e não o contrário: eu não quero que a IA faça a minha arte, para que eu fique lavando pratos e arrumando a casa".
Muito obrigado a todos vocês. (Palmas.)
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Obrigado. (Risos.)
Primeiramente, quero saudar também a Vice-Ministra Iryna, que está conosco aqui.
Sra. Iryna, can you speak English?
(Intervenção fora do microfone.)
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) -
(Pronunciamento em língua estrangeira, aguardando posterior tradução.)
A SRA. IRYNA VERESHCHUK -
(Pronunciamento em língua estrangeira, aguardando posterior tradução.)
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) -
(Pronunciamento em língua estrangeira, aguardando posterior tradução.) (Palmas.)
R
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Quero citar aqui a presença do Dr. Fabrício da Mota Alves, membro do Conselho Consultivo da Anatel, e a da Dra. Laura Schertel Ferreira Mendes, Relatora da Comissão de Juristas responsável por subsidiar a elaboração de substitutivos sobre inteligência artificial no Brasil.
Dando sequência, concedo a palavra ao Sr. João Caldeira Brant de Castro, Secretário de Políticas Digitais da Secretaria de Comunicação Social da Presidência da República.
O SR. JOÃO CALDEIRA BRANT DE CASTRO (Para exposição de convidado.) - Bom dia, Presidente Carlos Viana; bom dia, Senador Eduardo Gomes, Relator do projeto e inspiração na arte de promover diálogo e aproximação entre visões que parecem muitas vezes conflitantes e, de repente, você vê que elas vão se aproximando e que as diferenças são um pouco menores do que a gente previa. Então, acho muito positivo saudar, desde o início, o processo de construção, o processo de escuta que a Comissão Temporária estabeleceu com a sociedade civil, com membros do Governo, e o processo de diálogo com o Governo, a abertura que o senhor teve para receber propostas, para analisar, discutir abertamente, e apresentar o que havia de concordâncias e divergências.
Eu queria saudar os Senadores presentes, saudar também o Fabrício Mota Alves, a Laura Schertel Mendes, o Bruno Bione, que não estão aqui, colaboradores-chave para esse processo, e saudar a Adriana e o César, a equipe do Senador Eduardo Gomes, que construiu também um processo a partir dos insumos todos que receberam. Eu não queria estar na pele deles de ter que analisar todas as contribuições. Acho que eles devem ter tido ajuda da inteligência artificial, mas eu tenho certeza de que tiveram muita inteligência política para fazer o trabalho que foi feito aqui, Senador.
Eu queria destacar quatro pontos aqui: primeiro, o compromisso do Governo com esta agenda, a agenda da inteligência artificial. O Presidente Lula tem feito esta manifestação por diversas vezes e falado que o Brasil precisa estar bem posicionado no tema da inteligência artificial. Isso significa saber combinar, com inteligência e com sabedoria, as questões de proteção de direitos, as questões de incentivo econômico aos setores que desenvolvem IA, e a questão do reconhecimento e do incentivo econômico a outros setores que se relacionam, na sua atividade econômica, diretamente com inteligência artificial.
Estou olhando aqui para a Ana Paula, da Brasscom. A Brasscom reúne um conjunto amplo de empresas que reconhece, na verdade, não só a dimensão, porque estão ali não só desenvolvedores, mas outros que se relacionam com eles. E nós precisamos pensar, portanto, em quais são os ativos do país, quais são as atividades econômicas que dependem de IA, que a gente quer fortalecer com a inteligência artificial e não correr o risco de enfraquecer e esvaziar. A gente já viu isso acontecendo em outros setores, Senador. Eu acho que o exemplo que a gente vê com o pequeno comércio especialmente nos Estados Unidos, mas também aqui, nos faz pensar em como conseguiremos preservar o avanço tecnológico com uma diversidade de agentes econômicos e de atores que possam, nos seus papéis, promover e atuar nessa direção.
O Governo contribuiu a partir da reunião de um conjunto de contribuições feitas por 19 ministérios, brilhantemente coordenado pela Casa Civil e pela SRI - está aqui a Vivian Mendes, que teve papel-chave nessa história. E a Secom, por meio da sua Secretaria de Políticas Digitais, que eu dirijo, foi convidada a dar um apoio técnico a esse trabalho e contribuir nesse processo de formatação das posições de Governo.
R
Evidentemente que também o Governo, na sua característica e na sua dinâmica, reúne diversas áreas, como Ministério do Desenvolvimento, Indústria, Comércio e Serviços, Ministério da Fazenda, Ministério da Justiça, Ministério da Ciência, Tecnologia e Inovação, Ministério da Cultura, tantos ministérios que trazem os seus aportes, e a gente teve que fazer, do nosso lado, um esforço de sistematização das contribuições, para que as contribuições apresentadas ao Senador fossem uma síntese positiva e equilibrada dessa dimensão. E eu acho que conseguimos, ao fazer isso, também trazer ao Relator um conjunto de preocupações. Parece-me que boa parte delas foi acatada pelos Senadores, sempre de forma equilibrada, trabalhando em diálogo com outros setores econômicos, também com olhar e com interesse sobre o projeto.
E alguns avanços importantes do último período eu queria também destacar: primeiro, a questão do fortalecimento de um órgão que tenha um papel de cumprir o papel de um órgão central nesse sistema de regulação, mas que ele respeite os órgãos setoriais e que fortaleça o papel dos órgãos setoriais já existentes nas agências reguladoras nesse processo. Acho que o texto sai de forma muito equilibrada, combinando essas diferentes dinâmicas e fazendo com que os setores respondam diretamente naquilo que é específico, inclusive nas dimensões de alto risco, aos seus órgãos setoriais.
Segundo, a incorporação de temas que, do nosso ponto de vista, são chave para a sustentabilidade de agentes econômicos. Eu destacaria a questão dos direitos autorais, mas, ao falar de direitos autorais, eu destaco também o tema da sustentabilidade do jornalismo. O jornalismo profissional hoje é uma das maiores fontes de informação para os sistemas de I.A. generativa e precisa, portanto, ser reconhecido como parte e, ao fortalecer a dimensão de direitos autorais, nós estamos fortalecendo artistas, produtores culturais, cientistas e jornalistas, mas naquilo que eles produzem de fundamental, que é matéria-prima para a inteligência artificial.
Eu destacaria também a questão da integridade da informação. Hoje as Nações Unidas, a OCDE, a Unesco, diversos órgãos internacionais têm buscado uma discussão sobre combate à desinformação e o discurso de ódio, que justamente faça o papel que o Senador buscou fazer, de tirar esses sistemas do debate da polarização e que possa trazer isso para um debate de reconhecimento, de que a gente quer informações precisas, confiáveis e, obviamente, mantendo o pluralismo, a diversidade, sem qualquer violação à liberdade de expressão, sem qualquer tipo de ato que possa se configurar em censura. E acho que o projeto consegue também propor uma solução equilibrada ao trazer o tema da integridade da informação como um dos valores que organiza e que deve organizar os sistemas de inteligência artificial.
É uma legislação, Senador, que, ao propor baseada em riscos, em avaliação e atenuação de riscos e na proteção de direitos, não deixa de fazer e de olhar para o outro lado, que é o fomento à inovação. E ela o faz de maneira mais geral porque o Governo tem feito... E aí acho que a gente pode falar depois, o Secretário Henrique Miguel - não sei se já está na Casa, do Ministério de Ciência, Tecnologia e Inovação - vai ter chance de trazer, mas o Governo está empenhado e tem gasto bilhões de reais por ano na promoção justamente de ações de inovação, de pesquisa, desenvolvimento e inovação nessa área de inteligência artificial e é papel do Governo promover políticas públicas. Essas políticas precisam justamente buscar a afirmação do papel do Brasil nesse cenário internacional. Isso significa reconhecer a parceria bem construída com os atores internacionais e, ao mesmo tempo, fortalecer uma indústria brasileira nessa área.
E essa é a preocupação que rege as ações com que o Governo tem trabalhado, essas são as preocupações que o Presidente Lula traz ao discutir a estratégia brasileira de inteligência artificial e agora um plano que vai materializar as ações imediatas e atualizar essas ações imediatas de inteligência artificial.
R
Nesse sentido, então, ao reconhecer a importância das políticas públicas e fortalecer o papel do Ministério da Ciência e Tecnologia na construção da Ebia e do Pbia, o projeto também tem um papel de entrar harmonizando-se com as ações que já estão em curso, entendendo que a regulação é apenas uma parte da questão. Ela precisa estar combinada com fomento e com políticas públicas.
Eu destacaria aqui ainda a questão do trabalho. Parece-me que esse é um tema que preocupa, obviamente, o Governo. Nós precisamos olhar para a dimensão do impacto da inteligência artificial nos postos de trabalho, de maneira a nem querer frear o desenvolvimento da história, nem querer deixar de dar proteção social aos trabalhadores brasileiros e às trabalhadoras brasileiras, que precisam que essa transição e os processos de transformação gerados pela inteligência artificial sejam trabalhados de forma a não acabar com determinados setores ou não trabalhar essa dimensão... não secundarizar a questão do trabalho, que é uma questão-chave para nós.
Por fim, Senador, eu não queria deixar de destacar alguns pontos em que eu acho que o projeto certamente vai ter condição ainda de se fortalecer. Eu acho que esse projeto que o senhor apresenta fecha um ciclo. Ele fecha um ciclo de debates, de elaboração, que partiu da Comissão de Juristas, que foi apresentado no âmbito da Comissão temporária e discutido nas audiências públicas na Comissão, num processo dirigido pelo Senador Carlos Viana, mas há algumas questões que eu gostaria de deixar só com pontos ausentes, que acho que ainda poderiam ser considerados, mas que eventualmente também podem ser discutidos na discussão, na avaliação na Câmara dos Deputados.
Primeiro, é a questão dos deepfakes, dos conteúdos sintéticos. Parece-nos que o projeto acaba sendo tímido ao não tratar diretamente desse tema dos deepfakes. Acho que a dimensão do reconhecimento do risco de isso afetar pessoas - às vezes pessoas públicas, às vezes pessoas que não são públicas - deveria estar considerada de uma forma direta no texto, para que a gente não tenha esse impacto negativo da tecnologia.
Depois, nós temos algumas questões de proteção e na dimensão de alto risco, algumas que entraram, algumas que saíram, certamente essas podem passar por determinados ajustes. A nossa preocupação é sempre entender qual é a parte mais fraca da história. A parte mais fraca é o cidadão...
(Soa a campainha.)
O SR. JOÃO CALDEIRA BRANT DE CASTRO - ... no exercício dos seus direitos, é o cidadão na capacidade de realização dos seus direitos individuais e coletivos e, portanto, no acesso também, nas suas condições de crédito, nas suas dimensões de segurança, de direitos civis no sentido de proteção em relação à segurança pública. Acho que o Senador buscou e conseguiu resultados bastante equilibrados, mas certamente isso pode passar por alguns elementos de discussão ainda no Senado.
Eu termino agradecendo novamente a abertura e a capacidade de diálogo do Senador Eduardo Gomes, como Líder da Oposição, do PL, partido de oposição ao Governo, mas que teve uma abertura muito grande para o diálogo e para a construção de soluções de compromisso, que eu acho que deixam o projeto muito forte, positivo, certamente com capacidade de aprimoramentos. Eu saúdo a realização desse trabalho e esse momento final nesse debate aqui, novamente agradecendo ao Senador.
Muito obrigado. (Palmas.)
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Obrigado ao Sr. João Caldeira Brant de Castro, Secretário de Políticas Digitais da Secretaria de Comunicação Social da Presidência da República.
Eu comentava aqui com o Senador Eduardo Gomes sobre um ponto importante da fala do Sr. João Caldeira: a questão do trabalho, do impacto da IA na força de trabalho do nosso país. Nós vamos ser apanhados, infelizmente, pelo atraso. Nosso sistema educacional público foi incapaz de prover a mão de obra até o momento necessária para o desenvolvimento da inteligência artificial e garantir um impacto menor na nossa economia, na nossa força, nos nossos contratos. Este será um grande desafio para este Governo e principalmente para o próximo, que é a questão da formação educacional em nosso país para o trabalho da nova economia que nós teremos com a implantação da inteligência artificial.
R
Concedo a palavra agora ao Sr. Marcos Barbosa Pinto, Secretário de Reformas Econômicas do Ministério da Fazenda.
Seja muito bem-vindo.
O SR. MARCOS BARBOSA PINTO (Para exposição de convidado.) - Bom dia a todos e todas. Queria agradecer ao Senador Carlos Viana pelo convite para participar desta sessão e parabenizar o Senador Eduardo Gomes pelo excelente trabalho feito nesse projeto de lei.
O Brasil enfrenta hoje - e não é de hoje, é de algumas décadas - um problema de produtividade na economia. Infelizmente, a produtividade brasileira encontra-se estagnada, e é muito provável que, se a gente tirar o agronegócio da economia brasileira, ela tenha declinado nas últimas décadas. Então, a gente precisa investir muito em elevar a produtividade do trabalho, do capital, aqui no Brasil, e os serviços digitais e a inteligência artificial são uma oportunidade imensa para que a gente faça isso. A produtividade do trabalho no setor de serviços digitais é três vezes a produtividade nos demais setores da economia; já representa 9% do valor adicionado no PIB brasileiro; e o salário médio dos trabalhadores nessa indústria é o dobro do salário médio nas outras indústrias. Então, a gente tem uma oportunidade imensa com a inteligência artificial no Brasil de aumentar a produtividade da economia, de gerar empregos e renda para toda a população.
Por outro lado, é evidente que a inteligência artificial também apresenta muitos riscos. A gente precisa assegurar... É muito difícil, às vezes, para os próprios desenvolvedores de inteligência artificial, entender o processo de decisão dos algoritmos que são utilizados por eles. A gente precisa investir na transparência dos processos de inteligência artificial. Esses algoritmos também erram, e erram com grande frequência. A gente precisa proteger a sociedade desses erros. É também constatado em toda a literatura que, infelizmente, os algoritmos praticam discriminação - por gênero, por raça -, e a gente precisa proteger e defender as minorias da população contra esse tipo de discriminação. E, por fim, eles apresentam riscos à segurança da sociedade, e a gente precisa se proteger contra esses riscos.
Eu acho que o projeto, o relatório que foi apresentado pelo Senador Eduardo Gomes atingiu um equilíbrio entre as oportunidades e os riscos que a inteligência artificial apresenta, entre a regulação e a inovação nessa área. Eu acho que a gente não pode, por um lado, deixar de regular a inteligência artificial; por outro lado, a gente não pode criar uma lei e regular de maneira que impeça a inovação e nos impeça de nos beneficiar das vantagens que a inteligência artificial pode trazer.
R
Eu acho que o projeto foi muito feliz, Senador, quando previu um tipo de regulação muito moderna hoje em dia, que é a regulação assimétrica. A gente costumava fazer regulação, em geral, no mundo, aplicando a mesma norma para todos os agentes econômicos, e o que se tem percebido é que a norma tem impactos diferentes conforme o tamanho, conforme o estágio de desenvolvimento de cada empresa. Então, o projeto permite que a regulação seja flexibilizada, seja ajustada aos diferentes tamanhos das empresas, e eu acho isso muito, muito importante.
O projeto também encontrou um equilíbrio, a meu ver, muito interessante entre o papel dos reguladores setoriais e o papel do órgão de coordenação nessa área, porque, por um lado, a inteligência artificial é uma nova ferramenta, que exige um conhecimento técnico especializado - disso não há dúvida -, por outro lado, os riscos e os danos que ela pode provocar se materializam nos diversos setores econômicos, e o conhecimento desses setores econômicos é essencial para que a regulação seja bem feita. Acho que o diálogo que o projeto institui entre os reguladores setoriais e o órgão central é essencial para que a gente tenha sucesso nesta empreitada de regular a inteligência artificial sem impedir a inovação.
Acho que o Senador também acertou muito ao não incluir a análise de crédito nas atividades de alto risco. Eu sei que existe uma discussão internacional gigantesca sobre esse assunto. A análise de crédito foi um dos primeiros temas que despertou a consciência da comunidade científica para os riscos de discriminação na inteligência artificial, mas eu acho que a gente pode proceder com um pouco mais de calma aqui no Brasil, porque o mercado brasileiro de crédito é muito diferente dos mercados desenvolvidos nos Estados Unidos e na Europa, onde esse problema se apresentou.
Em primeiro lugar, na Europa as taxas de juros aos consumidores médias são de cerca de 10% ao ano. Aqui no Brasil, elas são em média de 10% ao mês. Negar um empréstimo para um consumidor na Europa é quase negar um direito básico do cidadão europeu. Negar um empréstimo à taxa de 100% ao ano aqui no Brasil, eu acho que a gente devesse talvez estar fazendo mais disso, porque a gente está numa situação hoje de enorme superendividamento na população. Acho que o risco aqui no Brasil está um pouco para o outro lado.
Outra grande diferença entre Brasil e países desenvolvidos: a maioria dos cidadãos europeus e americanos tem escore de crédito positivo. Aqui no Brasil, a gente acabou de fazer o Programa Desenrola e a gente constatou que mais da metade da população economicamente ativa do Brasil tem escore de crédito negativo, e ainda assim essas pessoas recebem crédito, e de uma maneira muitas vezes predatória e que gera um efeito muito deletério para a população.
Na Europa, os bancos, os grandes bancos estão lutando para sobreviver hoje, devido à competição. Eles têm taxas de retorno sobre o capital investido muito baixas. Aqui no Brasil a gente enfrenta o contrário, existe uma enorme concentração bancária ainda em alguns poucos bancos, e a gente precisa muito de que novos atores entrem nesse mercado, e eles não têm o mesmo acesso à informação e aos dados que os bancos estabelecidos têm. Então, a gente precisa de que essa regulação permita que os novos entrantes... a única chance que eles têm de competir é usando algoritmos, é usando mecanismos de inteligência artificial, para que eles possam tomar mercado dos demais bancos porque eles não têm o mesmo acesso à mesma base de dados históricos que os bancos estabelecidos têm. Então, eu acho isso um ponto muito importante.
R
Eu não descarto, nem nego a importância de se regular o uso da inteligência artificial no mercado de crédito. Eu só acho que é precipitado a gente fazer isso agora, acho que a gente pode entender o impacto da inteligência artificial nesse mercado e, como prevê o projeto, incluir posteriormente essa atividade, por meio dos órgãos reguladores, entre as atividades classificadas de alto risco. Isso não impede que, eventualmente, o projeto seja ajustado para tratar de um ponto que me parece extremamente sensível, que é a questão da discriminação. Realmente, os algoritmos tendem, pelas suas características, a discriminar por gênero e por raça. Acho que a gente podia, de repente, ajustar o projeto nesse sentido, mas acho que seria precipitado a gente, desde já, num ambiente de crédito como o brasileiro, que é completamente diferente, classificar a análise de crédito como alto risco.
E, por último, Senador, já encerrando, a questão da responsabilidade civil. Esse era um dos aspectos que mais me preocupava nas versões iniciais do projeto, porque ele poderia levar a uma responsabilização excessiva dos agentes econômicos, pelo uso da inteligência artificial. Acho que a gente tem um sistema de responsabilidade civil baseado numa longa tradição jurídica que é bastante aberto, que dá bastante latitude para o Judiciário para ele trabalhar com as situações à medida que elas aparecem; a gente tem um Código de Defesa do Consumidor que estabelece um regime de responsabilidade especial para as relações de consumo e que é muito efetivo; e acho que o projeto caminhou muito bem ao se referir a esses dois diplomas legislativos, a esses dois regimes de responsabilidade civil que já existem e que dão flexibilidade para o Judiciário aprender com os casos que vão surgir com a inteligência artificial, e debater esses casos a fundo em cada caso concreto. E, eventualmente, no futuro, se entender necessário, a gente pode estabelecer uma regulação específica para a responsabilidade civil em casos envolvendo a inteligência artificial.
Acho que o projeto ficou muito melhor, avançou muito nessa parte.
E, se me permite, Senador, eu faria só uma última sugestão. Ao se classificar como alto risco...
(Soa a campainha.)
O SR. MARCOS BARBOSA PINTO - ... ao se fazer uma remissão ao conceito de responsabilidade objetiva do Código Civil para as atividades de alto risco, pode se criar ali um entendimento - e acredito que este não tenha sido o objetivo do projeto - de que qualquer classificação como alto risco na lei vai gerar responsabilidade objetiva. Isso não é um resultado desejável, acredito eu, porque, por exemplo, na medicina, o uso da inteligência artificial na medicina evidentemente é classificado como alto risco para fins de inteligência artificial, mas não pode gerar responsabilidade objetiva do médico ou de quem quer que use a inteligência artificial.
Então, acho que a gente precisa fazer uns pequenos ajustes nessa área, mas com esses ajustes a gente com certeza vai criar um regime que, ao mesmo tempo, protege os cidadãos brasileiros, mas sem inibir a inovação, que é essencial para o futuro do país.
Obrigado. (Palmas.)
R
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Muito obrigado pela palavra, Sr. Marcos Barbosa Pinto, Secretário de Reformas Econômicas do Ministério da Fazenda.
Concedo a palavra agora à Sra. Ana de Oliveira Frazão, Professora de Direito Civil, Comercial e Econômico da Universidade de Brasília. A senhora é muito bem-vinda.
A SRA. ANA DE OLIVEIRA FRAZÃO (Para exposição de convidado.) - Bom dia a todos.
Senador Carlos Viana, Senador Eduardo Gomes, todos os Senadores aqui presentes, senhoras e senhores, é com muita honra que ocupo aqui esta tribuna para tratar de um assunto que eu considero dos mais relevantes da atualidade - talvez, ao lado da pauta ambiental, seja realmente um dos problemas mais prementes e urgentes. E acho muito interessante que estejamos tendo essa discussão, Srs. Senadores e todos os demais, no momento em que parece que caminhamos para uma convergência em torno da necessidade de se regular a inteligência artificial; ou seja, se antes a pergunta era o se, talvez hoje a gente tenha evoluído para o quando e para o como. Até por isso, acho muito interessante reforçar aqui alguns desses aspectos, muitos já tratados em manifestações anteriores, inclusive na manifestação do próprio Senador Eduardo Gomes, porque às vezes temos visto algumas orientações que, embora sejam muito diferentes, a meu ver, levam a um mesmo resultado: ou uma orientação no sentido de que talvez tenhamos que esperar um pouco mais, discutir um pouco mais, esse não seria o momento adequado, ou orientações no sentido de que um projeto com as características do PL 2.338 não fosse o ideal e talvez tivéssemos que optar por algo mais principiológico. A meu ver, o Senador Eduardo Gomes foi muito feliz quando ele nos disse que projetos excessivamente ambíguos, excessivamente amplos ou principiológicos correm, na verdade, dos riscos: ou na verdade de não terem nenhum tipo de efetividade - é a regulação que não regula -, ou na verdade de terem que ser densificados, no caso a caso, pelo Poder Judiciário, sem parâmetros mais acertados, gerando enormes problemas de insegurança jurídica.
Então, nesse sentido me parece que, sim, o PL 2.338 e a tramitação que vem sendo dada a ele respondem a vários dos nossos anseios atuais. Temos aqui um projeto, uma regulação que, de fato, é uma regulação robusta, que se baseia em direitos daqueles que são afetados, mas também em deveres de todo esse ecossistema de inteligência artificial e que também está tendo na sua tramitação, a meu ver, a urgência que ele merece.
Na verdade, nós poderíamos ficar aqui horas só falando dos riscos e dos danos da inteligência artificial para mostrar que não estamos aqui falando de especulações ou de conjecturas. Esses danos e esses riscos são reais e já foram mencionados aqui em tantas manifestações. Vivemos hoje numa sociedade, por assim dizer, de vigilância e de classificação, ou seja, são sistemas de inteligência artificial que dizem quem somos, quem seremos, a que direitos teremos acesso, a que produtos ou serviços teremos acesso, sob que condições e, como foi dito, não raro, com um potencial discriminatório imenso, que já tem sido mapeado na literatura em tantas pesquisas. Mais do que isso, estamos vendo aqui um movimento de uma verdadeira terceirização de aspectos importantes tanto das atividades privadas como das atividades públicas para esse sistema de inteligência artificial, gerando, inclusive no setor público, uma estranha parceria público-privada no sentido de que tem ocorrido sem os devidos cuidados, sem a devida transparência, sem a devida accountability. E na verdade todo esse sistema tem se desenvolvido atualmente com muito pouca transparência, com uma grande opacidade, de maneira que cidadãos, consumidores, muitas vezes, nem mesmo têm noção dessas práticas e, portanto, não têm como defender os seus direitos.
R
Os impactos, portanto, à vida dos cidadãos brasileiros, do ponto de vista dos direitos fundamentais, são enormes. No plano social e coletivo, a inteligência artificial, cada vez mais, interfere na economia, na sociedade, na política. Temos visto aí as discussões recentes sobre o problema da inteligência artificial na questão democrática, na questão das eleições, de maneira que me parece que, sim, precisamos discutir e debater esse assunto e para já; não há mais tempo a se esperar.
Há muitas discussões sobre qual é o momento certo para se regular a tecnologia. Todos nós sabemos que uma regulação açodada, certamente, pode inibir indevidamente a inovação, mas também todos nós sabemos que, se esperamos demais, os riscos também são muito grandes.
Para além desses danos e riscos já mencionados, nós vamos ter uma série de outros fenômenos, como, talvez, o enraizamento de práticas que já acontecem hoje num tal nível que vai ser muito difícil de se reverter, até mesmo em razão de uma série de questões, como dependência de trajetória.
Então, me parece que talvez estejamos, sim, no limiar da janela regulatória. Já avançamos tanto com a inteligência artificial, já comprometemos tantos direitos, já criamos tantos riscos, já assumimos tantos danos que não podemos mais aguardar.
Nesse sentido, me parece que, sim, esse Projeto 2.338, ainda mais com todos os aperfeiçoamentos que foram feitos a ele, responde a várias dessas dificuldades. Como já foi mencionado aqui, é uma regulação por risco, que já é um primeiro grande mérito desse projeto. Estamos diante de um modelo regulatório absolutamente avançado e contemporâneo, que vê a inteligência artificial não como um bloco monolítico, mas, sobretudo, a partir de diversas aplicações, potenciais e riscos e que vai procurar ajustar a regulação para essas diversas configurações, até para não inibir excessivamente a inovação e o próprio desenvolvimento tecnológico.
Parece-me, também, que temos um ponto muito positivo e que veio aqui, nessa redação final. Estamos diante de uma classificação de riscos que não apenas é uma classificação coerente. Portanto, temos riscos excessivos, aqueles que não podem ser assumidos; temos os altos riscos, que estarão sujeitos a um regime regulatório mais rigoroso, como era de se esperar, sob pena do comprometimento de direitos fundamentais, questões democráticas e tantos outros valores inegociáveis. E, fora dessas categorias, então, teremos uma flexibilidade muito maior por parte de todos os que desenvolvem essas tecnologias.
Parece-me também que é muito importante a taxonomia de riscos, tal como consta da atual versão. É claro que vamos poder discutir aqui alguns ajustes a questões que, talvez, mereçam um cuidado, mas, do ponto de vista da segurança jurídica, é muito importante que possamos, desde já, estabelecer essas diferenças.
Aqui ressalto mais um mérito do projeto: ao meu ver, se conseguiu aqui um equilíbrio muito difícil entre a segurança jurídica, porque já se oferece o que são as hipóteses de alto risco, de riscos excessivos, mas também com uma preocupação de não engessar o sistema, admitindo-se, portanto, a atualização desses riscos, a partir, claro, do SIA, que também tem um ponto positivo, porque resolve uma série de inquietações do ponto de vista regulatório, ou seja, como uma autoridade competente para a regulação de inteligência artificial vai poder, na verdade, dialogar e cooperar com atividades setoriais, com agências reguladoras e, na verdade, o que se buscou aqui foi implementar um sistema de bastante cooperação.
R
E eu também acho, Srs. Senadores, que, como uma boa regulação por riscos, o projeto atende a uma série de demandas hoje do que nós chamamos de uma regulação responsiva. Ele, é claro, traz para o Estado algumas responsabilidades fundamentais, até para assegurar que essa legislação tenha eficácia, mas, ao mesmo tempo, valoriza as iniciativas individuais, valoriza a autorregulação, cria uma série de canais de diálogo e participação.
A própria atualização de riscos tem todo um cuidado para possibilitar a participação popular, a análise de impacto regulatório, de maneira que, dentre todos os desafios que estão por trás de um tema tão difícil e tão complexo, me parece que, nas suas linhas estruturais, esse projeto conseguiu equilíbrios muito difíceis e, ao mesmo tempo, muito felizes.
É claro que ajustes pontuais podem ser pensados e é por isso que estamos aqui discutindo esse tão importante projeto, mas, de forma geral, em termos de linhas mestras, me parece que, sim, esse resultado final responde à necessidade de regulação imediata da inteligência artificial, a partir de um modelo robusto...
(Soa a campainha.)
A SRA. ANA DE OLIVEIRA FRAZÃO - ... que trata, sim, de deveres que seriam obrigatórios a todos aqueles que se dedicam ao desenvolvimento e à aplicação dessa tecnologia, mas, ao mesmo tempo, procurando modular esses regimes regulatórios de acordo com o risco e de acordo, então, com o impacto, especialmente sobre a vida dos cidadãos, sobre a sociedade e sobre a própria democracia.
Então, eu agradeço muito a oportunidade de participar desta audiência e desejo excelentes trabalhos nas próximas etapas desse projeto. Muito obrigada. (Palmas.)
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Obrigado à Sra. Ana de Oliveira Frazão, Professora de Direito Civil, Comercial e Econômico da Universidade de Brasília, pelas palavras que nos alentam muito e àqueles que vêm acompanhando o relatório que está sendo produzido.
Convido agora o Sr. Rafael Zanatta, Diretor da Associação Data Privacy Brasil de Pesquisa, para a palavra. Ele está remoto, então teremos um acompanhamento.
Sr. Rafael, meu boa tarde, muito bem-vindo.
O SR. RAFAEL ZANATTA (Para exposição de convidado. Por videoconferência.) - Muito obrigado. É um prazer muito grande estar aqui.
Eu queria, primeiramente, em nome da Data Privacy Brasil, registrar o agradecimento ao Senador Carlos Viana, também ao Senador Eduardo Gomes, que têm feito um trabalho legislativo importantíssimo nesse tema, e também retomar uma trajetória que já vem de quatro anos na nossa organização. Nós participamos da consulta pública do MCTIC em 2019, propondo regras antidiscriminatórias; participamos do debate do PL 21, de 2020, em que defendemos um modelo de regulação baseado no risco, que está contemplado no PL 2.338; participamos das audiências públicas em 2022, em que apresentamos propostas de regulação policêntrica, que também estão representadas no sistema, no SIA, em uma abordagem preventiva.
Então, o primeiro comentário superimportante acho que é, reforçando o que o Senador disse, a busca de um modelo brasileiro que seja capaz de dialogar com valores da nossa sociedade e os valores que são constitucionais e republicanos. Essa fala é importante porque é preciso desmistificar a ideia de que o Brasil teria que seguir simplesmente a Europa ou os Estados Unidos no modelo de regulação. Isso não é verdade. Nós, brasileiros, temos que pensar de forma autônoma, e a construção do PL 2.338 reflete isso porque concilia a regulação do risco com vários valores constitucionais importantes.
Nós participamos recentemente de uma das maiores conferências científicas de proteção de dados pessoais e IA, que é a CPDP, em Bruxelas. O texto brasileiro, a versão em inglês traduzida, foi muito elogiado pelos cientistas e acadêmicos do campo. Isso é um sinal muito positivo de um equilíbrio entre direitos, risco e inovação, e uma percepção até global de que existe uma construção brasileira acontecendo. Isso é muito importante.
R
Eu gostaria de reforçar que os conceitos de contestabilidade, não maleficência, prevenção e precaução, tais como estão previstos no art. 3º, incluindo também a proteção integral das crianças e dos adolescentes, são avanços muito importantes do texto. Apesar de parecerem conceitos muito novos, eles estão profundamente conectados com elementos básicos de defesa do consumidor, de direito ambiental e direito das crianças.
Também é importante, e reforço o elogio, essa ideia de compartilhar a responsabilidade entre os atores. O modelo sofisticado de regulação do risco avança nesse sentido, porque ele pressupõe que o Estado é incapaz de conhecer todos os riscos que o progresso técnico e a IA vão produzir. A cognição do risco é um exercício democrático, compartilhado por vários atores. Esse exercício democrático de cognição do risco significa exigir transparência, obrigações de qualquer nível de risco produzido, que é atingido pelo modelo que está proposto no 2.338. Isso é muito feliz, é no sentido de avançar um equilíbrio entre essa abordagem baseada no risco e os direitos fundamentais.
Também registro o elogio a essa compatibilização com o fomento a políticas públicas, como reforçado também pelo Secretário João Brant, no sentido de um estímulo à economia brasileira do conhecimento, e essa versão do substitutivo também traz um avanço importante nesse sentido.
Com relação aos direitos fundamentais, que é um ponto muito caro à nossa organização, acho que além desses elementos de contestabilidade e transparência e o capítulo sobre direitos, é crucial a manutenção e o avanço da ideia de um direito a não discriminação ilícita e abusiva, a correção dos vieses discriminatórios diretos, indiretos, ilegais e abusivos, que estão previstos no art. 5º, no inciso IV.
Registro também o elogio muito forte à remoção das armas autônomas do ordenamento jurídico no sentido de reconhecimento de um risco inaceitável, isso de fato não é compatível com uma lei de IA, foi muito criticado pelas entidades civis, pela Coalizão Direitos na Rede e por diversos grupos especializados em direitos fundamentais. Então a identificação de que as armas autônomas intensas em IA produzem um risco inaceitável é muito importante.
E é muito importante também a retomada da discussão da moratória do reconhecimento facial diante das várias evidências já trazidas de pesquisas em ciências sociais sobre o impacto para as populações vulnerabilizadas. Como nós temos um mandamento constitucional de diminuir as opressões aos grupos já vulnerabilizados no Brasil, é uma questão de coerência constitucional a retomada da discussão de moratória, cabendo uma modificação então no art. 13, inciso VII, nesse sentido.
E um elogio também muito forte é à conexão que o texto traz com a discussão contemporânea feita pelo Brasil no G20 sobre as infraestruturas públicas digitais e os arranjos científicos de fomento à IA e o papel estratégico que o Brasil pode ter em compras públicas, no sentido de fomento a uma economia nacional, uma economia brasileira do conhecimento, reforçando as capacidades de cientistas, de empresas, de empreendedores avançarem nesse segmento.
Essa introdução do capítulo de fomento à inovação é bastante importante nesse sentido. Bem como dito pelo Secretário e pelo pessoal do Ministério da Fazenda, com muita propriedade, a retomada da regulação assimétrica garantindo uma facilidade a esses entrantes, que é um ponto importante já feito inclusive no campo da proteção de dados pessoais pela Autoridade Nacional de Proteção de Dados Pessoais e que se mostrou exitoso, isso traz um avanço significativo.
Por outro lado, acho que há também duas preocupações que valem muito a discussão desta Casa, dos Senadores, do ponto de vista de um olhar atento ao texto. A primeira é uma dimensão dos direitos das crianças em razão desses riscos aos direitos da personalidade, que são muito severos. Inclusive, ontem houve uma matéria do Jornal Nacional mostrando os riscos de utilização de imagens de crianças em produção de datasets, de bases de treinamento de dados para sistemas de IA generativa. Esse tem que ser um olhar atento do Congresso brasileiro.
R
E é necessário um olhar atento também para a dimensão do trabalho. Não existe sistema de IA sem trabalho humano. Existe uma camada enorme de trabalho invisível, responsável pela rotulagem dos dados, pela moderação do conteúdo, pela supervisão do aprendizado de máquinas. Os cientistas da computação do mundo inteiro estão discutindo hoje a dignidade do trabalho em sistemas de inteligência artificial, ou seja, como ocorrem os processos de terceirização e como o direito pode se posicionar mais firmemente em torno da dignidade do trabalho de dados e do trabalho de IA.
A lei brasileira traz esse avanço importante de reafirmar a centralidade do trabalho digno na regulação da IA, porque esse é um valor importante do nosso pacto constitucional de 1988. Nós temos esse compromisso constitucional de valorização do trabalho, de um trabalho digno, como disse também o Senador Eduardo Gomes na sua apresentação.
E, por fim, o último comentário que a o Data Privacy gostaria de registrar é a conexão que o painel de especialistas proposto no texto pode ter, no sentido de um painel de especialistas que tem um papel consultivo e não deliberativo integrado ao SIA, que é a conexão com o desenho que está se fazendo na ONU sobre o pacto do futuro e o Pacto Digital Global.
Eu estive recentemente em conversas com diplomatas na ONU, em visita sobre as negociações do Pacto Global Digital, e a ideia de um sistema composto por painéis de especialistas de regulação de IA no sistema global tem avançado bastante. E o Brasil, ao formular isso, pode tentar acoplar painéis de especialistas e cientistas nacionais em diálogo com a estrutura global. Isso promove um arranjo local e global muito importante do ponto de vista de uma regulação sofisticada.
E também registro a centralidade, o conhecimento e a capacidade que as entidades civis, que no Brasil se especializaram há bastante tempo na pesquisa sobre direitos digitais e IA, podem ter nesse diálogo. Então, é importante não só a construção com as empresas e com os cientistas da computação que estão no setor privado, mas também com os cientistas que trabalham para o interesse público e o conhecimento produzido por entidades civis que são de interesse público.
Então, registro profundamente o agradecimento e desejo um trabalho excelente aos Senadores na condução da leitura e discussão do texto.
Obrigado. (Palmas.)
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Obrigado ao Sr. Rafael Zanatta, Diretor da Associação Data Privacy Brasil de Pesquisa, por dez minutos.
Essa sugestão de um pacto global para a formulação é muito bem-vinda. Nós temos uma experiência muito exitosa aqui no Congresso Nacional, especialmente no Senado, que foi o marco do câmbio, em que eu fui, inclusive, o Relator. Nós temos um grupo de trabalho que se reúne nos Estados Unidos a cada seis meses e lá se apresentam os casos e as sugestões de melhoria na legislação na questão do combate ao tráfico de drogas e ao financiamento do terrorismo internacional. Isso resultou de uma série de acordos internacionais. Foi feito um pacto para o combate ao terrorismo e à lavagem de dinheiro, do qual nós brasileiros fazemos parte - eu sou um dos representantes. E a nossa legislação hoje com relação ao Banco Central e ao controle de moeda é considerada uma das mais modernas do mundo.
Essa proposta é muito interessante para que a gente possa avançar conjuntamente. Creio que, posteriormente à nossa votação, possamos o Senador Eduardo Gomes e eu trabalhar nessa questão de tornarmos internacionais as decisões brasileiras.
R
Concedo a palavra, agora, ao Sr. Procurador Marcos Antônio da Silva Costa, Procurador Regional da República, Coordenador do Grupo de Trabalho Tecnologias da Informação e da Comunicação da 3ª Câmara de Coordenação e Revisão do Ministério Público Federal.
Muito bem-vindo.
O SR. MARCOS ANTÔNIO DA SILVA COSTA (Para exposição de convidado.) - Bom dia a todos.
Exmo. Sr. Senador Carlos Viana, Presidente; Exmo. Sr. Senador Eduardo Gomes, Relator, a quem agradeço a atenção com o GT-TIC e a 3ª Câmara de Coordenação e Revisão do Ministério Público Federal.
Essa nossa Câmara é coordenada hoje pelo Exmo. Sr. Subprocurador-Geral da República Luiz Augusto Santos Lima e é o órgão cameral que cuida, no campo civil, da temática da ordem econômica e do consumidor.
O GT-TIC é um órgão auxiliar dessa 3ª Câmara, onde fizemos um estudo e o encaminhamos à Comissão Temporária de Inteligência Artificial, com as reflexões que nós produzimos nesse nosso grupo, fruto de um trabalho coletivo que envolveu oito Procuradores da República e contou também com o apoio do Centro de Informática da Universidade Federal de Pernambuco e com o Prof. Geber, que ali está e que daqui a pouco falará também.
É claro que estamos diante de um desafio e de uma oportunidade de inovação legislativa. Nesse ponto, trago o exemplo de uma histórica inovação deste Parlamento, regulando uma matéria igualmente complexa.
A Lei da Política Nacional do Meio Ambiente foi aprovada em 1983, um texto estruturante, conquanto enxuto. Quarenta e um anos depois, essa lei continua sendo a coluna vertebral do direito ambiental brasileiro, com o reforço, cinco anos depois, em 1988, do Capítulo do Meio Ambiente, da Constituição Federal, inspirado também pela Lei da Política Nacional de Meio Ambiente. Essa é uma lei que já produz efeitos e é essa a espinha dorsal há 41 anos.
Nessas duas oportunidades, o Parlamento brasileiro, em 1983 e 1988, mostrou a capacidade de iluminar os caminhos das políticas públicas nacionais em temas desafiantes nas perspectivas social, política, econômica e técnica.
Por certo que a IA é uma matéria complexa, aqui e alhures, como também reconheceu o Senado americano, agora em maio, depois de uma sequência de consultas e audiências com as principais empresas, profissionais e acadêmicos de IA do mundo. Essa, contudo, não é nem a primeira nem a última matéria complexa a ser regulada pela humanidade. Não custa lembrar que viver é complexo e que, na máxima do romano Terêncio, tudo o que é humano nos pertence. Não há complexidade que não possa ser explicada e regulada pelos cidadãos e seus respectivos parlamentos. E essa atuação regulatória assume múltiplas formas e amplitudes.
Neste momento de urgência, as reflexões dos cidadãos e dos diversos segmentos da sociedade, nos seus Parlamentos, são fertilizadas pelo contexto das incertezas, campo propício da aplicação do princípio geral da precaução, também aplicado no campo da legislação. A incerteza não pode nos paralisar. E podemos caminhar ao lado dela, humildemente, construindo certezas. Precisamos de uma regulação incremental e especialmente sólida na parte estruturante de definição das fundações da política brasileira de IA, a exemplo do que o Parlamento brasileiro fez em 1983, com a Política Nacional do Meio Ambiente.
Não é de hoje a nossa grande capacidade de inovação legislativa. A história parlamentar brasileira é prenhe de soluções próprias, amalgamando reflexões internas, com subsídios externos. E o Brasil, com já diziam os nossos modernistas, há um século, não se conforma apenas em copiar boas soluções de outros países sem que isso signifique desconsiderar esse olhar necessário de boas práticas internacionais.
R
No momento, estamos diante de duas abordagens principais de como regular a IA: o modelo da Europa, com o regulamento de IA aprovado no final de 2023; e, de certa forma, o modelo dos Estados Unidos, que, depois de uma sequência de audiências, reuniões, com os principais atores em IA, oferece uma perspectiva mais focada em manter a hegemonia dos Estados Unidos do que, propriamente, regular internamente. Encaminham-se para uma regulação, por partes, em mais de um tipo de legislação. Isso foi fruto de um trabalho extenso, bipartidário, nos Estados Unidos. Nós temos, então, esses dois caminhos; no momento, estamos diante dessas duas abordagens, e, mais uma vez, o Brasil saberá como amalgamar.
O projeto em discussão neste Senado é um projeto que avançou, fruto de uma reflexão que envolveu múltiplos atores e que reflete esse caminho de construção e de síntese de uma visão nacional.
Dos tópicos do projeto, eu chamo a atenção para alguns temas.
O projeto não usa o termo "política nacional", mas, no seu primeiro artigo, poderia usar, porque ali é uma política nacional. Nós estamos aprovando uma política nacional de inteligência artificial. Todo o formato do projeto é uma política nacional.
Sobre a autoridade nacional, a chamada autoridade competente, era importante que se tivesse assim definida essa autoridade. E aqui eu chamo a atenção porque o Senado e o Parlamento brasileiro já aprovaram o formato de outras agências cujos diretores passam, inclusive, pela aprovação deste Senado, inclusive a Autoridade Nacional de Proteção de Dados, uma das mais recentes autoridades regulatórias do país. Então, faz sentido se manter esse mesmo formato, porque IA é, talvez, a principal espinha dorsal dessa ordem digital que se constrói neste momento, em todas as perspectivas.
Um outro tópico que chama a atenção também é a existência de um conselho nacional. O projeto fala e recomenda muito firmemente para todos os entes da Federação uma atuação multissetorial, com a participação dos diversos segmentos. Nas diversas políticas que temos, desde a Política Nacional de Meio Ambiente, nós temos uma ideia de conselho nacional. E aí você tem formatos diferentes: tem a Comissão Nacional de Biossegurança; tem o Conselho Nacional de Meio Ambiente; o Conselho Nacional de Saúde; e outros conselhos cuja participação é mais reduzida, mas existe sempre a perspectiva de existência de um conselho nacional.
O projeto também indica - e isso está também no projeto europeu - a importância de um painel de especialistas, mas não o indica, talvez de uma forma efetiva, como um dos integrantes desse sistema nacional de inteligência artificial que está sendo construído por essa lei. Então, era o caso de deixar isso específico: a existência de um conselho nacional e de um painel científico, inclusive para atuar em apoio a esse novo sistema que está sendo construído.
R
Um outro tema interessante também e importante é que nós temos um Sistema Nacional de Ciência, Tecnologia e Inovação, fruto de uma emenda constitucional que foi aprovada em 2015, salvo engano. Essa política nacional que nós estamos construindo se insere também nesse Sistema Nacional de Ciência, Tecnologia e Inovação, que tem sede constitucional. Então, é importante também que se deixe talvez um pouco mais evidente a conexão com o Sistema Nacional de Ciência, Tecnologia e Inovação brasileiro.
Do ponto de vista da regulação, existe, numa leitura feita nos últimos dias, a identificação de que, às vezes, se fala que a regulação é da autoridade competente e, em outros momentos, consta que é do Poder Executivo. E você tenha aí talvez que perceber se seria da autoridade de inteligência artificial ou se seria do Poder Executivo, e aí pode ser qualquer uma outra autoridade.
O modelo que se está construindo é um modelo importante do ponto de vista de conectar a regulação específica na área de tecnologia com a regulação específica das agências reguladoras dos mercados que já existem, mas talvez seja preciso deixar claro o processo de coordenação, pois eventualmente você pode construir uma dupla regulação e onerar os atores que serão regulados duplamente, às vezes, em um mesmo tipo de aspecto.
(Soa a campainha.)
O SR. MARCOS ANTÔNIO DA SILVA COSTA - Para finalizar, eu trago aqui a reflexão que o GT-TIC incluiu no seu estudo.
O GT-TIC entende que é muito importante para o país:
[...] uma Política Nacional de Inteligência Artificial, complementada por uma Estratégia Nacional de Inteligência Artificial, executada por um Sistema Nacional de Inteligência Artificial, liderado por um Conselho Nacional de Inteligência Artificial e um órgão técnico [...] [regulador] - agência, comissão, autoridade, etc. - para regulação da inteligência artificial, definindo-se os contornos materiais e procedimentais da regulação, com especial atenção à proteção das pessoas e dos trabalhadores, à definição das responsabilidades e do procedimento administrativo regulatório, aberto a modalidades dinâmicas e experimentais de regulação, além de incentivos à cooperação com outros sistemas e órgãos regulatórios e da previsão do fomento da atividade de inovação, empreendedorismo, pesquisa, capacitação e educação em inteligência artificial, devidamente integrado ao Sistema Nacional de Ciência, Tecnologia e Inovação.
(Soa a campainha.)
O SR. MARCOS ANTÔNIO DA SILVA COSTA - Por fim, estamos em uma nova corrida espacial. No passado, o espaço era o sideral, agora é o espaço digital. E aqui talvez eu trago uma experiência que este Parlamento criou quando se deu a corrida espacial. Nós criamos o Instituto Nacional de Pesquisas Espaciais e talvez seja o caso de criarmos o Instituto Nacional de Pesquisa em Inteligência Artificial, porque precisamos também garantir recursos para a academia, para o setor privado, para as nossas startups.
Então, este Senado, em especial, e o Congresso Nacional saberão, com inovação legislativa, fixar as fundações da Política Nacional de IA na defesa dos direitos fundamentais, articulando ciência, tecnologia e inovação e colocando o Brasil em posição favorável de participar efetivamente dessa nova aventura humana.
Muito obrigado. (Palmas.)
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Obrigado ao Sr. Procurador Marcos Antônio da Silva Costa, Procurador Regional da República e Coordenador do Grupo de Trabalho Tecnologias da Informação e da Comunicação.
Os pontos principais eu mesmo anotei, mas toda a nossa assessoria também está acompanhando, a do Senador e a minha, para que a essas sugestões a gente possa também dar sequência.
Concedo a palavra a Sra. Dora Kaufman, especialista em inteligência artificial. Muito bem-vinda!
Está remota conosco? (Pausa.)
Sim.
Então, meu bom-dia ainda, não é? Não almoçamos.
Bom dia, Sra. Kaufman. Bem-vinda!
R
A SRA. DORA KAUFMAN (Para exposição de convidado. Por videoconferência.) - Bom dia, bom dia a todos.
Primeiramente, eu parabenizo a Comissão Temporária, nas figuras dos Senadores Carlos Viana e Eduardo Gomes, a quem agradeço a carinhosa menção à minha contribuição no seu discurso inicial.
Bom, primeiro, não é trivial regulamentar uma tecnologia da natureza da inteligência artificial - eu tenho acompanhado o processo europeu, parte do processo nos Estados Unidos e aqui, desde o início -, haja vista ter todos os desafios mundo afora. E, além disso, não basta definir o escopo da lei. Talvez o maior desafio seja a implementação e a fiscalização à obediência da lei. O processo europeu foi finalizado, a primeira etapa, e temos um documento de 485 páginas e o grande desafio de como implementar e fazer com que a lei seja obedecida.
Primeiro, fazendo um comentário bem geral, uma lei de IA, para ser eficaz, no meu ponto de vista, precisa, primeiro, dialogar e contribuir com uma governança global. Temos que inserir o Sul Global, o chamado Sul Global, nas articulações do Norte Global, principalmente entre os Estados Unidos e a Europa. Esse, inclusive, foi um dos temas abordados ontem - eu estou aqui em São Luís, num dos fóruns relacionados ao G20. É muito importante a gente se inserir. A inteligência artificial não é uma tecnologia que tem fronteiras definidas.
Segundo, é fundamental também equilibrar a proteção dos direitos individuais, a inovação, o desenvolvimento da própria tecnologia.
Terceiro, é muito importante também prever custos de conformidade razoáveis, que não incentivem a extraordinária concentração de mercado. Se os custos forem muito altos, isso favorece as grandes empresas, que têm estruturas e condições de estar em compliance com custos altos, o que não é a mesma situação do resto do mercado.
E, por último, nessas observações gerais, é importante - e eu saúdo, porque, de fato, tem uma mudança dessa nova versão do PL 23 - conceder o protagonismo de regulamentar e fiscalizar as agências setoriais, respeitando as especificidades de cada domínio de implementação.
É muito difícil, assim, para mim - parece-me um exercício quase que impossível -, definir questões muito gerais em relação à regulamentação e fiscalização. Acho que cada domínio de implementação tem as suas particularidades, que devem ser respeitadas, e ninguém melhor do que as agências regulatórias setoriais, inclusive porque, no Brasil, nós temos uma vantagem: o fato de nós termos já agências com um grau de maturidade suficiente para assumir essa missão.
Bom, aí eu vou fazer alguns comentários específicos - o tempo é limitado - sobre o PL em si.
Primeiro, no Capítulo 1, Disposições Preliminares, retira-se do escopo do projeto o uso de IA por padrões e formatos abertos e livres. O tratamento dado aos sistemas de código aberto, na minha opinião, deveria ser melhor equacionado. Parece-me que não é factível retirar do escopo da lei, porque não estão isentos de causar danos. Então, eu sugiro que seja revisto esse ponto.
No art. 2º, IV, Proteção ao Meio Ambiente, o PL prevê proteção ao meio ambiente e um desenvolvimento ecologicamente equilibrado.
R
Eu acho que esse tema é crítico. Todos nós... Acho que já tem um consenso ou quase um consenso - eu espero que tenha um consenso - no sentido de que hoje a grande ameaça existencial à sobrevivência da humanidade está nas mudanças climáticas e na sustentabilidade do meio ambiente. Então, eu sugiro que se estabeleçam obrigações, que o PL estabeleça obrigações e indicadores específicos em relação ao meio ambiente. A inteligência artificial tem o potencial de contribuir positivamente com o meio ambiente, mas ela precisa ser uma IA sustentável. A técnica que hoje permeia praticamente todas as implementações é intensiva em dados e, consequentemente, intensiva em processamento computacional, que tem impacto negativo no meio ambiente. Então, eu sugiro que o PL estabeleça indicadores específicos à obrigatoriedade de se desenvolverem e de se adotarem sistemas, modelos de inteligência artificial sustentáveis.
No art. 3º, ainda no Capítulo I, o terceiro item inclui, como princípio, a supervisão humana efetiva no ciclo de vida da inteligência artificial. Essa questão de supervisão humana também precisa ser melhor discutida, primeiro, porque todo o desenvolvimento de um sistema de inteligência artificial é permeado por decisões humanas - o humano participa, não é uma tecnologia que se produz autonomamente. Então, quando a gente fala de supervisão humana, precisamos definir exatamente do que se trata. A minha sugestão ao PL ou, posteriormente, no trabalho de definir padrões específicos é de que essa parte esteja melhor clarificada. O desafio seria como padronizar essa supervisão humana.
Continuando no Capítulo I, Sistema Nacional de Regulação e Governança da Inteligência Artificial. Parece-me uma iniciativa muito interessante a criação do SIA. O meu único ponto é que eu não vejo quem seria e como estruturar uma autoridade competente. A minha sugestão é que seja formada uma secretaria executiva do SIA. Então, que o SIA (Sistema Nacional de Regulação e Governança da Inteligência Artificial) constitua uma secretaria executiva e essa secretaria executiva poderia ser rotativa entre os participantes desse sistema nacional. Eu não vejo nem a necessidade, nem como, nem quem seria e como funcionaria uma autoridade competente específica para a inteligência artificial. Acho que nós temos que nos ligar na dificuldade da ANPD no Brasil - também em todas as agências e autoridades gerais na Europa - de funcionar e de cumprir o papel de agência reguladora e fiscalizadora. Então, a minha sugestão é que seja criada uma secretaria executiva.
Ainda nesse bloco, eu sugiro especificar melhor a formação da Câmara de Mediação de Conciliação da Administração Pública Federal. Eu não compreendi exatamente como ela vai funcionar e como ela vai se articular com o Sistema Nacional de Regulação. Então, acho que não está muito claro, ou pelo menos para mim não ficou muito claro.
Por último, nesse capítulo, é o direito das pessoas e grupos afetados, que vai do Capítulo II, Seções I, II e III... Requerem padronização, e é superimportante que se defina o que são esses direitos. Ainda estão colocados de uma forma muito vaga, e eu sei que faz parte o PL ainda estar vago. Só estou reforçando a necessidade de isso ser padronizado, para, inclusive, a gente evitar uma enxurrada de processos após a implementação, após entrar em vigor a lei.
R
No Capítulo III, que trata dos riscos, eu queria fazer algumas observações.
Primeiro, ele estabelece, prevê que o fornecedor do sistema ou solução de IA deve classificar o grau de risco antes de disponibilizá-los no mercado, com base em critérios previstos nessa proposta e nas boas práticas setoriais. Também acho que essa parte tem que ser melhor explicitada, e me parece que essa explicitação deve ser atribuição dos órgãos reguladores setoriais. Porque o que seriam boas práticas setoriais ou o estado da arte do desenvolvimento tecnológico? Eu acho isso muito generalista para constar num projeto de lei. Então, talvez se poderia, pelo menos, fazer menção a que toda essa explicitação será feita posteriormente pelos órgãos reguladores setoriais.
Há dois destaques nesse Capítulo III que, se implementados adequadamente, creio que têm um potencial muito positivo de complementar o futuro marco regulatório da IA: um é a previsão de ambientes regulatórios experimentais, sandbox - acho fundamental a previsão e, de fato, a implementação de sandboxes regulatórios -; e o outro ponto de destaque positivo é o incentivo ao desenvolvimento de diretrizes de autorregulamentação e governança. São duas contribuições extremamente positivas.
Ainda no Capítulo III, há as obrigações de governança para sistemas de alto risco, incluindo a avaliação de impacto algorítmico.
(Soa a campainha.)
A SRA. DORA KAUFMAN (Por videoconferência.) - Parece-me que essas obrigações ainda estão muito complexas e custosas, e isso favorece a concentração de mercado.
Como eu disse no início, as grandes empresas sempre têm mais recursos, sob o ponto de vista jurídico, de profissionais de tecnologia especializados em inteligência artificial para fazer frente a obrigações complexas e custosas. E, nesse ponto, eu estou ciente de que tem uma menção especial, um tratamento especial às micro e pequenas empresas, mas eu acho que isso tem que ser bem equacionado, bem cuidado, considerando a relevância desse segmento na geração de emprego e riqueza e atentando-se para o fato de que, proporcionalmente, a IA generativa, por exemplo, tem favorecido mais esse segmento do que as grandes empresas - proporcionalmente.
Bom, para concluir, o projeto trata igualmente da proteção ao trabalho, trabalhadores, medidas de incentivo à sustentabilidade, direito autorais, uma série de questões de formação, capacitação, educação... Eu tenho dúvida se esse conjunto de questões não se refere mais ou tem mais adequação a uma proposta como uma estratégia nacional de inteligência artificial do que a um projeto de lei.
E, por último, eu peço, assim, em nome acho que de todos os envolvidos, dada a importância... A inteligência artificial é estratégica para o desenvolvimento do Brasil, para o futuro do nosso país, e me parece que ainda não está maduro o PL 2.338. Essa nova versão é muito superior à primeira versão, mas ainda não está madura para ser votada.
R
Então, eu faço uma solicitação de que ainda tenha um tempo para a sociedade civil discutir, debater e, de fato, a gente conseguir ter, ao final, um marco regulatório que incentive a inovação e que proteja a sociedade brasileira. (Palmas.)
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Muito bem. Obrigado pela contribuição, Sra. Dora Kaufman, especialista em inteligência artificial.
Concedo a palavra ao Sr. Marcelo Almeida, Diretor de Relações Governamentais da Associação Brasileira das Empresas de Software (Abes). O senhor tem dez minutos. Seja muito bem-vindo.
O SR. MARCELO ALMEIDA (Para exposição de convidado.) - Exmo. Sr. Senador Carlos Viana, Presidente desta sessão, Exmo. Sr. Senador Eduardo, muito obrigado pela oportunidade de nos acolher aqui no Plenário do Senado Federal para a gente debater a inteligência artificial, que, sem dúvida nenhuma, Senador, é um ponto de inflexão mundial. A gente está vivendo, de fato, uma verdadeira revolução, a exemplo de outras revoluções que vivemos ao longo da nossa história, com as suas respectivas particularidades.
Eu vou começar com uma particularidade, que é o tempo. Parece-me que a inteligência artificial imprime uma celeridade de reconhecimento de ações, fatos, direitos e deveres, que clama pela necessidade regulatória contemporânea. E temos contado nesse aspecto - é importante fazer essa observação - com a sabedoria de V. Exa., Senador Eduardo, que, pressionado pelo tempo, tem tido essa posição de amplitude para a acolhida das sugestões, para que a gente possa verdadeiramente ter os espaços de contribuição. Muitas vezes, confesso, Senador, que não vejo as minhas contribuições acolhidas, mas eu tenho absoluta certeza de que elas são ouvidas por V. Exa.
E, nessa linha, eu vou destacar quatro pontos aqui para que a gente possa, contribuindo para o debate, falar um pouco sobre essa jornada de regulamentação de inteligência artificial, visto que a Abes acompanha essa matéria desde o momento em que ela foi iniciada lá na Câmara dos Deputados, com o PL 21, de autoria do Deputado Bismarck, relatado pela Deputada Luisa Canziani, e veio para esta Casa e tomou um novo formato. Nós saímos, para trazer evidências do que estou falando, de um projeto de lei que tinha 10 artigos e agora nós temos um PL que tem 74 artigos, divididos em 12 capítulos.
E a maior diferenciação desses projetos diz respeito exatamente à criação de direitos, à criação de deveres e à criação de obrigações. Um aspecto que quem trabalha na área de tecnologia valoriza muito são os elementos incentivadores e os espaços para a realização de inovação. E aí, Senador Carlos Viana, no PL, 95% tratam de direitos, deveres e obrigações e só 5% tratam de inovações e desenvolvimento. E aí é inevitável a gente esquecer que muitas vezes a criação de deveres e a criação de direitos não necessariamente criam empregos, não necessariamente fomentam o empreendedorismo. E as obrigações em que nós temos que nos debruçar são aquelas que vão atingir as gerações futuras, que provavelmente vão aperfeiçoar os seus níveis de relacionamento, para que lidem, espero, melhor do que lidamos com inteligência artificial contemporaneamente.
R
Quando eu falo desse aspecto, também critico essa estrutura legislativa, a estrutura legislativa do projeto, porque defendemos de fato um projeto de lei que tenha uma linha mais principiológica do que dirigista em deveres, direitos e obrigações, e a gente muitas vezes não está sozinho. O Tribunal de Contas da União já emitiu uma manifestação dizendo que o excesso de criações de direitos pode contribuir para a paralisia do avanço tecnológico. Isto é uma preocupação que temos: a gente não ter espaços de evoluções tecnológicas de um país que, invariavelmente, ocupa a décima posição em matéria de tecnologia da informação no mundo, mas é o trigésimo terceiro quando estivermos tratando de inteligência artificial; e, ao mesmo tempo, temos o oitavo maior PIB do mundo.
Então, não é incomum, Senador, eu receber a seguinte pergunta: no mundo tecnológico, como é que o Brasil é o oitavo PIB do mundo e é o décimo em tecnologia da informação? E, muitas vezes, as respostas para essa pergunta estão em assimetrias representadas em excessos regulamentares, em problemas tributários e em um outro problema que, invariavelmente, a gente enfrenta, que é a escassez de mão de obra, a qual muitas vezes - já foi dito aqui pelos colegas que me antecederam -, verdadeiramente, é um desafio que precisamos enfrentar no nosso país, tendo em vista que o próprio representante do Ministério da Fazenda disse aqui da importância de investirmos em elementos de tecnologia da informação, para que a gente possa, portanto, gerar empregos de alto rendimento no nosso país.
E me parece que esse tipo de preocupação, que é uma realidade evidente, poderia estar expressado num projeto de lei que regulamenta uma ferramenta tão importante para o motor do desenvolvimento tecnológico do país. Em vez de criarmos mecanismos de direitos protetivos - e aí passo, portanto, Senador, a criticar alguns dos pontos que eu trouxe para este debate a título de contribuição, como os direitos dos trabalhadores, que estão lá previstos no art. 55 -, a gente conseguir, Senador Marcos Pontes, criar mecanismos de incentivo e desenvolvimento tecnológico. E, diga-se de passagem, V. Exa., Senador Marcos Pontes, é autor de uma PEC que vincula o PIB ao desenvolvimento tecnológico. Então, é uma PEC que a gente vê com muito bons olhos, porque nós precisamos verdadeiramente enxergar esse aspecto, para que a gente possa dar um salto de crescimento tecnológico no Brasil.
Então, dizia - eu vou falar de quatro elementos, Senador -, dos direitos dos trabalhadores, que consideram, portanto, mecanismos protetivos de vulnerabilidade. Eu queria trazer a esse aspecto um estudo que, em agosto de 2023, a OIT fez, em que ela considerava que o problema do trabalho não está na substituição dos postos de trabalho. A inteligência artificial vai trazer o aprimoramento de algumas atribuições, o que vai colaborar também para o aprimoramento dessas ações que são desenvolvidas em cada uma delas. E, além disso, o que é importante estabelecer - e também não tem, objetivamente, uma menção nesse texto - é que algumas diferenças de gênero podem ser acentuadas se a realidade contemporânea já considerar essa diferenciação. E aproveito esta oportunidade para dizer que, muitas vezes, a gente fala em viés de inteligência artificial, e a gente esquece que nós somos seres humanos que temos esses vieses, e esses vieses incorporados à ferramenta de fato ganham em escala - mas talvez a causa do problema não seja a ferramenta. A gente tem que tomar muito cuidado para não matar, rasgar a mensagem e esquecer que por detrás dela tem um mensageiro, então, a gente precisa tomar muito cuidado com esse aspecto sob a ótica regulamentar para que a gente possa atingir o ponto certo, o ponto onde verdadeiramente a gente precisa curar essa dor.
R
Com relação a direitos autorais, me parece que o texto trouxe, a partir do art. 60, uma nova concepção protetiva, mas eu receio, Senador Eduardo, que a gente possa interferir muito nos mecanismos articulados de mercado hoje. Imagine V. Exa. que muitos dos sistemas de tradução que por hora dão amplitude aos direitos autorais produzidos podem ser atingidos pela falta dessas incorporações que invariavelmente são feitas por inteligência artificial, exatamente para dar mais conhecimento às obras autorais. Então, é lógico que as questões comerciais precisam ser realocadas, mas me parece que a solução para esse ponto é uma solução que V. Exa. já utilizou com a responsabilidade civil: deixe que a regra de propriedade intelectual regulamente a matéria, assim como V. Exa. considerou que, nas questões de responsabilidade que criticávamos - e nesse aspecto, aliás, faço meu mea-culpa, V. Exa. ouviu e considerou -, as responsabilidades civis possam ser deslocadas para os seus respectivos instrumentos, para que a gente não tenha um arcabouço normativo muito amplo que possa simplesmente facilitar a concessão dos direitos na prática e gerar insegurança jurídica. Num cenário em que a gente tenha muitas atitudes reguladas, muitas questões reguladas por vários instrumentos normativos diferenciados, a gente não colabora com a segurança jurídica, o que também já foi dito.
A questão da inovação, como disse, é muito cara para nós, que trabalhamos com tecnologia, e me parece que a contemplação do sandbox não é suficiente. Precisamos, além dos espaços regulatórios que o sandbox oferece, de também termos mecanismos de inovação para o desenvolvimento de uma inteligência artificial que eu diria que é transnacional, Senador; ela não obedece a fronteiras, e é a razão pela qual precisamos criar no Brasil um espaço de produção...
(Soa a campainha.)
O SR. MARCELO ALMEIDA - ... de conhecimento que possa abarcar toda essa realidade vivida por todos nós, na palma das nossas mãos - todos nós temos um instrumento guiado por inteligência artificial na palma das nossas mãos -, para que a gente possa gerar disso um mecanismo de incentivo e aproveitamento, para aumento de circulação de recursos na economia, para que a gente possa gerar ganho exponencial de emprego, para que a gente possa dizer para a geração dos chamados nem-nem que eles têm espaço no mercado para produzir com tecnologia e garantir, portanto, com esses mecanismos, as suas inclusões, e a gente diminuir decididamente as desigualdades.
E eu queria terminar, Senador, dizendo que na Abes a gente tem um propósito que é tornar o Brasil mais digital e menos desigual. Para que a gente possa tornar o Brasil mais digital e menos desigual, nós precisamos contar com a colaboração...
(Interrupção do som.)
(Soa a campainha.)
O SR. MARCELO ALMEIDA - ... de V. Exas. para ter melhores regulamentos, melhores tributações e para que possamos, portanto, oferecer mão de obra qualificada no mercado.
Muito obrigado. (Palmas.)
R
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Primeiramente, quero agradecer ao Sr. Marcelo Almeida, Diretor de Relações Governamentais da Associação Brasileira das Empresas de Software.
Quero saudar a todos que estão nos acompanhando pelo TV Senado. Nós estamos realizando uma audiência especial de debate sobre a Política Nacional de Inteligência Artificial, que é um projeto que será votado em breve. Temos aqui especialistas de todas as áreas no país, desde desenvolvedores a juristas, que estão entregando ao país as suas colaborações.
Senador Eduardo Gomes, que é o Relator do projeto, tem um comentário?
Com a palavra, Senador.
O SR. EDUARDO GOMES (Bloco Parlamentar Vanguarda/PL - TO. Para discursar.) - Eu gostaria de cumprimentar o Senador Astronauta Marcos Pontes, que presidiu a grande maioria das sessões de debate - ao todo foram mais de 70 nessa fase da Comissão e 50 na Comissão de Juristas, fora os outros debates em outros momentos, em outras sessões das Comissões.
Ao cumprimentar o Marcelo e também a Dora Kaufman, quero dizer que esta sessão temática de debate no Plenário é uma das etapas que ainda teremos na discussão da votação final da regulamentação de inteligência artificial. Uma coisa eu aprendi nesses 23 anos de Congresso Nacional: gaveta não aumenta de tamanho. A IA não conseguiu ainda melhorar o ambiente de qualquer que seja a legislação, pela paralisia de debates sobre o tema. Então, a aprovação ocorre em diversas etapas: na Comissão Especial, no Plenário, na volta ao Plenário, nos recursos, na promulgação ou na sanção. É muito importante que tenha a cooperação de todos para vencer etapas. E aqui há um costume legislativo, por vezes até contestado pela atualização e pela informação das redes sociais, da inteligência artificial, das plataformas, que vem evitando cada vez mais aquilo que é da natureza legislativa: enquanto a gente não encontra uma harmonia completa, todo o projeto fica parado. Então, imaginem a complexidade do que nós estamos votando.
Eu concordo com o Dr. Marcelo e com a nossa Profa. Kaufman, que uns ajustes precisam ser feitos. O que a gente não pode fazer, e não precisa ser feito, é parar tudo porque tem que fazer ajustes. A gente tem que tocar o processo, votar, fazer a sessão temática, votar na Comissão com melhoramento, votar no Plenário com melhoramento, mandar para a Câmara com melhoramento, até um dia - e isso, se a previsão for bem otimista, deve ser no final deste ano - em que a lei seja votada na sua complexidade, com todo o seu perfil, não é, Senador Marcos Pontes? Que a gente possa... Nós mesmos já fizemos inserções, recuamos e avançamos por conta desse ambiente. É um ambiente geral, é uma sintonia que a gente busca na construção da lei. Mas essa é muito importante, é fundamental, mas é só uma etapa de todas as etapas que nós teremos.
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Obrigado, Senador Eduardo Gomes.
Quero saudar também o Senador Chico Rodrigues, que compõe a mesa conosco.
Nós temos apenas mais um convidado remoto, e eu vou passar a palavra para ele, o Sr. Pablo Nunes, Coordenador do projeto Rede de Observatórios da Segurança.
Muito boa tarde, já, Sr. Pablo.
V. Exa. tem a palavra, por dez minutos.
O SR. PABLO NUNES (Para exposição de convidado. Por videoconferência.) - Muito obrigado.
Prezados Senadores, prezadas Senadoras, bom dia.
Gostaria, em primeiro momento, de agradecer pela oportunidade de estar aqui, participando desta sessão.
R
Gostaria de iniciar minha fala parabenizando esta Casa por realizar o encontro de hoje e por todo o longo processo de construção do texto aqui em debate. Eu acompanho esse processo da construção do texto desde o início e não poderia iniciar minha fala sem salientar alguns pontos de avanço incluídos na última versão do texto.
É relevante mencionar que os princípios que regem o substitutivo, bem como a garantia do direito de pessoas e grupos afetados por sistema de IA, estão voltados à não discriminação direta ou indireta, ilícita e abusiva. Nesse sentido, o texto aqui discutido se alinha com a Convenção Interamericana contra o Racismo, a Discriminação Racial e Formas Correlatas de Intolerância, adotada pelo Brasil em 2021, ao prever que deve ser vetado o uso de quaisquer mecanismos que discriminem direta ou indiretamente pessoas negras, sobretudo na gestão da segurança pública. O rol de direitos garantidos pelo substitutivo reforça a ideia de uma lei que procura proteger os direitos dos cidadãos em primeiro lugar e não uma ideia perigosa de flexibilizar direitos em direção a uma suposta inovação da qual os grupos vulnerabilizados não têm acesso na maioria das vezes. É importante salientar também que o PL faz esse avanço garantindo direitos, sem, contudo, deixar de fomentar a inovação responsável e o desenvolvimento econômico.
A remoção das exclusões referentes à utilização de sistemas de armas autônomas foi não só positiva como necessária para a garantia do Estado democrático de direito no país. Temos visto o quanto o aumento da circulação de armamento no país tem promovido a degradação do tecido social, levando discussões vulgares à morte de um dos envolvidos, bem como o fortalecimento de grupos armados que têm provocado o Estado ao imporem um domínio armado em diferentes locais. Incluir armas autônomas nesse cenário acelera e complexifica o problema da violência armada no Brasil. Nesse sentido, o Senado agiu corretamente ao excluir as exceções ao uso de armas autônomas previstas na minuta anterior, pois sua inclusão no Brasil só atenderia a interesse de determinadas empresas e não da população.
A criação de um Sistema Nacional de Regulação e Governança de Inteligência Artificial também é acertada e está em linha com as melhores práticas observadas no mundo.
É especialmente digna de nota a menção à criação de um comitê de especialistas com vistas a reunir evidências e acompanhar o processo de desenvolvimento e aplicação de IA no Brasil. Por mais que o art. 71 apenas faça sua sugestão, a possibilidade de termos um comitê autônomo, multidisciplinar e diverso para acompanhar o desenvolvimento de IA no Brasil é importante e deveria estar prevista como parte integrante do Sistema Nacional de Regulação e Governança de IA.
De fato, as mudanças e o acúmulo apresentados no atual texto nos levam para uma legislação que protege os direitos dos cidadãos, mas ainda há pontos de atenção relevantes.
Na semana passada, eu ouvi de Sueli Carneiro a seguinte pergunta: "É eticamente aceitável [...] [um] projeto de país que [...] [deixe] para trás [...] a maior [...] [parcela da] população?". Nesse sentido, as inúmeras exceções incluídas para o uso de reconhecimento facial no Brasil enfraquecem o espírito de proteção de direitos que a lei traz em pelo menos cinco pontos.
Em primeiro lugar, a tecnologia de reconhecimento facial é discriminatória. Estudos realizados nos Estados Unidos com pelo menos três softwares de reconhecimento facial demonstraram que todos eles erram mais com mulheres negras do que com homens brancos, diferença essa que chega a mais de 30%. Estudos do NIST, que é o Instituto Nacional de Padrões e Tecnologia dos Estados Unidos, já demonstraram que, por mais que a acurácia dos sistemas de reconhecimento facial aumente, alguns grupos populacionais seguem tendo maiores taxas de erro. O Google, que ficou marcado pelo caso em que sua IA identificou pessoas negras como gorilas, relatou que, até o presente momento, não encontrou solução para o racismo algorítmico, e, por isso, não é permitido etiquetar gorilas em sua plataforma de imagens.
R
Dados monitorados pelo Panóptico, o projeto que eu coordeno, revelam que houve, ao menos no Brasil, 17 casos de detenções injustas com o uso de reconhecimento facial, sendo a maior parte dessas pessoas negras. Os casos são dramáticos e revelam o perigo do uso dessa tecnologia, principalmente quando se desdobram em casos de agressão e conduções vexatórias. O caso do João Antônio, que todos nós conhecemos, o torcedor sergipano que foi erroneamente apontado como um criminoso, ilustrou claramente o uso dessa tecnologia, levando o Governador a interromper o uso do reconhecimento facial no estado.
Dois: o uso do reconhecimento facial não resolve os nossos problemas de segurança pública. Em um país com uma população carcerária de mais de 800 mil presos, que cresce ano após ano, é uma mistificação imaginar que aumentar ainda mais o número de presos seja a solução. Décadas de encarceramento em massa só nos levaram ao fortalecimento das organizações criminosas que hoje estão presentes em todo o território nacional e se expandindo para outros países. Quando analisamos o perfil dos presos por reconhecimento facial, com os poucos dados que temos atualmente, vemos que a grande maioria são presos por questões relacionadas à pensão alimentícia ou tráfico de pequenas quantidades de drogas, ou seja, crimes sem violência, que poderiam ser tratados de maneira distinta à pena de privação de liberdade.
Os estados que usam reconhecimento facial atualmente não registraram reduções significativas em seus indicadores criminais após a adoção da tecnologia. Copacabana, por exemplo, que usou, pela primeira vez, a tecnologia, em 2019, registrou um aumento de roubos e furtos durante o uso da tecnologia, mostrando que as câmeras não são eficazes para reduzir crimes que atingem a população.
Em terceiro lugar, a tecnologia é excessivamente falha. Análises realizadas por diferentes organizações e centros de pesquisa revelam que a tecnologia tem limitações referentes à qualidade das imagens capturadas, iluminação e posicionamento da pessoa monitorada, aumentando exponencialmente as possibilidades de erro no reconhecimento.
As taxas de acurácia mensuradas em contextos controlados não podem ser compreendidas como confiáveis para mensurar os riscos para a população, uma vez que sua aplicação se dará sob condições desafiadoras. Além disso, nossos rostos evoluem com o tempo, mudando de aparência a partir de diferentes fatores biológicos, o que também adiciona complexidade ao uso da tecnologia.
Em quatro lugar, é bom que a gente lembre que o mundo está se posicionando de maneira mais crítica ao reconhecimento facial. Ao menos 13 cidades americanas já baniram o uso do reconhecimento facial, como São Francisco, Boston e Portland. A União Europeia já se posicionou contrariamente ao uso de vigilância biométrica, advogando por uma moratória. A Justiça argentina já proibiu o uso de reconhecimento facial, após uma série de casos de erros. A Organização das Nações Unidas enviou um pedido, em 2020, a todos os governos do mundo, para que se estabeleça uma moratória sobre o uso da tecnologia de reconhecimento facial, reconhecendo a possibilidade de uso indevido da tecnologia para violar direitos.
Em quinto lugar, as tecnologias de reconhecimento facial representam um desperdício do dinheiro público. Enquanto essas tecnologias falhas são adquiridas por estados e municípios no Brasil, há serviços públicos essenciais que estão sendo negados à população. Cidades do interior da Bahia, que receberam câmeras de reconhecimento facial, cobrem menos de 5% dos domicílios com saneamento básico adequado. Cidades de Goiás, com índices baixos de fornecimento de luz elétrica de qualidade e asfaltamento de vias também estão recebendo câmeras. Esses recursos seriam muito melhor gastos em saúde e educação da população.
Por fim, eu gostaria de mencionar, além do reconhecimento facial, as inclusões, nos incisos IX e XI do art. 14, de estudos analíticos de crime e reconhecimento de emoções, como sistemas classificados como de alto risco. Tanto software de policiamento preditivo quanto algoritmos de reconhecimento de emoções também são vistos de maneiras mais críticas na conjuntura internacional e produzem vieses importantes que não podem ser aceitos dentro de uma legislação, como a que está sendo discutida agora, que garante direitos para a população. Para garantir, então, que essa regulação de IA brasileira inclua a população negra e vulnerabilizada na construção de um projeto de país, é necessário que não se aceite que vieses e discriminações algorítmicas sejam entendidos como um mal menor ou como efeitos colaterais em prol do desenvolvimento técnico-científico.
R
O resultado de não incluir no centro dos debates o racismo, que estrutura nossas relações sociais, é bem conhecido nesses séculos de história brasileira. Temos, então, a chance de desenhar um futuro para o país que seja mais justo e que não discrimine populações que historicamente são violadas em seus direitos.
Obrigado pela oportunidade e bons debates a todos e a todas. (Palmas.)
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Muito obrigado ao Sr. Pablo Nunes, Coordenador do projeto Rede de Observatórios da Segurança. Obrigado pelas questões pontuadas, com as quais concordamos plenamente, sobre uma tecnologia que venha a tornar o país mais igual, mais justo e com mais respeito a toda a nossa população.
Eu concedo a palavra à Sra. Ana Paula Bialer, Advogada em Direitos Digitais.
Seja muito bem-vinda. Vou pedir só a gentileza de, como o Sr. Pablo, nos mantermos no tempo porque nós precisamos terminar às 13h45, antes da sessão temática do Senado, o.k.? Muito obrigado.
A SRA. ANA PAULA BIALER (Para exposição de convidado.) - Senador, muito obrigada pela palavra. Um bom dia. Bom dia, Senador Carlos Viana, Senador Eduardo Gomes, Senador Marcos Pontes, na pessoa de quem cumprimento a todos.
Antes de mais nada, gostaria de parabenizar o Senador Eduardo Gomes por sua liderança e resiliência na condução dos debates em torno do tema da inteligência artificial no Senado, assim como por sua habilidade na construção de pontes, consensos e no estabelecimento do diálogo.
A inteligência artificial é uma poderosa ferramenta que temos a nosso dispor para melhorar a sociedade. A IA permeia inúmeras atividades do nosso dia a dia. A IA traz ganhos significativos de eficiência nos processos produtivos, tornando os processos mais rápidos e melhores. A IA permite uma melhor gestão de estoque, por exemplo, para garantir que uma farmácia não tenha falta de um determinado medicamento. A IA também ajuda no SAC, oferecendo atendimento mais rápido ao consumidor. A IA é usada para o desenvolvimento mais rápido de medicamentos, para ajudar no diagnóstico mais preciso de exames médicos de imagem, e é utilizada no campo, para ajudar no planejamento da colheita, na aplicação de pesticidas. É usada para nos ajudar a trafegar pelas ruas das grandes metrópoles, assim como para compras e busca de informações online.
A inteligência artificial é, no fundo, um grande habilitador e é algo que nós, seres humanos, controlamos. O desafio que temos pela frente como sociedade brasileira é quais os contornos que queremos dar à inteligência artificial no Brasil para que possamos colher todos os seus frutos, usando-a para nosso desenvolvimento econômico e social e garantindo a proteção do cidadão brasileiro.
Poucas vezes vimos uma tecnologia transformar a nossa estrutura como sociedade de maneira tão visceral como faz a IA. Geralmente, a tecnologia chega, vai permeando as nossas vidas e se adéqua aos marcos normativos e sociais já existentes. A IA avança de uma maneira genuinamente disruptiva e traz questões filosóficas, reflexões éticas e de valores estruturantes.
R
Com esse processo reflexivo em andamento, é que o Parlamento se vê com o desafio de construir um marco regulatório para a inteligência artificial que consiga desenhar os contornos de como abraçarmos essa tecnologia, domarmos seus excessos e estabelecermos o compromisso ético de seu desenvolvimento e uso, assim como os contornos dos direitos do cidadão brasileiro nesse cenário em parte desconhecido.
Parabenizo o Senador Eduardo Gomes pelo importante passo, na última sexta-feira, com a apresentação do relatório substitutivo ao PL 2.338, na CTIA. O texto tem uma complexidade relevante que precisa ser endereçada e destrinchada.
A proposta traz avanços importantes em um projeto de regulação de IA no Brasil, com o estabelecimento de um arcabouço principiológico sólido, regras detalhadas para a governança de sistemas de IA, incorporando assim no texto legal o que se convencionou chamar de "IA responsável", e já é seguido pelas grandes empresas, fixando-se assim um espaço de responsabilização e prestação de contas para os agentes de IA. O texto também privilegia a autorregulação e a adoção de guias de boas práticas.
Avanço importante da proposta do Relator foi a criação de obrigação para o poder público de fomentar o desenvolvimento produtivo e tecnológico, assim como a inovação em IA, trazendo para o âmbito legal e potencializando as iniciativas que hoje já temos no contexto da Estratégia Brasileira de Inteligência Artificial. Hoje os investimentos do país em pesquisa e em desenvolvimento de IA são ainda tímidos considerando o potencial do mercado brasileiro, e precisamos investir no desenvolvimento dessa tecnologia, como o Senador pontuou há pouco.
Um desafio na discussão do marco legal é como equacionar a transversalidade da IA em todos os setores econômicos e no poder público. O relatório traz o reconhecimento da manutenção dos espaços de regulação setorial já existentes e indica a necessidade de um órgão central coordenador. Em que pese a necessidade de alguns ajustes nos contornos das competências do órgão central e dos reguladores setoriais, essa estrutura é um avanço importante para a garantia da segurança jurídica, em especial em setores regulados.
Um aprimoramento desejável no texto seria a criação de um espaço de interação multissetorial e a aproximação do SIA das discussões técnicas promovidas pela sociedade civil, academia e setor produtivo.
Um tema recorrente nas discussões em torno de IA é o da responsabilidade civil. O substitutivo do Relator traz uma estrutura positiva, um amadurecimento relevante ao reconhecer os regimes legais de responsabilidade já existentes, sem que o novo marco crie um regime de responsabilidade próprio e autônomo.
Eu falava, no início, do robusto impacto que a IA trará em nossa sociedade. A IA quebra paradigmas, desafia premissas e uma forma de lógica dantes dada como certa. É perigoso querermos olhar a IA com a mesma lupa que hoje usamos para compreender o mundo à nossa volta. Nesse sentido, instamos o Parlamento a uma profunda reflexão sobre a granularidade em que se busca, na proposta normativa, garantir a explicação e a informação. De um lado, preocupa que o excesso de obrigações em torno dessa premissa torne inviável a adoção de IA por inúmeros agentes; de outro, pergunta-se se a melhor política pública de fato é o estabelecimento de obrigações tão detalhadas diante do usuário da IA, em que pese o reconhecimento da importância da transparência e da explicabilidade diante do Estado.
Por fim, o texto proposto segue a referência internacional ao estabelecer uma pirâmide de classificação de risco e ajustar o peso das obrigações legais de acordo com a classificação de cada sistema. A abordagem de uma regulação baseada em risco é, de fato, a mais moderna quando se fala da regulação de tecnologia. No entanto, ao buscar estabelecer critérios que norteiem a atividade regulatória de identificação de sistemas de IA de alto risco, o projeto usa alguns conceitos ambíguos ou de aplicação muito vaga, criando um preocupante espaço de uma super-regulação da IA no Brasil, trazendo uma gama enorme de usos simplistas de IA, como os que mencionei no início, para dentro da categoria de alto risco, sujeitos, portanto, a um peso regulatório muito alto. Em especial, destacamos o critério de implementação em larga escala, pois larga escala é um aspecto estrutural da IA - IA se desenvolve em larga escala, independentemente de seu grau de risco.
R
Nesta fase final de tramitação, é essencial que se apure o texto para se trazerem clareza e precisão dos conceitos, de modo a se evitarem ambiguidades na sua aplicação e a insegurança jurídica delas decorrente.
Senhores, atravessamos um período de transcendência histórica. A inteligência artificial efetivamente inaugura uma nova era para a humanidade. Os senhores estão investidos do privilégio e da árdua incumbência de estabelecer os preceitos legais para esta era emergente, delineando os parâmetros que determinarão o êxito ou insucesso do Brasil nesse novo cenário.
O momento demanda serenidade e sobriedade, a fim de forjar um arcabouço jurídico ético, que fomente a IA responsável, a IA inclusiva; garanta os direitos do cidadão brasileiro; e garanta a inovação no Brasil.
Gostaria de concluir mais uma vez parabenizando o trabalho da CTIA, as inúmeras audiências públicas e o esforço recorrente do Senador Eduardo Gomes no âmbito do Parlamento, em todas as interlocuções e fóruns de debate, para que a gente possa caminhar no sentido de amadurecer e implementar um marco legal da inteligência artificial que seja bom para o Brasil.
Muito obrigada. (Palmas.)
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Muito bom!
Obrigado à Sra. Ana Paula Bialer, advogada especialista em direitos digitais.
Concedo a palavra ao Senador Marcos Pontes.
O SR. ASTRONAUTA MARCOS PONTES (Bloco Parlamentar Vanguarda/PL - SP. Para discursar.) - Obrigado, Presidente.
Gostaria de cumprimentar a todos que participam desta audiência e aqueles que nos acompanham também.
Sem dúvida nenhuma, esse tipo de encontro em que nós podemos discutir a inteligência artificial vista de vários aspectos é extremamente importante.
Como foi falado pelo Senador Eduardo Gomes, nosso Relator, eu tive a oportunidade de presidir a maior parte das audiências públicas conduzidas dentro das Comissões e, sem dúvida nenhuma, dali nós tiramos muitas informações importantes.
E um ponto que precisa ser ressaltado é que a inteligência artificial tem que ser vista de várias perspectivas diferentes. Uma delas é o desenvolvimento, o fomento da inteligência artificial, o desenvolvimento no Brasil. Nós não podemos ficar para trás com relação a outros países, porque, de uma forma ou de outra, nós vamos usar a inteligência artificial, seja ela feita aqui, seja ela feita lá fora. E, se ela for feita lá fora, a gente vai ter muito menos condições de saber como mitigar os riscos da utilização da inteligência artificial também.
O segundo ponto tem a ver com a aplicação da inteligência artificial, de forma que o risco que nós temos, nesse ponto de vista, é o de não ter as aplicações com toda a sua amplitude dentro do país, que podem e devem e precisam render divisas para o Brasil, aumentar a competitividade do país, aumentar o desenvolvimento econômico e social com o uso da inteligência artificial. Então, qualquer coisa que a gente faça não pode restringir essa utilização aqui no Brasil.
O terceiro ponto, logicamente, são os riscos envolvidos pela utilização da inteligência artificial.
R
Uma frase que eu gosto de repetir, que eu ouvi nos Estados Unidos quando eu estive lá discutindo a respeito de legislação de inteligência artificial, é a seguinte: é mais arriscado não utilizar inteligência artificial do que utilizar a inteligência artificial.
Você só vai conseguir mitigar os riscos da utilização se você conhecer muito bem o que você está trabalhando. E quem trabalha com gerenciamento de risco sabe muito bem dessa afirmação e do porquê dessa afirmação.
Um ponto que sempre me preocupa, quando a gente fala de legislação de inteligência artificial e quando se trata de uma tecnologia disruptiva, que evolui literalmente a minuto ou a segundo no mundo, é que ela corre o risco muito grande de se tornar completamente obsoleta no dia seguinte do seu lançamento. A partir do momento em que você tem definições muito intensas ou muito detalhadas dentro da legislação, isso coloca a gente na zona de risco de ter uma legislação de inteligência artificial obsoleta de partida, o que é terrível para o país, porque o processo legislativo demora. E, durante o período de mudança de uma lei, a gente fica completamente a mercê do que pode acontecer de forma aleatória. Então, é importantíssimo que a gente preste muita atenção para não criar uma legislação que tenha a capacidade de ser obsoleta logo de cara.
Isso envolve também um outro ponto importante que é a utilização da análise de risco. E essa análise de risco é o que traz para a gente mais segurança na utilização sem comprometer o fomento e a utilização no país; ou seja, você não quer controlar essa parte, mas, sim, os resultados da inteligência artificial.
E essa análise de riscos, no meu ponto de vista, tem que ser extremamente objetiva, para reduzir interpretações diferentes, para reduzir a insegurança jurídica tanto no desenvolvimento da inteligência artificial quanto na sua aplicação. Portanto, essa é uma preocupação primária que eu tenho.
Eu vou dar um exemplo aqui, que foi falado por um dos nossos apresentadores, com relação aos riscos éticos ou de discriminação da utilização de inteligência artificial, mais especificamente com relação à parte de reconhecimento facial. Esse é um fato. Eu vou dar o exemplo para ver como a classificação de risco de pequeno, médio ou alto risco pode mudar efetivamente de um dia para outro com isso.
A inteligência artificial, no nível que nós temos hoje de tecnologia para reconhecimento facial, pode cometer erros. Existe sempre a possibilidade de erros. E esses erros são maiores se as pessoas forem negras. Por quê? Quando você tira uma foto, você nota isso. Qualquer foto, com uma certa iluminação, se você tem pessoas brancas e pessoas negras, você vai sentir mais dificuldade de identificar o rosto ou as características do rosto de uma pessoa negra do que de uma pessoa branca na foto. Então, naturalmente, o sistema vai ter mais dificuldade de reconhecer uma pessoa negra num reconhecimento facial. Se isso for utilizado como ferramenta única para incriminar a pessoa ou trazer a pessoa para uma situação constrangedora, seria muito, muito ruim se utilizar isso aí; ou seja, hoje em dia, reconhecimento facial poderia ser classificado como alto risco, porque corre o risco de trazer uma discriminação séria.
Lembro que, nos bancos de dados para onde está olhando a inteligência artificial para procurar algum criminoso, alguma coisa, infelizmente, a população negra carcerária é muito maior do que a população branca; ou seja, naturalmente, o banco de dados tem mais pessoas negras do que pessoas brancas. Portanto, você não só vai estar olhando, procurando mais pessoas negras, como você tem mais probabilidade de erro. Então, a gente vê aí como isso pode causar um problema seriíssimo logo de cara.
R
O segundo ponto é que a inteligência artificial vai sendo aperfeiçoada com o tempo. Pode ser que isso que seja de alto risco hoje, com o aperfeiçoamento das técnicas de reconhecimento facial, passe a ser de médio ou baixo risco, num futuro próximo. Portanto, você precisa ter meios de modificar essas classificações de risco de uma forma dinâmica, periódica, rápida e usando todo o conhecimento na base de todos os setores de regulamentação, ou seja, as agências regulatórias e tudo o mais. Então, essas são algumas das considerações que a gente tem que levar em conta, agora, nesse sistema.
Então, eu queria, novamente, me colocar aqui à disposição - faço parte da Comissão também - para que a gente possa trabalhar nessa lei para que se tenha o melhor desenvolvimento aqui. Ela vai passar, ainda, por um processo legislativo, mas já vai sair da melhor forma possível daqui do Senado.
Muito obrigado. (Palmas.)
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Obrigado, Senador Marcos Pontes.
Com a palavra, o Sr. Rony Vainzof, Advogado especialista em Proteção de Dados, Consultor da Fecomercio, em São Paulo.
O SR. RONY VAINZOF (Para exposição de convidado.) - Presidente Carlos Viana, Senadores Eduardo Gomes, Marcos Pontes e demais Senadores aqui presentes, queridos colegas Fabricio da Mota Alves, Profa. Laura Schertel, Bruno Bioni, Adriana, parabéns a todos da Comissão Temporária.
A colega Bialer comentou sobre a resiliência da Comissão sobre o tema, e, realmente, a gente agradece, em nome da Fecomercio, por tanto nos ouvir e por realizar esses debates extremamente democráticos.
Confesso que estava mais confortável, aqui no Plenário do Senado, em 2018, quando discutíamos a LGPD. Havia um consenso sobre a abordagem da LGPD. Agora, há esse dissenso nas discussões, o que é bom para a democracia de uma forma geral.
Mais uma vez, o Senador Eduardo Gomes falou da importância das críticas para a colaboração nesse processo democrático. Sem dúvida nenhuma, o texto apresentado, na última sexta, traz melhorias. Algumas delas já foram reportadas aqui, como o regime de responsabilidade civil, que era, inclusive, um pleito da Fecomercio; a valorização dos órgãos setoriais, um outro ponto extremamente positivo.
Eu vou levantar aqui dez outros pontos, como forma de continuar ajudando nos debates, sempre, Senadores. E por que isso? Se por um lado há esse consenso global acerca da necessidade de se discutir a regulação de IA, por outro, parece haver um dissenso acerca da melhor abordagem. Essa divergência também existe entre as Casas deste Parlamento e entre os próprios Parlamentares, o que, obviamente, não é ruim, já que a gente pode observar e aprender a partir do impacto regulatório do que está ocorrendo mundo afora, nas suas mais diversas perspectivas regulatórias, antes de aprovarmos algo que nasça obsoleto e que prejudique a competitividade das empresas e do nosso país, sem necessariamente proteger melhor direitos e garantias fundamentais.
Nesse ponto, nós não podemos subestimar, obviamente, os riscos que o uso da inteligência artificial traz. Mas aqui tenho uma dúvida que ainda não foi superada: o que as normas atualmente existentes ainda não protegem? Vieses discriminatórios e ilícitos? Evolvem dados pessoais e a LGPD já cobre. O tratamento de dados e de imagens de crianças e adolescentes sem autorização? Novamente, a Lei Geral de Proteção de Dados, o Código Civil e o Estatuto da Criança e do Adolescente se aplicam. A falta de transparência na relação com os usuários? São aplicáveis o CDC, o Código Civil e a LGPD, quando envolver dados pessoais. E quando a IA errar, falhar ou alucinar? Novamente temos o CDC, o Código Civil e o marco civil da internet.
R
Acredito que a Lei dos Direitos Autorais precise ser atualizada, assim como a deepfake para fins ilícitos também demande regulação, mas isso pode ser feito de forma contextual, como recentemente o TSE agiu para as eleições.
O texto melhorado do substitutivo ainda traz um regime extremamente prescritivo e denso. E aqui eu vou citar alguns exemplos como forma de contribuição. O próprio relatório do substitutivo diz o seguinte:
[...] ainda que o substitutivo elaborado contemple o fortalecimento da supervisão e da revisão humana, entendemos que não é possível arbitrar que todos os sistemas de IA, sempre, em qualquer contexto, serão sempre auxiliares à tomada de decisão humana.
Porém, o art. 5º, inciso III, prevê o direito à determinação e à participação humana em decisões de quaisquer sistemas de IA, independentemente do seu risco. Isso, automaticamente, Senadores, quebra a lógica de abordagem baseada em risco e torna quase impraticáveis sistemas de IA no Brasil, pois a grande maioria desses sistemas não apresenta riscos elevados e estaria sujeita à determinação e à participação humana sob pena de responsabilização por direito não cumprido e possibilidade de judicialização em massa. E é por isso que nós sugerimos a supressão desse artigo.
Outra questão é a avaliação preliminar dos sistemas de IA antes de sua introdução no mercado para determinar o seu grau de risco e manter o registro e documentação nos últimos cinco anos para fins de responsabilização e prestação de contas. Nós também sugerimos a supressão desse artigo.
Uma outra questão é a avaliação de impacto algoritmo para IA de alto risco, com inúmeras prescrições detalhadas na própria legislação, como, por exemplo, quais são as competências dos profissionais que deverão executar exatamente esse trabalho. Será que a gente precisa prever na própria legislação quais são as habilidades e competências dos profissionais que deverão fazer as avaliações de impacto algorítmico?
Uma outra questão muito cara são as novas sanções administrativas, o que gera um temerário bis in idem, pois, de acordo com o uso de IA, há sanções administrativas a serem aplicadas pelos órgãos reguladores competentes. Nesse caso, obviamente no texto houve essa melhoria, mas aqui ainda resta uma insegurança jurídica. Um bom exemplo, aclamado, inclusive, diversas vezes pela Comissão Temporária, é o do Reino Unido, que adotou a abordagem intersetorial para regular a IA, sustentada em cinco princípios fundamentais. Os reguladores de lá já existentes, como de proteção de dados, comunicação e financeiro, estão implementando referidos princípios à medida que regulam e supervisionam a IA nos seus respectivos domínios, de forma contextual, utilizando as leis e regulamentos já existentes. Porém, a abordagem do substitutivo ainda é extremamente oposta à prevista no Reino Unido.
Nos Estados Unidos, a ordem executiva do Presidente Biden exige que os principais departamentos executivos setoriais formulem padrões, diretrizes, práticas e regulamentos consensuais da indústria para o desenvolvimento e uso da IA responsável. Da mesma forma, o nosso substitutivo não utiliza esse tipo de abordagem.
Na União Europeia, com o comentado AI Act, o qual contém 113 artigos, 180 considerandos e 13 anexos, 458 páginas de regulação, prevê-se este regime denso e prescritivo de obrigações escalonadas de acordo com o risco de IA, além de uma autoridade competente e novas sanções administrativas. Há uma discussão no mundo de que referido modelo pode ser temerário à inovação por ter falta de flexibilidade e nascer obsoleto à medida que a IA se desenvolve, como comentou agora o Senador Marcos Pontes. E o nosso substitutivo atual, além de seguir referida abordagem, traz algumas medidas que podem ser ainda mais prescritivas que o texto da União Europeia. Por exemplo: os comentados direitos dos usuários e a avaliação preliminar para quaisquer sistemas de IA que não existem na regulação da União Europeia.
R
O Marcelo comentou, recentemente, o parecer do Tribunal de Contas da União, e a gente precisa observá-lo, o qual considerou que abordagens como a ora debatida podem impactar a capacidade de inovação de empresas e do setor público nacional, como dependência de importação de tecnologia, em decorrência da estagnação do desenvolvimento da IA no Brasil; criação de barreiras para startups e empresas de menor porte; perda de competitividade de produtos e serviços brasileiros no comércio exterior; e dificuldades na retenção de profissionais da IA.
E é importante dizer que, no Brasil, 74% das micro, pequenas e médias empresas de diversos setores da economia estão usando, felizmente, inteligência artificial, e 90% delas buscam adotá-la para diversas finalidades. Nessa perspectiva, apenas para se ter uma ideia de custo-impacto regulatório do AI Act lá na União Europeia, ainda em 2021, a expectativa para a conformidade era de 31 bilhões de euros, o que poderia resultar na redução de investimentos em IA em quase 20%; para empresas de pequeno porte, mais de 400 mil euros, no caso do uso de IAs de alto risco, o que poderia representar um declínio de 40% em suas receitas.
Por aqui, no Brasil, nós já enfrentamos vários desafios de investimento, infraestrutura, desenvolvimento incipiente de pesquisa, patentes, aumento de desigualdade e fuga de talentos e de startups, o que indica o perigo de perda de competitividade e implementação da inteligência artificial. E é por isso que nós precisamos de muita cautela, entendimento sobre como a IA é projetada, desenvolvida e implantada e a análise de impacto regulatório, para encontrarmos um melhor modelo de regulação.
A prioridade deveria ser um verdadeiro plano de nação para qualificar mão de obra, inclusive, sob a perspectiva ética, pensar em mecanismos e políticas para ajudar na aceleração da adoção de IA por empresas de pequeno porte e estimular a oferta...
(Soa a campainha.)
O SR. RONY VAINZOF - ... de infraestrutura computacional para treinamento de modelos de IA.
E, nesse ponto, querido Presidente Carlos Viana, a inteligência artificial, diferentemente de dados pessoais, é uma tecnologia, e, de acordo com o seu respectivo uso, a gente precisa estressar as legislações já existentes.
E resta a pergunta: será que os riscos de nós termos uma regulação até o final do ano são proporcionais aos seus respectivos benefícios? É essa a ponderação que a gente pede que seja considerada.
Muito obrigado. (Palmas.)
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Obrigado ao Sr. Rony Vainzof, Advogado especialista em proteção de dados, Consultor da Fecomercio-SP.
Concedo a palavra à Sra. Estela Aranha, Advogada e membro do Conselho Consultivo de Alto Nível da ONU para Inteligência Artificial.
A senhora é muito bem-vinda.
Por gentileza. (Pausa.)
A SRA. ESTELA ARANHA (Para exposição de convidado.) - Bom dia a todos e a todas.
Quero começar a destacar a importância desse debate, como falou o Senador Esperidião Amin aqui.
Atualmente, eu estou no Conselho Consultivo da ONU para Inteligência Artificial, e este é um dos temas mais importantes em todos os países que nós temos visitado. Recentemente, eu fui da Arábia Saudita à Holanda, à Singapura, nas últimas semanas, e são temas relevantes. Nós somos recebidos por Presidentes, ministros, entre outras coisas, porque essa é a agenda central de todos os países. Então, quero destacar a importância desta audiência, dessa Comissão, desse projeto para o futuro e o desenvolvimento do país.
R
Eu quero começar a elogiar o processo, fazendo um reconhecimento do trabalho excepcional do Senador Eduardo Gomes e de sua equipe na sua condução e evidenciando a amplitude e a maturidade das discussões que tivemos até aqui.
Comecei acompanhando esse processo, esse projeto de lei, em 2021, na Câmara dos Deputados. Quando esse processo chegou ao Senado, na mesma semana em que o Senador foi designado Relator, nós pedimos uma reunião com ele e sempre encontramos o gabinete aberto, ouvindo nossas preocupações. Iniciamos esse longo caminho, que, depois, se constituiu em uma Comissão de Juristas, que teve um trabalho, de que eu participei, muito longo e de excelência, por seis meses; apresentou um relatório, que é uma referência, hoje, técnica sobre o tema, contando com um amplo processo de debate da sociedade, de audiências públicas, contribuições nacionais e internacionais - em um seminário internacional, esse projeto foi avaliado por grandes nomes do debate internacional. Depois, quando se criou a Comissão Especial - também com protagonismo do Senador Carlos Viana, que preside a audiência, e do Senador Marcos Pontes, que participou atentamente de todos os debates e da construção do relatório -, houve outras novas contribuições, novas audiências públicas que resultaram nesse relatório apresentado na sexta. Então, parabenizo o Senador Eduardo e todos que contribuíram com esse debate, como a Adriana e o César.
Tivemos o luxuoso auxílio de grandes especialistas, como a Laura Schertel, que também foi Relatora da Comissão de Juristas; o Bruno Bione; e o Fabricio da Mota Alves. Esse debate também contou com um amplo processo democrático e profícuo, com todos os setores do Governo Federal, de que eu participei enquanto estava na Secretaria de Direitos Digitais.
Também queria parabenizar o hercúleo e difícil trabalho de coordenação e sistematização lá do Governo, da Samara Castro, que está aqui; da Vivian Mendes, da SRI; da Giselle Favetti, lá da Casa Civil; e do João Brant, também Secretário, que está aqui, entre outros.
Eu queria trazer alguns pontos.
A primeira questão que a gente ouve é o debate sobre se está muito cedo regular. Não, não está cedo regular; se isso fosse há cinco anos, a gente entenderia. Hoje, tecnologias, por exemplo, como a IA generativa, já estão na sua infância e têm impactos diretos. Hoje, a gente vê, por exemplo, impacto direto em alguns setores como a economia criativa, direitos autorais, que podem ter impactos avassaladores agora, no próximo ano, no setor econômico inteiro, em direitos de personalidade do autor, de forma irreversível. Então, está na hora e mais do que na hora. Além de maduro o debate, como eu falei, está na hora de trazer.
Outra crítica é em oposição à regulação e desenvolvimento, que não é verdade. Uma regulação inteligente, ajustada ao risco e que protege direitos traz, primeiro, confiança numa nova tecnologia, confiança para o mercado, garantia de investimento - esse produto que vai ser entregue e disponibilizado no mercado segue algumas normas, e essas normas, obviamente, trazem um produto confiável -, e também para os cidadãos que vão ser afetados ou vão usar esse tipo de tecnologia.
Há também a questão sobre os riscos: sem legislação, a gente pode ter um mercado pouco transparente e nada regulado de softwares, fornecendo ferramentas, por exemplo, de tomada de decisão algorítmica para uso na Justiça, segurança, educação, saúde, avaliação de riscos, fraude, serviços sociais e crédito, ignorando que, em muitos desses contextos, a gente pode abrir a porta, com grande impacto, para decisões tendenciosas, errôneas, aumento de desigualdade, discriminação, trazendo consequências injustas e minando direitos fundamentais. Por isso, é muito importante esse projeto de lei que traz um refinado equilíbrio entre a segurança jurídica e a garantia de direitos, e um modelo bem moderno de regulação, que é granular, é ágil para acompanhar o desenvolvimento tecnológico e não se torna um obstáculo. E também é fruto de um amplo processo de escuta, participação, negociação de todos os setores envolvidos. E além desses elogios, podia falar pontualmente de várias questões, como, por exemplo, da solução das armas automáticas, entre outras colocadas aqui, eu queria somente trazer um debate pontual, que até foi trazido pelo colega da Fazenda, de uma inclusão pontual, se fosse possível ainda no relatório, de um tema que foi bastante assinalado pelo Senador, agora Marcos Pontes, que é um ponto central quando a gente fala de discriminação algorítmica.
R
Eu prezo muito por políticas públicas baseadas em evidências, e há fartas evidências estatísticas, científicas, de que os algoritmos apresentam vieses que levam a resultados discriminatórios, mesmo que de modo intencional. Na literatura, a discriminação é um artefato próprio do processo tecnológico de inteligência artificial e pode levar a discriminações ilegais ou injustas. Diferente dos mecanismos de discriminação tradicional, essa discriminação algorítmica pode ser menos óbvia e, portanto, de difícil identificação.
E esses vieses podem replicar e amplificar preconceitos, desigualdades existentes na sociedade e, em especial, desigualdades estruturais no Brasil: racial, gênero, classe, entre outros. E essa discriminação que não é tão óbvia, que a gente chama na literatura internacional de disparate impact, ou o impacto desigual, desproporcional em determinada população como resultado da IA, é uma forma de discriminação indireta e que você usa critérios aparentemente neutros, mas resulta numa desvantagem significativa para um grupo. E, nessa avaliação, a gente tem que dar atenção especial ao papel desempenhado pela lógica atuarial, que informa as decisões rotineiras sobre acesso a recursos financeiros, seguros e governam acesso a crédito, escore de crédito. Essa é uma lógica que molda a distribuição das oportunidades da vida da sociedade.
A lógica atuarial em si já traz uma discriminação enorme, que contribui para a criação de uma desvantagem cumulativa, reforça e reproduz disparidades, reforçando a desigualdade em um sistema de reforço e limitações mútuos, a partir dessas relações de gênero, classe e outras hierarquias sociais. Ela já é aplicada nesses setores de seguro e de risco antes da IA, e, na verdade, o sistema preditivo usa esse sistema desde os anos 70. Por exemplo, em 1974 tem uma lei de oportunidades de crédito nos Estados Unidos, que proíbe que essa pontuação de crédito use informações como sexo, raça, estado civil, nacionalidade e religião.
Desde os anos 70, há muitas legislações antidiscriminação que tratam essa questão. A Europa, quando trouxe o debate de inteligência artificial, um dos primeiros consensos foi classificar os riscos e o que é alto risco e escore de crédito, por exemplo, estava lá com os destaques. Por isso, a gente não pode usar modelos preditivos, a partir de decisões que vão mudar o futuro da nossa sociedade, não só mantendo como reforçando a discriminação, perpetrando e agravando problemas econômicos e sociais. A gente tem que ver o futuro junto com a sociedade, sem deixar ninguém para trás. A desigualdade é um dos maiores problemas do Brasil e é muito além das questões identitárias. A gente tem uma sobreposição sobre desigualdade de gênero e raça com a desigualdade de renda no Brasil.
As desigualdades racial e de gênero são os pilares da desigualdade econômica no Brasil, da desigualdade de classe. Nós estamos falando, na verdade, de igualdade de oportunidades, todos saírem de uma base comum a partir das suas capacidades de pagamento, solvência e não se ter uma discriminação de acordo de gênero e raça. Os custos regulatórios das normas expedidas, quando a gente está falando de Sistema Financeiro Nacional, essas entidades normatizadoras, como Conselho Monetário Nacional, Banco Central, já são altos. E o impacto de uma obrigação de avaliação algorítmica à discriminação ilegal ou injusta não vai impactar este mercado a ponto de inibir novos entrantes, já que esses custos iniciais já são bem altos. E a gente está falando de percentuais muito baixos em relação a isso.
R
(Soa a campainha.)
A SRA. ESTELA ARANHA - Então, para concluir, a gente entende que a classificação do crédito como alto risco implica outros impactos, como o regime de responsabilidade, mas a ausência da avaliação algorítmica de discriminação é muito grave nesse setor, porque a gente tem uma desigualdade de condições de toda a população brasileira.
Então, a sugestão, inclusive conversando com o próprio Ministério da Fazenda, é acrescentar um artigo da necessidade de observância obrigatória de instituições financeiras e assemelhadas e bureaus de crédito, quando usam algoritmos para escore de crédito e risco de crédito, que faça uma avaliação de discriminação algorítmica e, obviamente, implantem suas medidas de mitigação.
É isso, Senador. E parabéns pelo trabalho. (Palmas.)
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Obrigado à Sra. Estela Aranha, Advogada e membro do Conselho Consultivo de Alto Nível da ONU para Inteligência Artificial.
Dando sequência, palavra concedida ao Sr. Dalton Morato, Diretor Jurídico da Associação Brasileira de Direitos Reprográficos (ABDR). Seja muito bem-vindo.
O SR. DALTON MORATO (Para exposição de convidado.) - Exmo. Sr. Presidente Carlos Viana, Exmo. Sr. Relator Eduardo Gomes, na pessoa de quem cumprimento todos os demais Senadores e Senadoras, em especial o Senador Efraim Filho, a quem agradeço a nossa indicação aqui, eu inicio a minha apresentação fazendo uma observação sobre os representantes dos criadores intelectuais, porque é a primeira vez que um representante... E aqui eu estou representando não só a ABDR, mas o Sindicato Nacional dos Editores de Livros (Snel), a Câmara Brasileira do Livro (CBL), entidades que representam autores, editores de livros, gráficas e livrarias, a indústria do livro como um todo. Mas eu gostaria de ter ouvido também outros representantes, como da indústria da música, por exemplo, que está aqui sentado no Plenário, e outras indústrias culturais, como a indústria de filmes, porque nós devemos ouvir os criadores intelectuais para entender a sua ansiedade, a sua expectativa em relação à tutela dos seus direitos de autor.
E aqui eu gostaria de fazer um elogio público ao Senador Eduardo Gomes pelo seu parecer, divulgado na última sexta-feira, que muito avançou na tutela do direito de autor, porque nós precisamos pensar que, nessa disputa entre Sansão e Golias, os autores são sempre deixados de lado e não considerados. A nossa lei de direitos autorais brasileira, a Lei 9.610, de 1998, foi uma lei que ficou em debate nesta Casa por mais de dez anos, elaborada por especialistas e reconhecida mundialmente como uma grande lei em defesa do direito de autor. E agora vem o parecer de V. Exa. nessa mesma linha, em defesa do direito de autor.
E aqui eu faço algumas críticas pontuais, críticas construtivas. A primeira é em relação à exceção da mineração de dados e textos, prevista no atual art. 60. As indústrias culturais brasileiras, não só a do livro, entendem que não há necessidade de termos uma exceção específica para a mineração de dados e textos em relação à produção científica. Por que motivo? Por que aqui no Brasil nós temos a Capes, que já disponibiliza toda a produção científica brasileira de forma gratuita para todo e qualquer interessado; nós temos também a Biblioteca Digital Brasileira de Teses e Dissertações, que reúne todas as teses e dissertações que são defendidas em várias universidades brasileiras - a Universidade de São Paulo (USP), a UERJ, a UnB e várias outras. É mais de 1 milhão de conteúdos de produção científica que são disponibilizados gratuitamente.
R
Então, aqui no Brasil, nós não temos essa necessidade de termos uma exceção para a mineração de dados e textos, porque a produção científica brasileira está disponível gratuitamente. Agora, se for uma opção do Legislativo ter essa mineração de dados e textos, então que ela observe alguns requisitos adicionais, como, por exemplo, na Diretiva Europeia 790, de 2019, que criou a primeira TDM (text and data mining). Ela diz o quê? Que as entidades que fazem investigação e criação científica é que farão jus a essa exceção para a mineração de dados e textos. E, no texto proposto no parecer, não há esse requisito da investigação e produção científica. O texto, no seu art. 60, fala em organizações. Quais organizações? Quaisquer organizações; o único requisito é que não tenha finalidade lucrativa. Nós entendemos que é necessário avançar nesses requisitos para que seja um requisito a produção científica prévia: as entidades que façam essa produção científica prévia é que farão jus a essa exceção para a mineração de dados e textos.
E, ainda, que os autores que tenham seus conteúdos utilizados possam controlar, com relatórios de transparência, quais são as obras utilizadas. Porque, atualmente, há obras de autores brasileiros - e, foi divulgado recentemente, até obras de autores renomados estão sendo discutidas em ações nos Estados Unidos, em ações coletivas de autores contra a OpenAI e a Microsoft, e cito, por exemplo, o Mauricio de Sousa, em caso de imagens - que já são sendo reproduzidas sem nenhum tipo de autorização e remuneração.
Então, hoje, o que nós vemos no mercado mundial? São sempre grandes empresas de tecnologia que estão dominando esse mercado - notadamente norte-americanas -, que estão reproduzindo, utilizando os dados disponíveis na internet, muitas vezes buscando essas informações em sites piratas; ou seja, a qualidade do material que está sendo utilizado para treinar os sistemas de inteligência artificial não tem um certo controle. Por isso que nós entendemos ser necessário que os autores possam licenciar o uso das suas obras para as empresas de tecnologia, como recentemente a OpenAI divulgou acordos com o Le Monde, na França, com o El País, na Espanha; ou seja, nós temos que fomentar a criação desse mercado de licenças entre, de um lado, os autores e titulares de direito e, do outro, as empresas de tecnologia.
E agora, voltando um pouco, falando sobre a Constituição brasileira, no seu art. 5º, XXVII, ela diz que é uma garantia fundamental a exclusividade do autor, defendendo a utilização da sua obra. Então, a futura lei que trata da regulamentação de inteligência artificial também tem que observar este princípio, que ao autor pertence esse direito exclusivo de autorizar o uso das suas obras.
E, nessa linha, uma outra observação é em relação ao sandbox regulatório no art. 63, porque ele trata de vários requisitos e traz diretrizes nos incisos do seu parágrafo único, porém ele não trata do aspecto temporal. Se esse sandbox regulatório não for criado ou não tiver um tempo de criação delimitado, como que vai acontecer esse relacionamento entre os autores e as empresas de sistemas de inteligência artificial com finalidade lucrativa? Nós temos que ter um ponto, uma delimitação de tempo, ou seja, 12 meses a partir do início da vigência da lei? Vinte e quatro meses? Um tempo. E até o início, então, dessa regulamentação proposta, nesse sandbox regulatório, que caiba o quê? A livre liberdade entre os autores de um lado, ou as entidades de classe representando os autores, e as empresas de sistemas de inteligência artificial.
R
Outra observação que eu gostaria de fazer, além dessa questão do sandbox regulatório, envolve justamente um dos incisos do art. 63, que fala na reutilização das obras. É uma correção pontual, mas que faz todo o sentido: é utilização das obras, ou seja, a regulamentação do sandbox regulatório tem que prever a utilização, e não a reutilização das obras.
Outro ponto que eu gostaria de abordar é que a autoridade competente faça o credenciamento de todo e qualquer organismo que faça jus à exceção para mineração de dados e textos, porque, pelo parecer, no texto proposto, ela só faz o credenciamento de instituições de pesquisa, e não das outras entidades que a lei, que o projeto de lei, o parecer, propõe como organismos, museus, entidades de jornalismo... Então, é importante que a autoridade competente de IA faça esse credenciamento prévio de todos os beneficiários dessa exceção para mineração de dados e textos.
E é isso, senhores. Muito obrigado pela oportunidade e, novamente, parabéns pelo trabalho. Muito obrigado. (Palmas.)
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Obrigado pelas observações ao Sr. Dalton Morato, Diretor Jurídico da Associação Brasileira de Direitos Reprográficos (ABDR).
Concedo a palavra ao Prof. Geber Ramalho, do Centro de Informática da Universidade Federal de Pernambuco.
O senhor é bem-vindo, Professor.
O SR. GEBER RAMALHO (Para exposição de convidado.) - Bom dia. Boa tarde já! Muito obrigado.
Saúdo a todos, em especial o Senador Carlos Viana e o Senador Eduardo Gomes. Eu agradeço pela oportunidade aqui de trazer uma perspectiva talvez um pouco diferente, porque depois de uma saraivada de advogado e jurista, aparentemente eu sou o único engenheiro/cientista da computação. (Risos.)
Eu queria retomar o que o Senador Eduardo Gomes falou hoje de manhã, que parece que, quando acaba um ciclo, abre um outro. Então, minha intervenção é muito mais nesse sentido desse novo ciclo, porque eu sei que o trem tem que andar, mas há coisas muito importantes que eu penso que precisam vir junto com a regulação.
Eu, apesar de ser, digamos, engenheiro e ter dado aula quase a minha vida toda em IA - eu trabalho nisso há 35 anos -, tenho, inclusive, desde 2019, dado aula de ética e inteligência artificial, porque penso que esse tema é muito oportuno e vejo com muito bons olhos o trabalho que vem sendo feito e mesmo o atual estado do PL. Eu não tenho críticas, a não ser a uma coisa pontual ou outra, mas, globalmente, acho que o trabalho está muito bom. Parabéns!
A minha mensagem aqui é a seguinte: ela é necessária, a regulação; disciplinar a IA é necessário, mas é, infelizmente, insuficiente e pode ser até contraproducente se a gente não cuidar de outros aspectos importantes.
Na abertura do PL, a gente fala de desenvolver uma IA responsável. O lado responsável acho que está bem cuidado, mas é preciso desenvolver uma IA. Eu tenho sempre a impressão de que a gente está falando de uma construção de uma casa, mas a gente só está falando do muro, não está falando nada da casa.
Então, é isso que eu queria trazer aqui: a meu ver, qualquer projeto de lei sobre uma área qualquer, em particular sobre uma tecnologia como IA, precisaria, digamos assim, endereçar oito eixos importantes. O primeiro é o da educação. Quando eu falo da educação, eu falo de coisas diferentes. Por exemplo, é claro que a gente precisa de desenvolvedores de IA, mas sempre numa perspectiva de que o Brasil não vai ficar só dependente, como falou o Senador Marcos Pontes ainda agora, de que algum estrangeiro venha para cá tentar resolver nossos problemas. A gente precisa dar educação, ter desenvolvedores, gente capaz de desenvolver sistemas de IA. Mas não só: a gente também precisa educar os gestores, que são aquelas pessoas que, tanto no serviço público quanto no privado, vão identificar: "Ah, aqui eu tenho um problema que, se eu tiver uma IA, pode ajudar". E a gente também, dentro da ótica da educação, precisa pensar nas pessoas que vão perder os seus empregos, porque em qualquer revolução tecnológica é assim. Você não tem mais acendedor de lampião como a gente tinha nas ruas, e você, com a eletricidade não precisa mais; mas você criou também novos empregos. Só que uma pessoa que perdeu o emprego não está necessariamente preparada para assumir o novo, e essa reconversão é preciso fazer com a educação.
R
Então, a educação é um primeiro eixo fundamental.
O segundo eixo é o eixo que eu diria da ciência e da inovação, do fomento à ciência e à inovação. O Brasil quer - não digo ser uma potência, uma liderança mundial em IA - pelo menos ser capaz de resolver seus próprios problemas. Para isso é preciso pensar num programa de bolsas, por exemplo, para pós-graduação, em que você tenha análise de inteligência artificial. Isso é do lado das universidades. Todavia, também do lado das empresas, de fundos e programas, não basta o sandbox regulatório: que a gente fomente - e eu digo não só nas empresas privadas, mas no serviço público - para que a gente saia da inércia e possa entregar serviços melhores para a população, a partir da adoção de inteligência artificial. Para isso também tem que ter programas que possam incentivar.
Então, educação é o primeiro ponto, e o segundo ponto é o fomento à inovação e à ciência.
O terceiro é o que eu chamo de infraestrutura e insumos básicos. O que é a infraestrutura? Vejam bem, para treinar um modelo feito esse do ChatGPT, que todo mundo conhece, a gente precisa de computadores muito poderosos. O que eu vejo é que nas universidades, lá onde eu estou e onde eu círculo, existe um computador ali e em uma outra não. Não faz ou não dá para nem brincar, entendeu? Não dá? E o Brasil tem feito isto: a gente pulveriza algumas coisas. Em outros países... Eu estive na França no mês passado, e lá o Governo tem um serviço de alta performance de computação em que você pode entrar na fila lá e dizer: "Eu quero tantas horas dele, eu quero isso". E hoje, se eu tivesse muito dinheiro e quisesse comprar uma placa da Nvidia, que produz as GPUs onde rodam esses grandes programas, eu tenho que esperar 11 meses. O Governo do Japão furou o bloqueio porque eles tinham muito dinheiro e disseram: "A gente quer". A gente está falando de investimento da ordem de bilhão aqui, para poder você ter ou desenvolver a IA. Não vão ser as empresas, porque cada uma vai comprar uma ou duas, e não dá para fazer. Para fazer coisas realmente impactantes, a gente tem que ter um poder. Isso é infraestrutura, é como uma estrada para onde todo mundo vai usar.
Outro ponto de infraestrutura fundamental é a governança de dados - e eu não falo dos aspectos da LGPD. Existe um monte de dado público: por exemplo, o Senado aqui e a Câmara têm um programa brilhante, maravilhoso do ponto de vista de dados abertos, para facilitar que você possa, com o computador, ler as informações legislativas, etc. Mas no Brasil a gente está longe de padronizar isso. Se você precisar de uma aplicação em que o setor que cuida do trânsito da cidade converse com o setor que que faz a previsão de chuva, você está lascado, porque você não vai conseguir fazer uma coisa conversar com outra. E, ao você padronizar esse tipo de coisa, você abre a oportunidade para que startups e outras aplicações sejam feitas por terceiros e possam beber desses dados que são públicos - ou que deveriam estar públicos, que não tem nenhum problema em estarem públicos -, para poder criar oportunidades. Então, a infraestrutura é ao mesmo tempo poder computacional, mas é também uma governança de dados. Eu estou aqui apontando mais, Senador, para uma agenda para frente, não é? Eu entendo que aqui está bem cuidado. E, por último, claro, todo o aspecto ético. Então, educação, fomento à inovação e à ciência, infraestrutura e, enfim, a parte ética, que é a maior parte do debate aqui do PL. Então, isso eu acho que é muito importante.
R
Vejam bem, países como França, Canadá, Reino Unido - Reino Unido, não -, Alemanha, por exemplo, têm ministérios hoje cuidando de transformação digital, porque para eles esse é um tema muito importante. Então, eu acho que a gente, entendendo que impacto positivo a IA pode trazer, precisa cuidar, claro, também do lado responsável, mas fazer um equilíbrio aí, para que a gente possa, de fato, tirar o melhor proveito dessa situação.
E, por fim, eu vou fazer só uma última reflexão, que é mais pontual, que é o seguinte. Claro, esse muro que a gente quer criar... Às vezes eu penso muro, mas eu penso também, por exemplo, que a Europa finalmente fez o AI Act. Tudo isso que eu já falei sobre educação, sobre fomento à ciência, à inovação já está feito. O AI Act lá é uma espécie de cereja no bolo, mas aqui a impressão que eu tenho é que a gente começou pela cereja e ainda não falou do bolo. Tem que fazer o bolo, aí a gente pode cuidar do todo, mas entendam a minha posição.
Agora, do ponto de vista pontual, eu sou Diretor de um centro - quer dizer, recentemente o Ministério da Ciência e Tecnologia criou dez Centros de Excelência em Inteligência Artificial no Brasil, e eu sou o Diretor de um deles, que é voltado para a educação, IA para educação - e me preocupou quando eu li no PL educação estar dentro das coisas de alto risco. Eu entendo perfeitamente que lá trata, por exemplo, do ingresso de estudantes nas universidades etc., aí é claro que a gente não vai botar uma IA para corrigir as provas do vestibular, mas, ao mesmo tempo, tem uma outra parte que é mais ambígua, que fala de avaliação e monitoramento dos alunos. Avaliação faz parte do processo de aprendizado, e avaliação a gente faz o tempo todo: eu estou dando aula, eu olho para a cara de um aluno meu, e ele não está nem prestando atenção no que eu estou dizendo, então eu já entendi que eu tenho que fazer alguma coisa para melhorar amanhã. A gente avaliação faz o tempo todo. E hoje uma das áreas que mais... Faz 30 anos que existe pesquisa em inteligência artificial na educação - aliás, os senhores estão convidados para a principal conferência internacional de IA na educação, que vai acontecer no Brasil, lá no Recife, onde eu sou professor, então estão todos convidados -, e tem muita pesquisa. Em particular, tem uma área que a gente chama de educação personalizada. O professor dá a aula, mas tem uma IA que segue o aluno ali...
(Soa a campainha.)
O SR. GEBER RAMALHO - ... e que vai dizer: "Olha, ele precisa de um reforço nisso, propõe um exercício naquele outro aspecto". Só é possível fazer isso se há alguma forma de avaliação, se ele sabe ou não aquilo. Então, eu peço que seja feita uma reflexão para de fato saber se a educação... Não é uma área crítica como saúde, não é uma área crítica como até concessão de crédito, a gente pode dizer; a educação inclusive é uma área crítica, mas num outro sentido, porque, como a gente está sofrendo nessas transformações todas na sociedade, vamos precisar de uma educação de qualidade em escala. E aí a tecnologia pode ser uma grande parceira nossa nessa área.
Eu agradeço.
Era isso o que eu tinha a dizer.
Obrigado. (Palmas.)
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Muito obrigado pela colaboração, Prof. Geber Ramalho, do Centro de Informática da Universidade Federal de Pernambuco.
R
Encerrando a nossa sessão especial de debates, convido a Sra. Laura Schertel Ferreira Mendes, Relatora da Comissão de Juristas responsável por subsidiar elaboração de substitutivo sobre inteligência artificial, para suas palavras.
Muito bem-vinda!
A SRA. LAURA SCHERTEL FERREIRA MENDES (Para exposição de convidado.) - Bom, muito obrigada, Presidente, Senador Carlos Viana. Queria cumprimentar o senhor, cumprimentar também o Senador Eduardo Gomes, todas as autoridades aqui presentes e queria, em primeiro lugar, parabenizar todo o trabalho desta Comissão, o Senador Carlos Viana também, parabenizar o Senador Eduardo Gomes, todo o gabinete. Certamente, foi um trabalho muito complexo, muito plural.
Eu queria começar parabenizando o formato democrático, Senador Eduardo Gomes, como o senhor conduziu todo esse processo. A Comissão permitiu o avanço, o amadurecimento da proposta da Comissão de Juristas, realizou diversas audiências públicas, escutou muitos e muitos atores, dos mais diversos setores. Eu queria cumprimentá-lo por essa abertura, por essa pluralidade. Eu acho que hoje está muito claro que esse relatório que V. Exa. apresentou é uma construção conjunta, e eu acho que isso é muito importante.
Eu queria parabenizar também aqui, certamente, o trabalho do Fabricio da Mota Alves, do Bruno Bioni, do gabinete do Senador Eduardo Gomes também, da Dra. Adriana, do Dr. Cesar, que, certamente, têm feito um trabalho muito importante também na condução desse processo, Senador.
Parece-me que nós estamos construindo aqui um caminho e, até me referindo aqui às falas anteriores - eu acho que é muito importante -, também queria parabenizar e agradecer o trabalho aqui de todos que têm participado, que têm contribuído, inclusive ao convite da Comissão, trazendo propostas concretas e construtivas. Acho que isso é muito importante.
Inclusive, trouxeram aqui as suas manifestações, as suas preocupações e os seus elogios. Acho que a democracia, esse processo democrático é feito de trazer todas essas divergências e construir convergências a partir delas. Então, me parece que o texto tem sido aprimorado de uma forma muito impactante, deste as suas primeiras edições, exatamente por causa desse processo plural e democrático.
Então, acho que basta comparar as inúmeras versões que nós temos, desde as primeiras versões, eu diria até das primeiras versões da Câmara dos Deputados até essa última versão apresentada pelo Relator. Parece-me que a gente consegue perceber que o Brasil tem construído e tem conseguido construir um caminho único para a regulação da inteligência artificial. Eu acho que isso é muito importante.
Nesse processo participativo, pensando agora nessa proposta de regulação, eu acho que a gente consegue perceber, Senadores, autoridades, senhoras e senhores, que a trajetória da inteligência artificial não é inevitável. Nós temos, sim, a responsabilidade democrática, e, sem dúvida nenhuma, o Congresso Nacional e o Senado Federal têm a responsabilidade de moldar, de compreender, de dizer qual a direção que essa tecnologia... como essa tecnologia deve ser utilizada na sociedade, qual é a forma mais democrática de instituir uma governança para essas tecnologias.
Então, me parece que é uma tarefa muito meritória e que somente o Congresso Nacional poderia assumir. Pensando nos impactos que uma tecnologia como a inteligência artificial pode hoje realizar, certamente algumas pessoas comparam com o impacto da eletricidade. Estamos falando de uma tecnologia de propósito geral que vai impactar absolutamente e que já está impactando absolutamente todos os setores, toda a nossa sociedade, o campo do trabalho, todos os setores econômicos, o campo da comunicação. E, portanto, isso sim merece uma reflexão e uma regulação muito robusta por parte do Congresso Nacional.
R
E me parece que um outro tema muito relevante quando nós pensamos na sociedade brasileira, que é uma sociedade ainda muito desigual, é que é sim fundamental pensarmos nos impactos que essa tecnologia traz para a sociedade como um todo, para a economia como um todo e também para as partes e para as pessoas mais vulneráveis e para os grupos mais vulneráveis. Não é possível, não podemos nos distanciar dessa missão que foi dada pela própria Constituição Federal.
Então, me parece que o projeto também, senhoras e senhores, é muito equilibrado nesse sentido. Ele traz direitos, ele traz princípios e ele traz, acima de tudo, uma estrutura que pode supervisionar e que deve supervisionar esses direitos fundamentais.
E um ponto que eu queria destacar é exatamente o fato de que se, por um lado, nós temos os impactos aos direitos fundamentais... E não só impactos, porque a gente pode pensar nessa tecnologia também como uma forma de consolidar e de fazer com que a gente possa potencializar o exercício desses direitos fundamentais. Quando a gente pensa na liberdade de ir e vir, na liberdade de expressão, na liberdade de associação, na liberdade de trabalhar, ou seja, é fundamental que nós pensemos também nessas tecnologias para que elas potencializem essas liberdades e para que a gente possa diminuir os riscos também a essas liberdades fundamentais.
E um ponto que eu queria destacar em que eu acho que houve um avanço muito grande - e certamente com a contribuição de todos os setores que têm contribuído nesse processo - foi um avanço muito grande na supervisão. E como essa supervisão vai acontecer? Porque a verdade é que a proposta que está sendo hoje discutida não é uma proposta, digamos, que seria apenas para inglês ver. Ao contrário, é uma proposta exatamente pensada para que seja aplicada, é pensada para que seja implementada na prática. Isso só é possível a partir de um sistema de supervisão bastante complexo, mas me parece muito interessante e eu diria que também bastante único.
Por isso eu disse que eu entendo que a gente está construindo aqui, Senador, sob a sua relatoria e sob a Presidência do Senador Carlos Viana, um caminho único, um caminho brasileiro, uma solução brasileira para essa regulação.
E esse sistema de supervisão é um sistema híbrido, em que nós temos uma autoridade de coordenação, que vai exatamente buscar essa harmonização dos direitos entre todos os setores. Afinal, nós estamos falando de valores que precisam ser garantidos independentemente do setor, independentemente da área em que aquela tecnologia vai ser aplicada. É por isso que, sim, é fundamental termos uma autoridade que faça essa coordenação porque esses valores são intersetoriais, são horizontais.
Mas, ao mesmo tempo, nós temos uma expertise muito clara de cada uma das agências reguladoras, de cada um dos setores regulados, e é preciso que essa expertise seja valorizada, seja garantida. É por isso que eu entendo que, sim, o projeto tem esse equilíbrio de buscar, por um lado, essa harmonização e essa garantia dos direitos fundamentais por meio dessa autoridade coordenadora; mas ele também tem a preocupação de garantir os aspectos técnicos, os aspectos do mercado e os aspectos de inovação de cada um dos setores, o que será garantido por meio de cada uma das agências.
Então, o Sistema de Governança e Regulação de IA ou o famoso SIA, que está sendo criado por meio dessa proposta, faz exatamente esse balanceamento, ele busca essa complementariedade e, ao meu ver, ele sintetiza também a complementariedade desses temas, eu diria, a complementariedade desses temas que definem, de certa forma, a aplicação da IA na nossa sociedade. Por um lado, nós precisamos sempre ver quais são os impactos dos direitos fundamentais, mas nós precisamos também entender qual que é o impacto em cada um dos mercados. E, portanto, eu entendo que essa proposta bastante única, bastante própria é um caminho que está sendo desenvolvido por esta Casa, é algo que poderá, inclusive, depois, eventualmente, ser inspiração para muitos outros países que estão debatendo esse tema.
R
Então, eu queria, aqui, Senadores, todos os presentes, parabenizar essa construção, parabenizar o processo democrático e dizer que esse é um passo, é um primeiro passo muito importante, mas não nos esqueçamos, a gente sabe que tem muitos outros passos e muitos outros, eu diria, passos que ainda precisam ser dados, por exemplo, o plano que o Governo Federal já tem falado que está construindo, um plano de IA.
(Soa a campainha.)
A SRA. LAURA SCHERTEL FERREIRA MENDES - Acho que também esse é um tema fundamental quando a gente pensa em fomento de uma agenda de desenvolvimento da inteligência artificial no Brasil.
Quando nós pensamos na atualização também da Ebia (Estratégia Brasileira de Inteligência Artificial), nós percebemos que, na verdade, esse marco civil da inteligência artificial é um passo fundamental, mas ele está inserido, eu diria, talvez em outros marcos ou numa arquitetura muito mais complexa e da qual fazem parte muitos atores. Então, eu acho que esse é um passo fundamental.
Eu queria, aqui, saudar todos os presentes e agradecer aqui também. Muito obrigada. (Palmas.)
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Muito obrigado à Sra. Laura Schertel Ferreira Mendes, Relatora da Comissão de Juristas responsável por subsidiar a elaboração de substitutivo sobre inteligência artificial no Brasil.
Estão encerrados os participantes.
Vou passar a palavra ao Senador Eduardo Gomes para a consideração final, lembrando-me aqui do curso de datilografia que eu fiz quando adolescente. Que coisa impressionante, tudo muda! (Risos.)
O SR. EDUARDO GOMES (Bloco Parlamentar Vanguarda/PL - TO. Para discursar.) - Bom, quero agradecer a todos e a todas pelas exposições.
Também quero agradecer, nesse momento, toda a atenção, estrutura e liberdade, principalmente, apoio do Presidente do Senado Federal, o Senador Rodrigo Pacheco, a toda a Mesa Diretora, aos Parlamentares e, principalmente, nesse caso, ao Senador Carlos Viana, Presidente da Comissão Especial Temporária, ao Senador Marcos Pontes, que deu um auxílio muito grande na elaboração dos trabalhos, e a todos vocês dos setores diversos.
É importante deixar claro: isso será cumprido de maneira muito fiel. O processo continua em curso, não é? Ele continua em curso, não é uma matéria fácil. Quando a gente defende direito autoral e quando a gente fica na dúvida entre percepção de que esse direito autoral pode ser regulamentado com mais tempo e que a vida humana é limitada, a gente fica naquela definição de que nós estamos falando sobre uma obra só, o que já é muita coisa, nós estamos falando de vida. Então, você está falando de uma propriedade intelectual que é a raiz disso tudo que está sendo minerado, computado, exposto para a inovação.
R
Então, não é um desafio fácil, mas eu queria dizer que, especialmente em proteção de mercado, em direitos individuais, em tudo aquilo que tiver força de texto, de promover mudança até o dia da votação, a gente vai ter - a gente tem - a capacidade legislativa de acatamento, de buscar ajuste. Não é um fim esse debate para um fechamento burocrático e uma contagem de votos. Então, a gente tem provado isso, Presidente, em todo o período.
Então, eu queria agradecer a todos, agradecendo ao Senador Carlos Viana, nessa Presidência, e comunicar - não sei se ficou definido o horário, se às 10h ou às 14h - que amanhã teremos a votação na Comissão Especial e, já agendada, na próxima terça-feira, no Plenário do Senado Federal. Em seguida, há todos os desdobramentos do sistema bicameral, que é muito importante - e até emocionante ultimamente -, para a gente ver o que vai acontecer aí.
Contem comigo e fiquem com Deus.
Muito obrigado. (Palmas.)
O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Quero mais uma vez agradecer a todos os presentes, a todos que acompanharam pela TV Senado a transmissão desta sessão especial de debates; e dizer do nosso privilégio em participar desse momento histórico para o nosso país, colocando o Brasil pari passu com as grandes nações desenvolvidas sobre o assunto inteligência artificial, que eu tenho certeza mudará - e muito - a face de toda a humanidade, não só a do nosso país.
O meu agradecimento especial a todos os colaboradores.
E vamos em frente. Como disse o Relator, no sistema bicameral, todos os dias há uma novidade - mas uma novidade democrática e republicana.
Cumprida a finalidade desta sessão de debates temáticos, a Presidência declara o encerramento.
Uma boa tarde a todos. (Palmas.)
(Levanta-se a sessão às 13 horas e 50 minutos.)