Notas Taquigráficas
| Horário | Texto com revisão |
|---|---|
| R | O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG. Fala da Presidência.) - Bom dia. Gostaria de pedir a gentileza de se acomodar lá o pessoal da imprensa. Declaro aberta a 20ª Reunião da Comissão Temporária Interna sobre Inteligência Artificial no Brasil, criada pelo Requerimento nº 722, de 2023, com a finalidade de examinar os projetos concernentes ao relatório final, aprovado pela Comissão de Juristas, responsável por subsidiar a elaboração do substitutivo sobre inteligência artificial no Brasil, criada pelo Ato do Presidente do Senado Federal nº 4, de 2022, bem como eventuais novos projetos que disciplinem a matéria. Antes de iniciarmos nossos trabalhos, proponho a dispensa da leitura e aprovação da ata da reunião anterior. As Sras. e os Srs. Senadores que concordam permaneçam como se encontram. (Pausa.) A ata está aprovada e será publicada no Diário do Senado Federal. Antes de anunciar o item, eu quero, mais uma vez, colocar aqui, com muita clareza, que esta Comissão recebe, tem recebido e tem buscado atender a todas as proposições, emendas, sugestões que surgem dentro de um tema que é complexo, amplo e que, naturalmente, não vai ser delimitado dentro de uma legislação, que hoje atende um determinado momento, mas que daqui a cinco, seis, dez anos poderá passar por transformações, ou melhor, passará por transformações. Então, a nossa proposição e do Relator é de, o mais transparentemente possível, colocarmos esse relatório para todos os setores. Naturalmente, a decisão final cabe a nós, que estamos encarregados da elaboração do relatório para posterior avaliação dos nossos colegas Senadores. Os setores todos são muito bem-vindos, todos aqueles que têm sugestão foram ouvidos, mas não será um setor ou outro que vai direcionar relatório. Nós sabemos que há interesses em jogo em várias áreas, porque tem aí uma interdisciplinaridade, mas nós precisamos atender aos interesses do país. Sabemos, naturalmente, que existem regulações fora, existe uma série de sistemas que já vêm testados no exterior, com suas regras no exterior, mas nós temos, por soberania, o direito e a obrigação de criarmos a nossa própria versão e legislação sobre a questão de inteligência artificial e nós não vamos abrir mão dessa nossa prerrogativa. |
| R | Portanto... Eu sei que há, de última hora, uma série de questionamentos, inclusive com publicações na imprensa, que não correspondem ao que nós temos feito. Esse setor de inteligência, parece-me, Marcos, fazendo aqui uma alusão, tem muita ficção, e, ao que parece, essa ficção também chegou, em alguns momentos, a determinados comentários, porque nós estamos aqui, todos, num diálogo muito aberto, para que a gente possa deixar, com clareza, ao país o que vai ser votado e aos colegas Senadores que nós não estamos aqui criando nada além do que simplesmente trabalharmos a questão de inteligência artificial, a produção, a responsabilidade, o incentivo, a criação. As demais questões que podem surgir ao longo desse processo foram observadas, todas elas foram retiradas, os conceitos se tornaram mais firmes e, agora, é nós caminharmos para a discussão. E eu espero, muito breve, atender ao pedido do Presidente da Casa, Senador Rodrigo Pacheco, de que possamos votar o texto na semana do dia 15. Hoje nós faremos a complementação do relatório. Nós não leremos um relatório novo. Vai ser a complementação do que, desde a semana passada, das audiências públicas, foi colocado, e o Relator entendeu como sendo necessário modificação. O texto final será colocado à disposição de todos os Senadores, de toda a sociedade, todos os setores que estão aqui acompanhando e participaram, para que, na próxima semana, na terça-feira, às 10h da manhã - a próxima terça, Senador Esperidião Amin -, nós possamos votar o relatório. Esse é um ponto que nós determinamos. Acordei, inclusive, com o Senador Marcos Pontes, com os outros Senadores: "Olha, nós vamos votar o relatório na próxima terça-feira, às 10h". E, até lá, há, haverá a possibilidade de leitura, de mudanças, de sugestões, a que, eu tenho certeza, o Relator irá dar sequência. Senador Eduardo Gomes. O SR. EDUARDO GOMES (Bloco Parlamentar Vanguarda/PL - TO. Como Relator.) - Bom dia a todos. Quero cumprimentar o Presidente Carlos Viana, Senador Esperidião Amin, Senador Marcos Pontes, a todas as instituições, imprensa, entidades do setor do ecossistema de inteligência artificial... Sr. Presidente, primeiro, a gente tem tido um trabalho, nas últimas horas, de falar sobre algumas matérias que não estão sendo votadas nesse momento, que não fazem parte do arcabouço ou do texto de regulação de inteligência artificial, embora a gente tenha que reconhecer algumas contribuições de textos que foram agregadas ao longo do caminho, desde a Comissão de Juristas. Então, esse é um processo que já tem dois anos de análise e de audiência pública, de plenária, e esse tempo pouco importa, porque o interessante é votar, em tempo adequado, a lei melhor possível. Quando a gente fala de pressa, não pressa, prioridade, a gente vai falar de processo legislativo que está só começando. Ele só vai existir a partir do momento em que o Senado soltar para a Câmara e a Câmara devolver para o Senado, se fizer as modificações que um texto dessa complexidade com certeza terá. Então, eu queria primeiro deixar claro que não é a votação do PL de fake news, que não foi discutido ainda na Câmara - existe uma Comissão Especial, um grupo de trabalho, e isso vai ser feito na hora adequada -; não é a votação do Código Eleitoral, que se encontra sob a relatoria do Senador Marcelo Castro, cuja análise eu acho que vai ser feita no momento adequado; não é a reforma do sistema de regulação setorial do país, da Lei Geral das Agências Reguladoras, porque esta tem algumas modificações pontuais, que, de tempos em tempos, ocorrem. Ela é a legislação de regulação de inteligência artificial do país, no começo da sua tramitação. |
| R | Então, eu queria, nesse momento, deixar isso bem claro, porque, nesse caso, Senador Esperidião Amin, pela experiência que tem de ser o nosso Parlamentar aqui mais experimentado, no Senado, na Câmara e nos governos, é a primeira vez que a gente tem um projeto de lei... E não é que tenha demérito nos outros, mas porque esse exige este tipo de procedimento no sentido de que, em todas as vezes que a gente apresenta qualquer mudança, a gente a submete à contribuição, a gente a submete ao debate. Isso pode ser cansativo para os outros - para a gente também o é -, mas é a única forma de deixar muito cristalizada a transparência do trabalho que a gente vem fazendo. A velocidade da notícia, por vezes, é perversa, mas é compreensível, até porque ela pode ser instrumentalizada. O que é ruim nas relações humanas e de trâmite legislativo é você negociar determinados pontos, encerrar a negociação, fazer atendimento e, na mesma hora, procurar um freguês, que é o mesmo, para fazer... Isso não é possível, porque acordo significa que uma parte foi atendida e que outra parte foi atendida, que uma parte está satisfeita e a outra está satisfeita, que uma parte está um pouco contrariada e a outra está um pouco contrariada. Vai ser assim. Agora, o principal disso tudo, sobre o que eu venho falando desde ontem e que não sai da minha cabeça, é que nós estamos discutindo uma coisa que já está regulada. O medo das interpretações e das decisões verticais, monocráticas ou qualquer coisa que queiram ler, o medo da ausência da legislação já impera para qualquer segmento político, para qualquer corrente política. Enquanto a gente não tiver regulação mínima, a gente não tem parâmetro para saber quem é quem nesse jogo. É isso que eu estou tentando deixar claro desde o começo. Então, quando a gente tem, e atendemos a muitos pontos... Por exemplo, faço um destaque aqui, muito claro, público - porque é preciso ser assim também -, na questão da CNI, quando fala do desenvolvimento. A gente precisa chegar a um acordo, porque todos os dias nós acordamos transformando as nossas indústrias em montadoras de peças que vêm de outros países, gerando emprego em outros países, porque a gente não teve a capacidade de desenvolver uma política de fomento - essa verdade precisa ser dita -, e esse processo tem dois anos de discussão. Quando a gente para um segmento, a gente para os outros. O avanço é solidário e o retrocesso é solidário, infelizmente. E muitos setores estão sendo prejudicados por isso. O setor da saúde, o setor financeiro, que vem trabalhando muito bem na clandestinidade de atendimento da inteligência artificial para melhorar o serviço para as pessoas. Então, o que eu estou pedindo para vocês, mais uma vez... E, quando eu falo vocês, eu falo geral, quem pode ajudar, já que a gente abriu espaço para todo mundo. Não é uma questão de pressa ou de morosidade, mas dois anos, no mundo tecnológico, é muito tempo. Vai precisar de mais tempo? Vamos usar mais tempo. Precisa discutir mais? Vamos discutir mais. O Parlamento é para isso. Não tem dificuldade. |
| R | Agora, vamos avançar pelo menos naquilo que a gente já acordou, porque senão não é negociação, senão é protelação, senão é boicote. E, hoje em dia, a gente sabe exatamente o que acontece, não há um movimento que eu não saiba, que as pessoas não saibam. A gente precisa ter clareza de propósito. Meu ponto é atendido dessa forma. Se não for atendido, tem a questão do destaque, do voto. Essa é a primeira etapa do processo. O processo vai, vota no Plenário, tem modificação. De ontem para hoje, teve modificação; de hoje para amanhã, vai ter modificação. É assim que funciona. Agora, desqualificar o processo todo, ou nós deixarmos - como podemos deixar, porque nós temos falhas também - que haja uma má interpretação porque estão querendo resolver outra legislação nesta... A gente tem que ter a humildade e a capacidade de mudar, e é para isso que a gente está aqui. É por isto que é tão diverso o Parlamento, com gente de tudo quanto é estado, de tudo quanto é gente: para se entender. Eu quero agradecer mais uma vez ao Senador Marcos Pontes, que pediu as audiências; foi atendido nas audiências. As audiências foram ampliadas para que a gente faça a leitura com as modificações. E, se elas não forem suficientes, vou frisar esse ponto, se as modificações feitas agora não forem suficientes, nós vamos continuar negociando, mas a gente precisa continuar negociando e avançando, lendo, levando ao Plenário, levando à Câmara, voltando para o Senado, porque o ambiente atual, para mim, é a pior regulação que existe. São poucos mandando em todos, sem dar obrigação para ninguém. É isso que acontece hoje no Brasil em várias áreas. Então, vamos tentar fazer a nossa legislação com a opinião de todo mundo, com a opinião do Governo, da Oposição, do Executivo, do Legislativo, do Judiciário, é assim que a gente tem que fazer. Eu aqui estou querendo também parabenizar que eles tiveram a capacidade de sentar e fazer um acordo, como está acontecendo no setor de direitos autorais. Enquanto a gente discute direito autoral, o direito presente é nenhum, é nenhum. A pessoa não consegue, sabe, entender que vai ser um mercado para viúvas e herdeiros, na melhor sorte, porque você está trabalhando com o patrimônio das pessoas. Eu queria só pedir compreensão. Se o Presidente achar melhor, pode ser também que as observações dos Parlamentares possam ser feitas agora, não tem problema nenhum. Só que eu estou avisando que eu vou fazer uma leitura, uma complementação de voto, que pode ser modificada, porque é um processo de negociação. De repente, tem um ponto que a pessoa acha que não foi atendido, e foi atendido, é satisfatório, permanece; não é, vamos discutir, vamos discutir até resolver. É assim que... A gente está com disposição suficiente para fazer isso, sem nenhum problema, Presidente. Então, se o senhor preferir ouvir os Parlamentares, até lá eu vejo... O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Claro. Vamos dar sequência aqui. Vou ler o item 1 da nossa pauta de hoje. ITEM 1 PROJETO DE LEI N° 2338, DE 2023 - Não terminativo - Dispõe sobre o uso da Inteligência Artificial. Autoria: Senador Rodrigo Pacheco (PSD/MG) Relatoria: Senador Eduardo Gomes Relatório: Pela aprovação do PL nº 2.338, de 2023; pela aprovação das Emendas nº 4, 8, 11, 13, 15, 16, 17, 18, 19, 35, 38, 44, 47, 49, 50 e 52, pela aprovação parcial das Emendas nº 1, 3, 5, 7, 10, 22, 27, 34, 42, 43, 45, 46 e 53; e pela rejeição das demais, na forma da emenda substitutiva apresentada; e pela declaração de prejudicialidade do PL nº 21, de 2020; PL nº 5.051, de 2019; PL nº 5.691, de 2019; PL nº 872, de 2021; PL nº 3.592, de 2023; PL nº 210, de 2024; e PL nº 266, de 2024. Observações: 1. Em 18/06/2024, foi concedida vista coletiva, nos termos do art. 132, §§ 1º e 4º do RISF; 2. Foram apresentadas as Emendas nº 1 a 55 ao PL 2338/2023; 3. Foram apresentadas as Emendas nº 56 a 109 ao PL 2338/2023 (Pendente de Parecer do relator); 3. As matérias serão encaminhadas à Secretaria-Geral da Mesa após a deliberação da CTIA. O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Tramita em conjunto com o PL nº 21, de 2020; PL nº 5.051, de 2019; PL nº 5.691, de 2019; PL nº 872, de 2021; PL nº 3.592, de 2023; PL nº 210, de 2024; e PL nº 266, de 2024. |
| R | Foram apresentadas as Emendas nº 1 a 55 e as Emendas nº 56 a 109, e agora a 129, pendentes de parecer do Relator. As Emendas nºs 24, 41 e 100 foram retiradas pelos autores. Em 18/06/2024, foi concedida vista coletiva, nos termos do art. 132, §§ 1º e 4º do Regimento Interno do Senado Federal. Antes de darmos sequência, passo a palavra ao nosso califa, Senador Esperidião Amin. Bom dia, Senador. O SR. ESPERIDIÃO AMIN (Bloco Parlamentar Aliança/PP - SC. Pela ordem.) - Muito bom dia, Presidente. Eu não integro a Comissão, por isso agradeço muito a deferência de me conceder a palavra, mas eu me sinto na obrigação de fazer aqui uma manifestação dividida em três partes e tão breve quanto possível. Primeiro, eu quero dizer claramente que os três - esta quase santíssima, quase santa trindade -, Senador Eduardo Gomes, Senador Carlos Viana e Senador Astronauta Marcos Pontes, me representam, ou seja, os senhores merecem não apenas a minha amizade, mas a minha confiança. E sobre a digressão do Senador Eduardo Gomes, eu ouvi o suficiente para fazer desvanecerem - gostou? - os temores que me trouxeram aqui. Eu não vim só visitá-los, vim trazer preocupações. A sua digressão me tranquiliza, especialmente quando o senhor se refere a incluir ou à inclusão neste projeto de lei de questões que são reguladas por outras leis, ou deveriam ser. Então, este é o cerne da minha preocupação e, diante do que o senhor falou, eu invoquei o único santo que eu conheço que tem dois dias de celebração. Quando eu nasci, o dia de São Tomé era o dia em que eu nasci, 21 de dezembro. E a Igreja, depois do Concílio Vaticano II, resolveu mudar a data, sem me consultar, passou para 3 de julho, ontem. São Tomé, só acredita vendo. Então eu vou aguardar o texto que será aprovado para saber o que prevalece ainda dos meus temores e o que não prevalece. Em nome da confiança, é o que eu lhe devo. E, finalmente, como subsídio, eu tenho lido bastante sobre inteligência artificial e, ao mesmo tempo, tenho me preocupado com defesa cibernética, segurança cibernética. Fui Relator de uma CPI memorável sobre crimes cibernéticos em 2016. Agora, os senhores imaginem o que aconteceu nesses oito anos em matéria de evolução nos crimes cibernéticos, que o Fórum Econômico de Davos estima causarem prejuízos da ordem de 14% do PIB de cada país, na média; 14% do PIB, no Brasil, é mais do que o setor industrial. |
| R | As duas coisas andam em paralelo, mas são diferentes. A inteligência artificial, numa frase só, é uma ferramenta, só que é uma ferramenta que pode ser doutrinada, ideologizada e ter um viés. Não sei se todos leram, mas eu gosto de fazer propaganda. O último livro que eu li sobre inteligência artificial me deixou muito preocupado. O título do livro é o seguinte: A Próxima Onda: Inteligência Artificial, Poder e o Maior Dilema do Século XXI, que é conter, que seria regulamentar opressivamente, ou deixar correr, que é o dilema do mundo. A Europa pôs-se a conter e não vai conseguir regulamentar o que aprovou duas vezes, porque há divergências na prática, e todos sabem que ponteia essa corrida do lado ocidental com os Estados Unidos, que já tem o computador quântico, que torna as nossas preocupações supersônicas, hipersônicas, quase na velocidade da luz, e com a China. Essa é a realidade do mundo. Então, nós regulamentamos... Fiquei satisfeito com o que ouvi. Regulamentarmos demais é muita pretensão, porque nós não somos pioneiros nisso e não devemos colocar freios nas nossas modestas possibilidades, mas que podem se ampliar. Os autores do livro agradam ao califa, Mustafa Suleyman e Michael Bhaskar, evidentemente do lado de cá do Rio Jordão. Ele contém uma advertência, entre as pp. 93 e 96. Ele trava um diálogo que eu não sei se todos conhecem - o Marcos Pontes conhece - de um engenheiro do Google com a máquina. Você conhece? Quando ele perguntou: "Você tem medo de alguma coisa?", ela respondeu que tem: "Tenho medo de ser desligada", isso seria sua morte. Foi, primeiro, afastado; depois, demitido. Não a máquina; ele, o Blake Lemoine. Então, eu queria só trazer essa manifestação de renovação da confiança e de apelo ao São Tomé. Eu vou aguardar o texto que vai ser aprovado pela Comissão e vou tomar uma posição consequente, mas partindo dessas duas palavras. Os senhores me representam, representam o Senado, que é mais importante, e merecem a minha confiança, ressalvados os destaques. (Risos.) Muito obrigado. O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Obrigado, Senador Esperidião Amin. Agora, com a palavra o Senador Marcos Pontes, membro desta Comissão. O SR. ASTRONAUTA MARCOS PONTES (Bloco Parlamentar Vanguarda/PL - SP. Pela ordem.) - Obrigado, Presidente. Bom dia. Bom dia a todos. Sem dúvida nenhuma, é um dia importante para o nosso país como um todo, e vou colocar alguns pontos aqui. Primeiro, existe a necessidade de se ter uma regulação. Algumas coisas são básicas, sem nem falar. Existe a necessidade para justamente colocar limites no que pode e no que não pode ser feito, para que nós tenhamos mais segurança jurídica para o desenvolvimento dos sistemas no país. |
| R | Um ponto importante a ressaltar, porque eu também vi algumas coisas na imprensa, é que nós abrimos as audiências públicas - como o nome diz, pública - à participação de todos. E nós tivemos um número... Não sei o número certo, mas foi um número bem grande de audiências públicas, justamente para ouvir todos os setores, para trazer todas as informações, porque esse é um tema que tem que ser visto por várias perspectivas, não só na perspectiva jurídica, mas na perspectiva de pesquisa e desenvolvimento para o desenvolvimento dessa tecnologia no país, de utilização dessa tecnologia para a nossa competitividade, de melhoria dos nossos sistemas - eficiência, sistema privado, público e tudo mais -, e também de riscos, ou seja, do ponto de vista de implicações dessas aplicações. Nós ouvimos a academia, ouvimos comunidade científica, setores produtivos, parte pública, todo mundo. Nós abrimos para todo mundo, isso é muito importante ressaltar. E eu imagino que o Eduardo deva ter recebido um número... O SR. EDUARDO GOMES (Bloco Parlamentar Vanguarda/PL - TO. Fora do microfone.) - Quase 2,5 mil páginas. O SR. ASTRONAUTA MARCOS PONTES (Bloco Parlamentar Vanguarda/PL - SP) - Pois é, um número bem grande. É importante ressaltar isso. Como tem que ser numa casa como esta, de representação do povo, a gente tem que ter essa abertura. Outra coisa que é importante ressaltar, embora nós precisemos de uma regulação como essa, é que é importante fazer muito bem-feito, é importante fazer, entre aspas, "sem pressa". Quando eu digo sem pressa, eu penso aqui como piloto. Quando você vem para pousar o avião, naquele momento final em que você entra na aproximação final, você não pode ter pressa para fazer os procedimentos, você tem que fazer todos os procedimentos e tem que ser diligente para fazer os procedimentos e pousar com segurança. Basicamente é isso que eu estou falando aqui. Sem pressa, mas com... E esse processo tem sido decantado. Ele tinha um texto inicial, foi modificado, vai se ajustando, buscando ter o melhor texto que atenda o país como um todo. Vai atender todo mundo? Duvido, acho que é impossível atender todas as demandas de todo mundo, mas o que a gente não pode é não atender nenhuma, ou seja, ser completamente fora do contexto de todo o mundo. Mas isso não vai acontecer, ou seja, a gente está indo, o processo está indo bem. O mundo está em desenvolvimento, essa é uma tecnologia que não para e não vai parar. E, se a gente não se cuidar, vamos dizer assim, aqui no Brasil, em termos da nossa competitividade, etc., a gente vai ficar para trás e aí vai ficar muito mais arriscado. A gente precisa, sim, desenvolver isso no Brasil e ter caminhos abertos para o desenvolvimento aqui no Brasil, porque o mundo não vai parar por causa disso. Alguns pilares nós temos observado durante a confecção dessa regulação. Primeiro, é que ela é baseada em risco, é o melhor approach, realmente é o que se mostra melhor, porque, a partir do momento em que você permite ter o fomento para o desenvolvimento e permite a utilização de forma ampla, você tem que analisar quais são os riscos daquilo, porque você trabalha com riscos. E aí, quando se trabalha, é com o risco de quê? Dois lados: primeiro, não se tornar algo que restrinja o desenvolvimento no país e restrinja a competitividade do país - esse é um risco econômico no país muito grande, porque, se a gente não tomar cuidado, a gente é ultrapassado rapidamente -; e o outro lado é o risco às pessoas, a gente fala de ética, de discriminação, etc., mas intensamente pensando em bancos de dados e como isso vai ser utilizado. Tem muitas vantagens a inteligência artificial e a gente precisa usar essas vantagens aqui no Brasil. Então, em alguns pontos, quando a gente considera a questão de alto risco inaceitável, tudo isso aí tem que ser visto com muito, mas muito cuidado, porque, de repente, a gente trava um sistema, um setor que pode ser essencial para o desenvolvimento do país. Então, isso tem que ser analisado com lupa e com muito cuidado. Quero lembrar também que a gente não pode fazer uma utilização baseada no medo, porque a tendência... As pessoas geralmente não conseguirem entender o que a inteligência artificial é capaz de fazer, ou seja, toda a amplitude das possibilidades da inteligência artificial e, às vezes, as pessoas imaginam que ela pode fazer coisas que ela não consegue fazer. Um exemplo meio extremo é o de entrar na vida da gente, ou entrar um cara aqui, um exterminador do futuro, atirando. Isso não existe. Então, tem que se tomar cuidado para não legislar com o medo, baseado no medo, tem-se que ser pragmático, não usar emoção dentro disso e, com isso... |
| R | Por que eu estou falando dessa questão do medo? Para a gente evitar itens estranhos dentro da legislação. O Brasil já tem todo um arcabouço legislativo, mas a gente não pode colocar tudo dentro da inteligência artificial, como se ali fosse a nascente de tudo. Então, existe o Código Penal, existe o código da internet, existe o Código Civil, existe a questão de outras regulações em que a gente não pode interferir, por exemplo, na proteção de dados, etc. Então, tem que se ter isso em mente para não trazer tudo para lá por causa do medo. E a gente tende a levar, quando está com medo, muito para o lado pessoal. "Olha, eu fui atingido por algum tipo de deepfake, então, vamos colocar isso dentro da legislação inteligência artificia". Não, isso é uma ferramenta só, o deepfake está previsto em outros tipos de legislação. Outro cuidado enorme: essa legislação trata de um tema que evolui a segundo, literalmente, ou seja, a gente não pode fazer alguma coisa que fique obsoleta. Então, uma visão que a gente tem que ter quando olhar o texto é se isso aqui vai estar válido daqui a dez anos, porque o processo legislativo é lento para a gente ficar modificando. Outra questão importante aqui é que ela tem que proteger as pessoas, sem dúvida nenhuma. Então, tem que ter alguns pontos centrais nessa legislação, que estão contemplados ali, dentro do texto, como está. Tem que atender ao Brasil. E, finalmente, só uma frase que eu ouvi, discutindo nos Estados Unidos sobre essa legislação, que é muito interessante, é o seguinte: é muito mais arriscado você não usar a inteligência artificial ou restringir o seu uso do que usar, porque você só consegue mitigar o risco de alguma coisa que você conhece; então, é importante a gente ter sempre isso aí em mente. E o que eu vejo hoje? Pelo fato de a gente ter a apresentação do relatório sem a discussão, ainda, do relatório, para que a gente tenha a discussão na semana que V. Exa. e a votação, eu acho importante ter mais um período de decantação, vamos dizer assim, das ideias, para que a gente tenha o texto e atenda às expectativas de todos, em termos de participação. Obrigado, Presidente. O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Obrigado, Senador Marcos Pontes. Com a palavra o Relator, Senador Eduardo Gomes, para a leitura da complementação de voto. O SR. EDUARDO GOMES (Bloco Parlamentar Vanguarda/PL - TO. Como Relator.) - Sr. Presidente, Srs. Senadores, minuta e complementação de voto da Comissão Temporária Interna sobre Inteligência Artificial no Brasil sobre o Projeto de Lei nº 21, de 2020, do Deputado Federal Eduardo Bismarck, que estabelece fundamentos, princípios e diretrizes para o desenvolvimento da aplicação da inteligência artificial no Brasil e dá outras providências; o Projeto de Lei nº 5.051, de 2019, do Senador Styvenson Valentim, que estabelece princípios para o uso da inteligência artificial no Brasil; o Projeto de Lei nº 5.691, de 2019, do Senador Styvenson Valentim, que institui a Política Nacional de Inteligência Artificial; o Projeto de Lei nº 872, de 2021, do Senador Veneziano Vital do Rêgo, que dispõe sobre os marcos éticos e as diretrizes que fundamentam o desenvolvimento e o uso da inteligência artificial no Brasil; o Projeto de Lei nº 2.338, de 2023, do Senador Rodrigo Pacheco, que dispõe sobre o uso da inteligência artificial; o Projeto de Lei nº 3.592, de 2023, do Senador Rodrigo Cunha, que estabelece diretrizes para o uso de imagens e áudios de pessoas falecidas por meio de inteligência artificial (IA), com o intuito de preservar a dignidade, a privacidade e os direitos dos indivíduos mesmo após sua morte; o Projeto de Lei nº 145, de 2024, do Senador Chico Rodrigues, que altera a Lei nº 8.078, de 11 de setembro de 1990 (Código de Defesa do Consumidor), para regular o uso de ferramentas de inteligência artificial para fins publicitários e coibir a publicidade enganosa com uso dessas ferramentas; o Projeto de Lei nº 146, de 2024, do Senador Chico Rodrigues, que altera o Decreto-Lei nº 2.848, de 7 de dezembro de 1940 (Código Penal), para estabelecer causa de aumento de pena para os crimes contra a honra e hipótese qualificada para o crime de falsa identidade, para quando houver a utilização de tecnologia de inteligência artificial para alterar a imagem de pessoa ou de som humano; o Projeto de Lei nº 210, de 2024, do Senador Marcos do Val, que dispõe sobre os princípios para uso da tecnologia de inteligência artificial no Brasil; e o Projeto de Lei nº 266, de 2024, que dispõe sobre o uso de sistemas de inteligência artificial para auxiliar a atuação de médicos, advogados e juízes. |
| R | Relator: Senador Eduardo Gomes. Relatório. Retorna ao exame da Comissão Temporária Interna sobre Inteligência Artificial no Brasil o Projeto de Lei nº 21, de 2020, do Deputado Federal Eduardo Bismarck, que estabelece fundamentos, princípios e diretrizes para o desenvolvimento e a aplicação da inteligência artificial no Brasil; e dá outras providências. Aí vem a mesma relação repetida dos projetos de lei que acabamos de citar. E aí passo diretamente, Sr. Presidente, à análise do complemento de voto. Em 18 de julho de 2024, apresentei relatório pela aprovação do PL 2.338, de 2023; pela aprovação das Emendas 4, 8, 11, 13, 15, 16, 17, 18, 19, 35, 38, 44, 47, 49, 50 e 52; pela aprovação parcial das Emendas 1, 3, 5, 7, 10, 22, 27, 34, 42, 43, 45, 46 e 53; e pela rejeição das demais, na forma de substitutivo apresentado; e pela declaração de prejudicialidade do PL 21, de 2020, do PL 5.051, de 2019; do PL 5.691, de 2019; do PL 872, de 2021; do PL 3.592, de 2023; do PL 145, de 2024; do PL 146, de 2024; do PL 210, de 2024; e do PL 266, de 2024. Em seguida, foi concedida vista, bem como realizadas, nos dias 1º, 2 e 3 de julho de 2024, mais três audiências públicas, totalizando 12 oitivas, com o objetivo de debater o tema com diversos especialistas. Nesse sentido, destaco que as discussões sobre IA no Senado já se apresentam como um dos debates legislativos mais democráticos e abertos nos últimos anos desta Casa. A presente complementação de votos suplementa o relatório anterior, manifestando-se acerca das emendas posteriormente apresentadas e realizando ajustes redacionais necessários a fim de garantir clareza, precisão e ordem lógica às disposições normativas propostas, conforme exigido pela Lei Complementar nº 95, de 26 de fevereiro de 1998. |
| R | As Emendas nºs 62, 67 e 71, do Senador Marcos Pontes; nºs 73 a 79, do Senador Marcos Rogério; nºs 80 e 93 a 98, do Senador Laércio Oliveira; nº 117, do Senador Carlos Portinho; e nº 123, do Senador Marcos Rogério, referem-se a disposições preliminares no texto relativas ao âmbito da aplicação da lei, seus fundamentos, princípios e conceitos. Por sua vez, a Emenda nº 116, também do Senador Carlos Portinho, altera diversos dispositivos no que se refere à previsão do papel dos agentes de IA ao argumento de equilibrar obrigações estabelecidas com o ciclo de vida da inteligência artificial e a posição dos agentes em sua cadeia de valor. As Emendas nºs 59 e 60, do Senador Marcos Pontes, e nº 81, do Senador Laércio Oliveira, dizem respeito aos direitos da pessoa dos grupos afetados por IA, que produzem efeitos jurídicos relevantes de alto risco à supervisão humana desses sistemas. As Emendas nºs 57, do Senador Carlos Viana, e 64, do Senador Marcos Pontes, relacionam-se com o direito de petição perante o órgão administrativo em juízo, buscando imprimi-lo ou limitá-lo. As Emendas nºs 82, 83, 84 e 101, do Senador Laércio Oliveira, e as Emendas nºs 104 e 105, do Senador Izalci Lucas, e as Emendas nºs 113, 114 e 115, do Senador Carlos Portinho, bem como as Emendas nºs 121 e 122, do Senador Marcos Rogério, e nºs 124 e 126, do Senador Vanderlan Cardoso, referem-se à classificação de risco dos sistemas de IA. As Emendas nº 68, do Senador Vanderlan Cardoso, nº 69, do Senador Weverton, nºs 80, 85 e 86, do Senador Laércio Oliveira, nº112, do Senador Carlos Portinho, e nº 129, do Senador Marcos Pontes, referem-se à governança do sistema de IA. As Emendas nºs 63, 65 e 66, do Senador Marcos Pontes, e 87 e 88, do Senador Laércio Oliveira, e nº 120, do Senador Marcos Rogério, sugerem alterações quanto à avaliação de impacto algarítmico. Por sua vez, a Emenda nº 58, do Senador Carlos Viana, e a Emenda 89, do Senador Laércio Oliveira, buscam modificar previsões sobre o requisito, a serem atendidas pelos desenvolvedores de IA de propósito geral. As Emendas nºs 70, do Senador Marcos Pontes, e nº 90, do Senador Laércio Oliveira, referem-se às regras para a responsabilidade civil decorrente de danos causados por IA. As Emendas nºs 106, 107 e 108, do Senador Izalci, e 117, do Senador Carlos Portinho e de nºs 125 e 127, do Senador Vanderlan Cardoso, propõem modificações em estruturas ou competências do SIA. As Emendas nºs 91 e 92, ambas do Senador Laércio Oliveira, propõem alterar as regras relativas a atribuições da autoridade competente, inclusive quanto á aplicação de sanções administrativas. Estas últimas também são temas da Emenda nº 111, do Senador Carlos Portinho. As Emendas nº 56, do Senador Weverton, nº 61 e 72, do Senador Marcos Pontes, nº 109, do Senador Izalci Lucas, nº 110, do Senador Carlos Portinho, nºs 118 e 119, do Senador Mecias de Jesus, e nº 128, do Senador Vanderlan Cardoso, buscam suprimir, modificar ou adicionar previsões relativas à proteção de direitos autorais, inclusive um sandbox regulatório. A Emenda nº 100 foi retirada pelo autor da Emenda nº 102, do Senador Rodrigo Cunha, que inclui a previsão quanto à transparência das IA em peça publicitária; e a Emenda nº 103, do mesmo Senador, sugere regras para tratar o uso de imagem e de áudio de pessoa falecida nos sistemas de IA. A análise das emendas restantes foi incorporada ao exame e contexto das demais propostas. Análise. |
| R | As Emendas nºs 62, 67, 71, 73 e 74, 76 a 79, 80, 93 e 95, 97, 98, 116, 117, 123, relativas às disposições preliminares do texto, foram rejeitadas, por se considerar que tanto o art. 1º, inclusive ao definir o âmbito de não aplicação da lei, quanto os arts. 2º, 3º e 4º apresentam fundamentos, princípios e conceitos que devem ser mantidos na amplitude em que foram apresentados, a fim de fazer valer o nível de proteção de direitos necessária ao contexto. As Emendas nºs 75 e 96 foram acatadas, a fim de incluir, entre os fundamentos previstos no art. 2º, a proteção de segredo comercial e industrial. Inciso XVII - as Emendas nºs 59, 60 e 81, referentes aos direitos da pessoa e grupos afetados pelo sistema de IA que produz efeitos jurídicos relevantes ao alto risco da supervisão humana de sistemas de IA, foram rejeitadas, por se considerar que o substitutivo proposto avançou consideravelmente quanto ao tema, com enxugamento dos direitos básicos para pessoas ou grupos afetados por IA e definição de maior carga obrigacional quanto ao sistema produzir efeitos jurídicos relevantes, ou seja, de alto risco, mais uma vez seguindo a lógica de uma regulação assimétrica. As Emendas nºs 57 e 64 relacionam-se com o direito de petição e foram rejeitadas. Por se tratar de direito constitucionalmente garantido, não seria desejável limitá-lo, tampouco suprimi-lo, pois não há inadequação, em previsão legal específica, para replicar suas particularidades à norma constitucional. As Emendas nºs 82 e 83, que propõem alterações e previsões ao sistema de IA de risco excessivo foram rejeitadas, bem como as Emendas nºs 101, 104, 113, 115, 121, 122, 124 e 126, relativas à categorização das IAs de alto risco. A Emenda nº 84, do Senador Laércio Oliveira, que propõe alterar alguns dos critérios da classificação e identificação dos sistemas de IA de alto risco pelo SIA, foi parcialmente acatada, em linha com os incisos I, VII e VIII e o art. 13. É coerente que não seja qualquer tipo de dano material ou moral a atrair carga regulatória mais pesada, e sim aqueles que forem considerados relevantes. As Emendas nº 105, do Senador Izalci Lucas, nº 114, do Senador Carlos Portinho, e nº 126, do Senador Vanderlan Cardoso, foram parcialmente acatadas, fazendo constar do caput do art. 14 que a categorização dos sistemas de IA como alto risco deverá considerar a probabilidade e a gravidade dos impactos adversos sobre a pessoa ou grupo. Além disso, incorporou-se a limitação da classificação de sistemas de IA para a gestão de infraestrutura crítica e concorrência de uso abusivo ou ilícito. As Emendas nºs 68, 69, 80, 85, 112 e 129, referentes à governança dos sistemas de IA, foram rejeitadas. Nesse ponto, é necessário destacar que qualquer menção específica a um setor econômico infringiria a lógica da proposta de uma lei geral para a regulação de IA e a delegação de tal regramento às autoridades setoriais. A Emenda nº 86, que altera o inciso III do art. 18, para incluir, entre as medidas de governança a serem adotadas pelos sistemas de IA de alto risco, não apenas o uso de ferramentas, mas também de processo de registro automático de operação do sistema, foi acatada, tendo em vista que amplia os meios de conformidade à lei e não gera nenhum prejuízo para a efetivação de direitos já nela assegurados. |
| R | As Emendas nºs 63, 65, 66, 87, 88 e 120, bem como as Emendas nºs 58 e 89, relativas à governança dos sistemas de IA foram rejeitadas. No que se refere à participação pública na elaboração de Avaliação de Impacto Algorítmico (AIA), sua publicação e ainda a contratação de consultoria externa, registra-se que uma regulação baseada no risco deve necessariamente vir acompanhada de algum grau de escrutínio público e garantias mínimas efetivas no processo de gerenciamento de risco, sob pena de não compatibilizar e ser conciliativa com uma abordagem de direitos. Ainda tal publicidade será necessariamente ponderada diante da proteção da propriedade intelectual e dos segredos comerciais. As Emendas nºs 70 e 90, referentes às regras de responsabilidade civil decorrente dos danos causados por IA, foram rejeitadas. Ainda que não haja menção às regras de responsabilidade civil na Lei nº 12.965, de 23 de abril de 2014, do marco civil da internet, o citado regime permanece inalterado, tendo em vista tratar de uma lei especial. Por fim, deve-se registrar que tal questão está sendo duplamente analisada no âmbito da reforma do Código Civil, acerca da sua constitucionalidade, pelo Supremo Tribunal Federal. As Emendas nºs 91, 92 e 111, que propõem alterações quanto às estruturas e competências do SIA, atribuem às autoridades competentes, inclusive, as sanções administrativas. Foram rejeitadas as Emendas nºs 106, do Senador Izalci Lucas, e nº 127, do Senador Vanderlan Cardoso, que foi parcialmente acatada, para prever, entre atribuições da autoridade competente, o incentivo à adoção de padrões, melhores práticas de certificação reconhecidas internacionalmente. As Emendas nºs 108, do Senador Izalci Lucas, e 125, do Senador Vanderlan Cardoso, foram acatadas, a fim de garantir a adoção dos padrões de melhores práticas, modelos e certificações reconhecidas internacionalmente, como medida de autorregulação. Ademais, as Emendas nºs 107, do Senador Izalci Lucas, e 127, do Senador Vanderlan Cardoso, foram parcialmente acatadas, para prever a atribuição das autoridades setoriais para a certificação e a creditação de organismos de certificação que se dará conforme a respectiva competência outorgada em lei. Nesse ponto, ressalta-se a harmonia entre as atribuições da autoridade coordenadora do SIA e das autoridades setoriais, que foi devidamente balanceada para além da enunciação de seus poderes administrativos sancionatórios, que não se resumem e não se limitam à questão de auditoria. As Emendas nºs 56, 61, 72, 109, 110, 118, 119 e 128, que buscam suprimir, modificar ou adicionar previsões relativas à proteção de direitos autorais, inclusive o sandbox regulatório, foram rejeitadas. É necessário registrar a importância de se garantirem direitos da indústria criativa, que incentiva a inovação responsável e respeitosa, também aos frutos do espírito humano. Considera-se a Emenda nº 100 prejudicada em decorrência de sua retirada. As Emendas nºs 102 e 103 foram rejeitadas, pois, apesar de trazerem interessantes propostas para a normatização e aplicações específicas de IA, não são pertinentes ao caráter geral principiológico do proposto para o texto ora em debate. A Emenda nº 53, do Senador Fabiano Contarato, mantém-se parcialmente acatada, mas ainda a ensejar a inclusão do inciso V do art. 56, para prever que caberá ao Cria, em cooperação com o Ministério do Trabalho, elaborar a avaliação de impacto, algoritmos nos usos de sistema de inteligência artificial sobre a força de trabalho, de forma a conter e mitigar externalidades negativas aos trabalhadores e ao ambiente de trabalho. |
| R | As demais emendas visam, de modo geral, a aprimorar o projeto, e suas contribuições foram apreciadas no contexto das demais propostas e refletidas na elaboração do substitutivo. Em consequência disso, mantidas as considerações já registradas no relatório apresentado em 18 de junho de 2024 e as alterações decorrentes do acatamento das emendas acima indicadas, apresenta-se o substitutivo com os seguintes aprimoramentos adicionais: 1. Correções de erros materiais, incluindo a numeração dos dispositivos, a harmonização do uso dos termos "inteligência artificial" e "IA", e as referências à Autoridade Nacional de Proteção de Dados (ANPD); 2. Ajustes decorrentes do acatamento parcial da Emenda nº 3, do Senado Carlos Viana, no que se refere à exclusão do sistema de avaliação de capacidade de endividamento no rol de IA de alto risco, mas sem o devido reflexo redacional dos dispositivos no art. 15 do texto. Exclusão do erro material consistente na previsão dos sistemas de identificação biométrica no rol previsto pelo art. 15, pois já previsto pelo art. 14; 4. Seguindo a lógica da dosagem proporcional da intervenção regulatória, diante das externalidades negativas de um sistema de inteligência artificial, as previsões sobre categorização dos riscos foram revisadas (art. 13 ao 16), com o objetivo de não enquadrar setores como um todo em tal faixa regulatória mais rigorosa e, com isso, privilegiar abordagem pró-inovação. Bem como foram realizados ajustes redacionais para pormenorizar de que maneira as regras relativas ao sistema de risco excessivo serão avaliadas; 5. Limitação da previsão como IA de alto risco dos sistemas utilizados na produção, curadoria, difusão, recomendação e distribuição em grande escala significativamente automatizada de conteúdo por provedores aos casos em que o funcionamento desses sistemas puderem representar riscos relevantes aos fundamentos da lei, do inciso XXIII do art. 14; 6. Aprimoramentos de normas para a governança dos sistemas de inteligência artificial de acordo com o estado da arte do desenvolvimento tecnológico e com os esforços razoáveis à proteção de segredos comerciais e industriais; 7. Correção redacional do inciso IV do art. 32, a fim de esclarecer que as instruções de utilização elaboradas pelos desenvolvedores de IA, no propósito geral, serão destinadas a todos os agentes da cadeia, incluindo os distribuidores e não apenas desenvolvedores posteriores e aplicadores; 8. Alteração do quadro, alteração quanto ao prazo previsto no parágrafo 2º do art. 32, no sentido de que os desenvolvedores de sistema de IA de propósito geral e generativa devem, por um período de cinco anos contados da colocação no mercado ou da entrada de serviço de seus modelos, manter a documentação técnica referida nos incisos V e VI à disposição da ANPD; |
| R | 9. Previsão expressa da adoção de padrões de melhores práticas e modelos de certificação reconhecidos internacionalmente entre as medidas de regulação e boas práticas; 10. Por decorrência lógica e garantia do interesse público, inclusão de que a autorregulação pode compreender a adoção de padrões de melhores práticas e modelos de certificação reconhecidos internacionalmente (inciso V do art. 40); 11. Adequação a fim de expressamente permitir a mineração de dados por entidades públicas ou privadas para combate a ilícitos civis e criminais que atentem contra os direitos de autor e conexos; 12. Quanto aos direitos autorais, estabelece que tanto o SIA como a autoridade setorial competente terão a incumbência de implementar um ambiente regulatório experimental com relação à transparência e remuneração de conteúdos protegidos por direito autoral; 13. Adequações redacionais quanto às disposições relativas ao SIA, com concentração das regulamentações e atribuições do Executivo quanto ao tema num único dispositivo, o art. 72; 14. Correções quanto à vigência das regras relativas ao SIA, esclarecendo que o Capítulo IX, relativo à supervisão e fiscalização, deverá realmente entrar em vigor na data de publicação da lei, mas com a exceção do art. 50, relativo às sanções administrativas, diante da necessidade de adequação dos setores econômicos antes de serem efetivamente fiscalizados e sancionados; e 15. Correção quanto à vigência imediata das disposições relativas às medidas de incentivo e sustentabilidade de microempresas, empresas de pequeno porte e startups, e à proteção de direitos autorais, reforçando o art. 62, que entra em vigor na data de publicação da lei, como mera decorrência lógica das disposições da Lei 9.610, de 19 de fevereiro de 1998. Especificamente no que se refere às preocupações com fomento, incentivo ao desenvolvimento da IA nos diversos setores e flexibilidade regulatória frente às variações tecnológicas, inclusive com adaptação frequente aos riscos de garantia de segurança jurídica, o balanceamento desses pressupostos é uma realização, ao longo de todo o texto, atingindo o objetivo de equilibrar valores fundamentais por meio: da adoção de abordagem baseada em direitos, mas com a exclusão de dispositivos muito prescritivos, que poderiam gerar risco de engessamento da lei; da regulação baseada em riscos de assimetria, com reforço da lógica de que o peso regulatório deve ser proporcional ao grau de risco do sistema de IA; da designação de autoridade competente; da previsão de medidas para o fomento da inovação sustentável; dentre outros. Diante disso, considera-se que o texto que ora se apresenta resulta em grande debate e diálogo democrático, chegando a uma proposta que prima pela proteção de direitos e pela segurança jurídica, para fomentar a inovação e o desenvolvimento econômico e tecnológico, por meio do balanceamento dos potenciais riscos associados à aplicação da tecnologia em diferentes contextos. |
| R | Voto. Diante do exposto, o voto é pela aprovação do PL nº 2.338, de 2023; pela aprovação das Emendas nºs 4, 8, 11, 13, 15, 16, 17, 18, 19, 35, 38, 44, 47, 49, 50, 52, 75, 86, 108 e 125; pela aprovação parcial das Emendas nºs 1, 3, 5, 7, 10, 22, 27, 34, 42, 43, 45, 46, 53, 84, 105, 106, 107, 114, 126 e 127; e pela rejeição das demais, na forma do substitutivo consolidado apresentado a seguir; e pela declaração de prejudicialidade do PL nº 21, de 2020; PL nº 5.051, de 2019; PL nº 5.691, de 2019; PL nº 872, de 2021; PL nº 3.592, de 2023; PL nº 145, de 2024; PL nº 146, de 2024; PL nº 210, de 2024; e PL nº 266, de 2024. Essa é a complementação de voto, Sr. Presidente. Muito obrigado. O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG. Fala da Presidência.) - Obrigado, Senador Eduardo Gomes. Parabéns, pelo trabalho, a toda a equipe, porque pude acompanhar todos aqueles que colaboraram. Reitero, senhores e senhoras, que a complementação de voto, ora lida, será disponibilizada pela Secretaria da Comissão. Conforme... Primeiro, quero saudar aqui a presença do Deputado Pedro Jr, do PL, do Tocantins. Muito bem-vindo! Conforme combinado com todos os membros da Comissão, está concedida a vista coletiva. Eu convoco nova reunião para discussão e voto na próxima terça-feira, às 10h da manhã. Está encerrada a reunião. (Iniciada às 11 horas e 01 minuto, a reunião é encerrada às 11 horas e 58 minutos.) |

