17/10/2023 - 5ª - Comissão Temporária Interna sobre Inteligência Artificial no Brasil

Horário

Texto com revisão

R
O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP. Fala da Presidência.) - Boa tarde a todos.
Declaro aberta a 5ª Reunião da Comissão Temporária Interna sobre Inteligência Artificial no Brasil, criada pelo Requerimento nº 722, de 2023, com a finalidade de, no máximo de 120 dias, examinar os projetos concernentes ao relatório final aprovado pela Comissão de Juristas, responsável por subsidiar a elaboração do substitutivo sobre inteligência artificial no Brasil, criada pelo ato do Presidente do Senado Federal nº 4, de 2022, bem como eventuais novos projetos que disciplinem a matéria.
Antes de iniciarmos os nossos trabalhos, proponho a dispensa da leitura e a aprovação da ata anterior.
As Sras. e os Srs. Senadores que concordam permaneçam como se encontram. (Pausa.)
R
A ata está aprovada e será publicada no Diário do Senado Federal.
Gostaria de agradecer a presença do nosso Presidente, o Senador Eduardo Gomes, que gentilmente deixou-me dar a partida aqui nesse processo, que é extremamente importante para o Brasil. Hoje, a nossa pauta se destina à realização de audiência pública com a finalidade de debater o relatório final da Comissão de Juristas responsável por subsidiar elaboração do substitutivo sobre inteligência artificial no Brasil, em cumprimento ao Requerimento nº 4, de 2023, da Comissão de Inteligência Artificial, da autoria do Senador Eduardo Gomes.
O público interessado em participar dessa audiência pública poderá enviar perguntas ou comentários pelo endereço www.senado.leg.br/ecidadania ou ligar para 0800 0612211. De novo: 0800 0612211.
Encontra-se presente no plenário da Comissão o Sr. Fabricio da Mota Alves, Conselheiro Titular do Conselho Nacional de Proteção de Dados. Obrigado pela presença.
Encontram-se também presentes, por meio do sistema de videoconferência, Laura Schertel Ferreira Mendes, Professora da Faculdade de Direito da Universidade de Brasília - Dra. Laura, obrigado pela participação -; Thiago Luís Sombra, Professor da Faculdade de Direito da Universidade de Brasília - obrigado, Thiago, pela participação -; Juliano Souza de Albuquerque Maranhão, Professor da Faculdade de Direito da Universidade de São Paulo (USP) - Juliano, obrigado por estar conosco também - e Bruno Bioni, Diretor-Fundador da Data Privacy Brasil - obrigado, Bruno; obrigado pela presença.
Informo que a ordem das participações será a seguinte: primeiro será Laura Schertel; em segundo, Fabricio da Mota Alves; em terceiro, Bruno Bioni; em quarto, Juliano Souza de Albuquerque Maranhão; em quinto, Thiago Luís Sombra.
Gostaria de solicitar ao Fabricio, então, ocupar o lugar aqui, junto conosco.
Bom, inicialmente, gostaria de agradecer a presença de cada um de vocês que estão aqui no Plenário nº 7 do Senado Federal, também agradecer a todos que nos acompanham através da televisão e das redes do Senado.
O assunto de inteligência artificial já está presente na nossa vida, no dia a dia. A participação desse tipo de tecnologia já se encontra em muitos dos sistemas que nós utilizamos no dia a dia, assim como participará cada vez mais, seja em sistemas do Governo, sistemas públicos, seja em sistemas privados; novas empresas serão criadas, novos empregos serão criados, novas aplicações da inteligência artificial, com as devidas implicações.
R
E, como toda tecnologia disruptiva, a inteligência artificial tem a capacidade de produzir muita coisa boa - e isso que nós pretendemos no nosso país -, mas também ela tem a capacidade de produzir problemas, em termos de ética, em termos de privacidade de dados e assim por diante. Então, o assunto de hoje - o tratamento jurídico desse assunto, desse tema - tem uma importância muito grande e, sem dúvida nenhuma, vai fazer parte, como um elemento central, dos nossos trabalhos aqui nesta Comissão.
Nós temos esse assunto visto de várias perspectivas. É importante que nós tenhamos as perspectivas, da mesma forma como tem sido feito em diversos países. Eu era o representante do Brasil no GPAI (Global Partnership on Artificial Intelligence). Esses assuntos têm sido debatidos em nível de país já há algum tempo, e o Brasil precisa ter uma legislação que seja, ao mesmo tempo, flexível o suficiente para permitir o desenvolvimento da tecnologia, o desenvolvimento das empresas e dos negócios, utilizando inteligência artificial, mas também sábia o suficiente para que a privacidade e a vida das pessoas sejam preservadas durante essas aplicações.
Então, é um equilíbrio muito delicado, que precisa ser alcançado. Nós não podemos ter uma lei que seja extremamente restritiva, que, no dia seguinte da publicação, já esteja desatualizada por causa da velocidade da mudança da tecnologia, mas é necessário que nós tenhamos uma legislação que seja adequada e eficiente para os objetivos do país, o desenvolvimento do nosso país também.
Eu gostaria de agradecer, já de antemão, a todos os nossos participantes, agradecer muito por essa colaboração com o país, através do trabalho, através das suas informações e do conhecimento, e também já antecipo os meus agradecimentos a todos aqueles que nos acompanham nas redes e que vão nos enviar perguntas e sugestões a respeito do tema.
Para iniciar o trabalho, eu gostaria de solicitar à nossa palestrante, inicialmente... Deixe-me ver, nós temos aqui... (Pausa.)
Então, eu vou combinando aqui com cada um dos nossos apresentadores um tempo de dez minutos para a apresentação.
Aqueles que estão aqui têm a facilidade de ver o relógio e ter essa contagem de tempo mais facilitada. Àqueles que estão remotamente eu peço que marquem o tempo para que não haja uma extrapolação muito grande do tempo. Obviamente, existe certa flexibilidade, mas é importante que nós mantenhamos o tempo em torno de dez minutos, que seja adequado para que todo mundo tenha a possibilidade de falar. Depois, nós vamos abrir para perguntas, para questionamentos e abrir o debate a respeito dos temas que forem apresentados.
Então, eu gostaria, de imediato, de passar a palavra para a Dra. Laura Schertel Ferreira Mendes, Professora da Faculdade de Direito da Universidade de Brasília (UnB), para o seu pronunciamento.
Obrigado, Professora. A palavra está com a senhora.
A SRA. LAURA SCHERTEL FERREIRA MENDES (Para expor. Por videoconferência.) - Muito obrigado, Senador Astronauta Marcos Pontes.
Eu queria agradecer, em primeiro lugar, o convite gentil do Senado para participar desta audiência pública.
Cumprimento o senhor, cumprimento o Senador Eduardo Gomes, Presidente desta Comissão, cumprimento todos os colegas e membros da Comissão de Juristas que aqui estão presentes: Fabricio da Mota Alves, Bruno Bioni, Juliano Maranhão, Thiago Luís Sombra. E cumprimento também a Adriana, assessora do Senador Eduardo Gomes, com quem nós trabalhamos muito intensamente também ao longo desse tempo na Comissão de Juristas, e todos aqui presentes.
R
Eu queria, em primeiro lugar, Senador, cumprimentar o Senado pela liderança neste debate, por ter criado esta Comissão Temporária para discutir todos esses projetos de lei, cumprimentar o Presidente Rodrigo Pacheco por ter criado esta Comissão de Juristas que foi presidida pelo Ministro Ricardo Villas Bôas Cueva, e eu tive a honra de ser a Relatora desta Comissão.
Nesses dez minutos, eu queria apresentar muito rapidamente o trabalho que a Comissão fez. É claro que eu não vou conseguir nesse tempo apresentar, mas certamente os meus colegas aqui poderão complementar. Eu acho que o objetivo é explicar um pouco o trabalho da Comissão e o objetivo também, um pouco quais são os princípios norteadores do PL, porque, no fim, esse anteprojeto que foi proposto pela Comissão de Juristas acabou se tornando o PL 2.338, proposto pelo Presidente do Senado, o Senador Rodrigo Pacheco.
Então, eu queria, em primeiro lugar, dizer que eu falo também aqui como Professora da UNB, sou também Professora e Coordenadora do Mestrado Profissional do IDP, sou Presidente da Comissão de Direito Digital da OAB, do Conselho Federal, e agora recentemente integro um fórum, um grupo de trabalho sobre inteligência artificial na área de comunicação e informação, Forum on Information & Democracy, que é um fórum internacional formado por sociedade civil, academia, para discutir os impactos da inteligência artificial, especialmente nessa área da comunicação. Acho que isso mostra como esse tema também é tão importante, os impactos sobre a nossa democracia, sobre as eleições no Brasil que virão no ano que vem. Eu acho que tudo isso é um tema muito relevante para o Senado Federal, para o nosso Congresso, para o nosso país.
Então, quando estamos falando de inteligência artificial, quando estamos falando dos impactos da IA, dos impactos desse sistema da IA generativa, de que agora estamos começando a perceber os riscos, inclusive riscos relacionados à ampliação da desinformação, a discussão sobre hegemonia da informação, sobre base de dados, que tipos de dados são sendo utilizados, como esses dados estão sendo treinados, os erros que muitas vezes enxergamos nesses sistemas de IA generativa, que todos nós já temos oportunidade de usar, eu acho que isso tudo mostra que isso pode não apenas afetar o interesse e o direito de cada um de nós, mas especialmente pode afetar as nossas democracias. Acho que esse é um tema muito caro ao Senado Federal e ao nosso Congresso como um todo.
Acho que é importante dizer que o Brasil não é o único que está discutindo esse tema, mas temos vários países, temos vários fóruns internacionais discutindo a regulação da inteligência artificial. Eu queria citar aqui recentemente a recomendação da Unesco, temos também as diretrizes da OCDE, todos eles mostrando como é importante avaliarmos, como o Senador Marcos Pontes comentou, como é importante a gente obter, para que a gente obtenha os benefícios desse sistema de inteligência artificial, como é importante a gente mitigar os riscos que podem advir desses sistemas.
R
Afinal, como esses sistemas utilizam dados da nossa realidade, dados que nós mesmos produzimos, esses dados muitas vezes estão equivocados, muitas vezes estão enviesados, como naquele famoso exemplo, o caso da Amazon, em que, de tão acostumados que estávamos de contratar sempre pessoas do sexo masculino, homens, para determinadas funções, o resultado do sistema de IA não poderia ser diferente: havia uma discriminação de gênero no resultado, ou seja, os dados que colocamos e os dados que são utilizados para treinar os sistemas são relevantes e fazem diferença no output e no resultado desses sistemas. Isso é muito importante quando a gente fala num país como o nosso, em que a gente tem um racismo estrutural, uma discriminação estrutural. É fundamental que esses sistemas não agravem, não piorem ainda mais essa discriminação. É fundamental que a gente tenha essas vulnerabilidades do nosso país em mente.
Então, eu diria que vieses, um potencial discriminatório, erros, dados desatualizados, tudo isso são equívocos e são riscos que podem acontecer. Eu diria que o grande objetivo da regulação da IA, a meu ver, de fato, tem que ser mitigar esses riscos, fazer com que tenhamos resultados mais corretos, mais atualizados, mitigar esses riscos da discriminação.
Em uma frase bastante singela, os sistemas de IA são formulados, pensados e operados em toda essa cadeia por seres humanos, e, como nós, esses sistemas falham. Nós precisamos, então, ter mecanismos... A lei, a regulação precisa prover mecanismos para que, quando esses sistemas falharem, a gente possa corrigir os erros. Afinal, os erros podem afetar imensamente as pessoas.
Eu vou citar aqui outro exemplo bastante dramático. Quando nós pensamos no reconhecimento facial, nós sabemos que a polícia já utiliza... A investigação criminal já utiliza reconhecimento facial para identificar muitas vezes aqueles que estão sendo investigados pela polícia, mas nós temos hoje alguns levantamentos que dizem que 90% dos presos por monitoramento facial no Brasil são negros. Esse é um levantamento feito pelo Pablo Nunes. Nós temos inúmeros exemplos que demonstram o risco disso para as pessoas. Quando nós pensamos em prisão, na restrição à liberdade, é extremamente grave pensar que a nossa vida, as oportunidades das pessoas, a liberdade das pessoas pode ser maior ou menor a depender desses sistemas. Isso demonstra como nós precisamos tornar esses sistemas accountables, como a gente precisa torná-los passíveis de uma prestação de contas. Eles precisam ser transparentes, eles não podem ser as famosas black boxes, como sempre falamos. É preciso que as pessoas possam compreender os critérios pelos quais eles foram julgados.
Então, eu acho que o grande objetivo da regulação é aumentar a transparência, aumentar a accountability, a governança desses sistemas, diminuir a discriminação, o seu potencial discriminatório. Tudo isso me parece ser o grande objetivo de uma regulação de uma forma geral e certamente os objetivos que a Comissão de Juristas buscou, então, seguir no anteprojeto que acabou se tornando o PL 2.338.
R
Daria para a gente dividir talvez em três grandes eixos esse PL. Eu vou explicar muito rapidamente, se ainda tiver um tempinho.
O primeiro eixo são princípios e direitos. Nós temos como princípios: não discriminação, transparência, confiabilidade dos sistemas, devido processo legal, participação humana no ciclo da IA e supervisão humana eficaz, responsabilização e atribuição da responsabilidade a uma pessoa.
Isto tem sido muito falado, Senador Marcos Pontes e meus caros colegas: a gente sempre tem que atribuir a responsabilidade desses sistemas a uma pessoa jurídica ou natural. Não pode ser o próprio sistema de IA que ficaria responsável por alguma atitude. É fundamental atribuir essa responsabilização a uma empresa ou a pessoa natural, ao fim e ao cabo. Então, isso está em linha com as recomendações da Unesco, com os princípios da OCDE e tudo isso é trazido, então, nos princípios do PL.
Falando agora um pouco de direitos, acho que essa é uma grande marca também desse projeto de lei. Nós temos uma série de direitos que são fundamentais para que a gente possa garantir que esse sistema seja utilizado de forma justa, não discriminatória e não afete negativamente as pessoas. Então, nós temos um direito bastante básico que é o direito de receber informações sobre interação com sistemas de IA, ou seja, a pessoa precisa saber que ela está interagindo com o sistema de IA, e não com uma pessoa natural, como muitas vezes alguns dos sistemas fazem parecer, não é?
Tem o direito à explicação, que é esse direito básico a compreender os critérios pelos quais as pessoas estão sendo julgadas, o direito de impugnar decisões que produzam efeitos jurídicos significativos na parte afetada, o direito à determinação e participação humana, o direito à não discriminação e o direito à privacidade e proteção de dados. Esse seria o primeiro grande eixo do PL.
No segundo grande eixo, e aqui já falando de riscos e categorização de riscos, nós entendemos que esse projeto de lei compatibiliza, combina dois grandes modelos regulatórios, um modelo baseado em direito e um modelo baseado em riscos, uma regulação baseada em riscos. Afinal, nós sabemos que nem todos os sistemas de IA oferecem o mesmo risco para as pessoas ou para a sociedade. Um sistema que busca spam é um sistema que tem muito menos risco do que um sistema, como esses que eu mencionei, de reconhecimento facial, que pode levar à prisão de alguém, não é? Um sistema de credit scoring pode oferecer mais riscos do que outros sistemas, por exemplo, de classificação, eventualmente, de imagens de animais.
Então, eu acho que a gente tem uma série de... Os riscos são muito diferentes e qualquer regulação, qualquer lei... E esse PL busca exatamente levar isso em consideração, ou seja, sistemas de maior risco precisam estar sujeitos a regras mais rígidas e sistemas de menor risco, a regras menos rígidas. Então, é isso que a gente chama desse modelo de regulação baseada em riscos, e esse segundo grande eixo do PL é exatamente categorizar esses riscos. Então, nós temos o art. 17, deixando claro o que seriam esses sistemas e essas aplicações de maior risco.
Em seguida, nós temos uma série de medidas de governança, como documentação, utilização de ferramentas para permitir a avaliação da robustez e da precisão do sistema, medidas de gerenciamento de dados e adoção também de medidas para possibilitar explicabilidade.
R
E o terceiro grande eixo desse sistema, desse PL 2.338, é exatamente a governança e a supervisão. A proposta que foi feita no PL é a de que nós tenhamos um sistema híbrido, ou seja, um sistema em que haja uma autoridade indicada para coordenar toda a aplicação da lei, mas que toda essa coordenação possa acontecer também com as autoridades e agências reguladoras setoriais. Esse sistema híbrido eu acho que é fundamental, porque nós precisamos de uma coordenação central, sem a qual não há governança, sem a qual não há harmonização dos princípios da lei, da aplicação desses princípios e dos direitos, mas nós precisamos também das agências reguladoras. Então, eu acho que essa combinação é fundamental.
Com isso, eu queria já encerrar essa breve apresentação dizendo que me parece que é fundamental discutirmos amplamente, Senadores, colegas e todos presentes, porque os efeitos que temos em relação a esses temas podem ser muito relevantes tanto para os indivíduos como para a nossa sociedade. E aqui eu clamo mais uma vez: se pensarmos aqui nas eleições do ano que vem, nas eleições municipais, é fundamental também pensarmos em caminhos para endereçar os riscos que podem advir de uma má utilização desses sistemas, em especial se a gente pensa em desinformação e manipulação dos eleitores.
Muitíssimo obrigada pela oportunidade de participar e fico aqui à disposição.
Muito obrigada.
O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Obrigado, Dra. Laura. Parabéns pela apresentação. Sem dúvida nenhuma, nós temos aí muitas vertentes a serem observadas, e essa discussão é muito importante, assim como nós teremos ainda esta semana discussão com o setor de educação, ciência e tecnologia, com o setor da saúde. Então, é importante que cada setor possa expressar suas preocupações e necessidades, para que realmente nós tenhamos a melhor legislação possível aqui no nosso país. Parabéns pelo trabalho. E nós vamos acompanhar aqui a cada momento.
Antes de chamar o nosso próximo palestrante, que vai ser o Dr. Fabricio da Mota Alves, que já está aqui junto conosco, eu vou passar a Presidência desta audiência, pois tenho que estar em outro compromisso agora também, ao nosso Relator, o Senador Eduardo Gomes, que já está aqui a postos para a gente não perder muito tempo.
Obrigado. Obrigado a todos.
Senador, o senhor tem a Presidência.
O SR. PRESIDENTE (Eduardo Gomes. Bloco Parlamentar Vanguarda/PL - TO) - Boa tarde a todas as pessoas que participam desta audiência pública.
A primeira exposição foi da Dra. Laura, a quem cumprimento.
Vou passar a palavra ao nosso segundo palestrante, Fabricio da Mota Alves, Conselheiro titular do Conselho Nacional de Proteção de Dados, que também fez parte da Comissão Especial.
Passo a palavra a V. Sa., por até dez minutos, para a sua exposição.
O SR. FABRICIO DA MOTA ALVES (Para expor.) - Muito obrigado, Senador Eduardo Gomes, Presidente aqui dos trabalhos.
Cumprimento também o Senador Marcos Pontes, que acabou de nos deixar, mas abriu os trabalhos aqui perante a Comissão; cumprimento os presentes; cumprimento os meus amigos queridos aqui: a Adriana, a Kaliana, o Alisson, são todos colegas que estão aí no acompanhamento bastante atencioso dos trabalhos aqui desde a Comissão de Juristas e continuam evoluindo, contribuindo para os debates.
R
Senador Eduardo Gomes, eu penso que, após a brilhante exposição da Profa. Laura, muito se explica sobre o eixo de direcionamento que a Comissão de Juristas adotou para a elaboração e a conclusão dos seus trabalhos. Evidentemente, eu tenho observado muito, na sociedade, após a entrega do relatório da Comissão e a apresentação do projeto de lei pelo Senador Presidente da Casa, Rodrigo Pacheco... Parece-nos, Senador Eduardo Gomes, que existe um certo clima de antagonismo, como se projetos fossem melhores ou piores, uns perante os outros, e o fato é que o que nós percebemos é que os projetos passam por um processo de amadurecimento que é típico de qualquer democracia.
Evidentemente, o Deputado Eduardo Bismarck, ao apresentar o Projeto de Lei nº 21, de 2020, possuía um conhecimento específico e atendia a um interesse daquele recorte momentâneo de propor uma regulação nos termos que foram estabelecidos. Houve um debate na Câmara dos Deputados, diversas audiências públicas, houve uma evolução desse texto, evidentemente - como se deve fazer, como se deve ocorrer -, e a Câmara dos Deputados aprovou o PL 21/20.
Ao chegar ao Senado, houve a criação, através inclusive de iniciativa de V. Exa., Senador Eduardo Gomes, juntamente com o Presidente Pacheco, da instituição da Comissão de Juristas. O objetivo da instituição dessa Comissão foi conferir maior atenção ao tema de regulação jurídica da inteligência artificial no Brasil, ou seja, aprimorar o debate, através da reunião de um grupo de especialistas, cada um com um conhecimento que se agrega numa soma, cujo resultado foi o trabalho da Comissão, e, a partir daí, o texto sofreu um amadurecimento bastante contundente, uma evolução não somente na proposta regulatória, mas também na abordagem legislativa que se conferiu. E me parece muito equivocado se estabelecer um ambiente de antagonismo, como se o projeto, o PL 21/20, fosse um projeto melhor ou pior do que o texto que está sendo proposto pelo Senador Rodrigo Pacheco, fruto da Comissão.
O fato é que nós trabalhamos em cima do texto do Deputado Eduardo Bismarck aprovado pela Câmara dos Deputados, nós aprimoramos aquele texto. Foram ouvidos, evidentemente, diversos setores da sociedade. As audiências públicas e o seminário internacional se dedicaram a ampliar essa discussão e esse debate. Evidentemente, nem todos os interesses e as visões foram incorporados no texto. Eu acho que esse papel é um papel, primordialmente, do Senado Federal e da Câmara dos Deputados - quando o projeto retornar àquela Casa -, mas o fato é que alguns pontos me parece que foram vencidos em toda essa discussão.
O primeiro deles - e o mais importante - é o argumento de que não há necessidade de se regular a inteligência artificial. Parece-me que isso não está mais em debate. Parece-me que está muito claro que a inteligência artificial deve ser regulada, em função dos riscos que já foram apontados pela Profa. Laura, mas não somente por ela, por uma comunidade bastante extensa de especialistas, desenvolvedores, inclusive, da tecnologia e utilizadores dessa tecnologia. Então, a discussão sobre a necessidade ou não de se regular a inteligência artificial já está, a meu ver, superada.
No caso do Brasil, isso é ainda mais contundente, porque nós já estamos numa fase do processo legislativo muito avançada. Nós já estamos na fase de revisão de um texto já aprovado pela Câmara dos Deputados. Então, a Câmara dos Deputados já declarou, publicamente, que quer regular a inteligência artificial, aprovou um texto que representa uma proposta de marco regulatório. O que nós estamos discutindo hoje, no Brasil, ecoando argumentos internacionais, é como regular. O debate hoje em voga é qual a melhor proposta regulatória.
R
E, de novo, Senador, me parece um equívoco estabelecer abordagens regulatórias como certas ou erradas. Esse tipo de binarismo, esse tipo de argumento binário não tem vez no âmbito democrático. Nós precisamos encontrar um ambiente... Veja, Senador: eu ouço, por exemplo, argumentos no sentido de que precisamos de uma lei principiológica no Brasil, e é curioso, porque o texto aprovado pela Comissão de Juristas tem princípios, tem fundamentos, tem diretrizes. As normas precisam de uma margem de direcionamento, uma margem de diretrizes para que seja possível aplicá-las. O que nós observamos, especialmente no Brasil - e é importante que se diga isto -, é que, mesmo quando o texto da lei é claro, cristalino, com pontos, vírgulas e todos os acentos ortográficos estabelecidos adequadamente nas palavras, ainda assim, nós não temos a interpretação que nós lemos. A interpretação acaba seguindo um contexto socioeconômico e jurídico distinto, mesmo quando o texto é claro. Nós vimos isso, inclusive, impactando profundamente os trabalhos parlamentares. Essa é que é a verdade. Quantas vezes o Parlamento sofreu algum tipo de acomodação em função de interpretações de medidas que foram colocadas no controle de constitucionalidade?
O fato é que me parece também muito claro que, quanto mais nós oferecermos à sociedade uma norma robusta, uma norma edificante, uma norma efetivamente madura e abrangente, melhores as ferramentas para o controle, sim, social, para que a sociedade tenha condições de aplicar ou de buscar a aplicabilidade daquela norma. Do contrário, nós teremos sempre uma margem de interpretação bastante perigosa. Nós estamos falando em alguns cenários da ausência de normas, o que nós criticamos. Estamos buscando normatizar fake news, estamos buscando normatizar uma série de outros ambientes sociais em função da necessidade de se normatizar, de se buscarem regras claras. E, quando nós estamos propondo regras claras, vêm críticas. Não me parece, Senador, que seja um caminho razoável. Talvez no que tenhamos que refletir é exatamente como acomodar - o Senador Marcos Pontes falou isso muito bem -, como acomodar a regulação e, na regulação, um espaço para segurança jurídica - eu acho que tudo isso que eu estou dizendo tem como pano de fundo a segurança jurídica -, e segurança jurídica associada a uma margem que permita a inovação e o desenvolvimento não só econômico, como também tecnológico. Esse é o grande desafio.
O que nós observamos é que a regulação é, sim, necessária e é, sim, positiva. Evidentemente, a regulação permite a proteção eficaz de direitos, inclusive o direito da privacidade e agora o direito recentemente criado, graças a V. Exa., que é o direito fundamental da proteção de dados. É um direito ainda muito novo, que ainda está se formatando, que ainda está sendo construído, inclusive através da atuação da própria ANPD, mas é um direito que precisa ser igualmente protegido.
R
A regulação também nos permite não somente segurança, mas também confiabilidade dos sistemas de inteligência artificial. Por que confiabilidade e segurança? Porque ela estabelece padrões, a regulação estabelece padrões, parâmetros. Se eu vou desenvolver uma tecnologia baseada em inteligência artificial, o que eu devo fazer? Eu faço isso de forma aleatória, arbitrária? Não. Existem parâmetros predefinidos, seja pelo legislador, seja pelo regulador, e, a partir desses parâmetros, eu começo a construir.
(Soa a campainha.)
O SR. FABRICIO DA MOTA ALVES - Enfim, padrões éticos e morais. Também precisamos de uma referência. Do contrário, cada ambiente, cada regulador, cada setor terá o seu próprio padrão ético, até em função da carga de subjetividade. A regulação jurídica também nos permite impedir abusos que são comuns na sociedade, desde o abuso de direitos até mesmo o abuso e a manipulação que possa decorrer disso.
Então, Senador Eduardo Gomes, eu penso que a iniciativa de criação desta Comissão Temporária, que é sucessiva ao trabalho da Comissão de Juristas, tudo isso converge no sentido de aprimorar, de conferir maturidade.
Eu testemunhei a evolução dos debates na Lei Geral de Proteção de Dados e, de certa forma, inclusive vários colegas que aqui também me precederam nesse debate, e o que nós vimos foi um amadurecimento também da sociedade em torno disso. Em 2004, em 2002, quando se falava, nos primórdios da discussão de regulação de proteção de dados no Brasil, havia uma maturidade; em 2018, quando a lei foi sancionada, era outra maturidade completamente diferente. Eu participei, como assessor, desses debates. Eu tenho, inclusive, os documentos que foram entregues pelos setores. Eu consigo observar, do documento datado em 2015 ao documento datado em 2018, uma evolução do argumento técnico, da maturidade, inclusive dos impactos socioeconômicos daquela regulação. Isso também está acontecendo na inteligência artificial. Está havendo um debate. Tudo isso que o Senado faz, Senador, muito graças ao trabalho de V. Exa., aprimora o debate, mas, ao mesmo tempo, fortalece, porque confere maturidade, confere oportunidade para aprimoramentos e para estudos, porque todos temos que estudar. É um assunto novo em termos de regulação jurídica, é um assunto inédito, e, se alguém disser que é capaz de fazer isso, esse alguém está redondamente enganado. Estamos aqui construindo, como sociedade, a proposta.
Então, Senador, sei que meu tempo já esgotou, o meu recado é basicamente no sentido de parabenizar o Senado pela iniciativa.
O SR. PRESIDENTE (Eduardo Gomes. Bloco Parlamentar Vanguarda/PL - TO) - Eu agradeço, Dr. Fabricio, pela exposição.
Faço aqui uma pequena pausa para ler as perguntas. E todos podem ficar à vontade para colocar as suas apresentações ou eventualmente pegar, com a Secretaria da Comissão, os endereços para fornecer as respostas que acharem necessárias.
O Erick Breno, de Rondônia, pergunta: "Quais as principais recomendações do relatório final da Comissão de Juristas sobre a regulamentação da inteligência artificial no Brasil?".
A Isadora Silva, da Bahia, pergunta: "Como a lei se aplica a sistemas de inteligência artificial usados em setores governamentais e não governamentais?".
Carlos Gadelha, do Distrito Federal, pergunta como a inteligência artificial pode ser aplicada aos Poderes Executivo, Legislativo e Judiciário.
Daciano Neto, do Rio Grande do Sul, pergunta: "Quais os desafios legais e éticos associados ao uso da inteligência artificial no Brasil e como eles podem ser abordados de forma eficaz?".
O Gabriel Jack, do Rio de Janeiro, comenta: "Limitar a IA para combater desemprego é ignorar a eficiência. A tecnologia sempre foi criada para reduzir o trabalho humano fazendo melhor".
Lucas Ivars, de São Paulo, faz o comentário: "É preciso conscientizar o trabalhador brasileiro [...] [no sentido de] não temer a [...] [inteligência artificial], mas sim reconhecer seu potencial como ferramenta de trabalho".
R
Nós agradecemos a participação, até este momento, de todos que estão acompanhando pelo e-Cidadania.
Eu vou passar a palavra agora ao Bruno Bioni, Diretor-Fundador da Data Privacy Brasil.
V. Sa. tem a palavra pelo prazo de dez minutos, um pouco mais, e depois passaremos para os outros dois expositores.
O SR. BRUNO BIONI (Para expor. Por videoconferência.) - Obrigado, Senador Eduardo Gomes.
Primeiramente, boa tarde a todos e todas.
Eu gostaria de também, assim como a Profa. Laura e o Fabricio - e obviamente os demais colegas da Comissão de Juristas -, parabenizar o Senado e o Parlamento brasileiro por avançar no tema e no debate sobre a necessidade de uma regulação de inteligência artificial no Brasil.
Sempre me vem à mente uma frase bastante sábia do próprio Senador Eduardo Gomes de que o tema é urgente, ainda que a gente precise debatê-lo com bastante cautela e prudência, porque, como bem lembrou o Senador Astronauta Marcos Pontes, não é uma discussão futurista, é uma discussão do presente, para a gente poder experimentar não só os benefícios, que vão desde utilização de inteligência artificial para agricultura de precisão, diagnósticos mais precisos na área da saúde, como vêm surgindo, mas também os malefícios, que inclusive foram bem lembrados pela Profa. Laura aqui, como prisões ilegais por meio de reconhecimento facial e também algo que tem amplificado o fenômeno de desinformação, principalmente agora com as chamadas IAs generativas.
Secundando também o que foi dito anteriormente pelo colega Fabricio, é importante posicionar no tempo uma cronologia de onde nós estamos, considerando inclusive o próprio projeto de lei que é objeto específico desta audiência pública, que é o 2.338, de 2023, onde nós estivemos anteriormente e onde nós podemos estar. Como o Fabricio bem lembrou, a gente tem, por assim dizer, um continuum dessa discussão, que foi amadurecendo não apenas aqui no Brasil, mas também fora, com discussões regulatórias não apenas na União Europeia, mas, como bem lembrou a Profa. Laura, em organismos internacionais, como a UNESCO, a Organização para a Cooperação e o Desenvolvimento Econômico. Em todos esses fóruns, é importante mencionar, a gente tem uma certa clivagem no sentido de que essa regulação precisa acontecer e ela precisa minimamente procedimentalizar quais são os direitos e os deveres em jogo.
Então, acho que esse é um ponto importante de ser relembrado e que me leva ao segundo ponto: falar que uma regulação que tenha um mínimo de prescrição, um mínimo de dose de procedimentalização não afasta o seu caráter principiológico, mas, muito pelo contrário, significa dizer que esse projeto de regulação leva a sério diretrizes e princípios, porque, caso contrário, eles não poderiam ser operacionalizáveis, concretizados, por meio dessa proposta regulatória. Então, dou aqui um exemplo: de nada adiantaria se a gente firmasse um princípio de não maleficência ou não discriminação da aplicação de sistemas de inteligência artificial, se nós não tivéssemos os direitos todos fixados e bem operacionalizados, como propõe esse projeto de lei, de explicação, de transparência ou até mesmo as chamadas avaliações de impacto algorítmico. Então, acho que esse é um ponto importante do debate que tem sido cada vez mais ressignificado. Uma lei que minimamente procedimentaliza os direitos e deveres em jogo não é contrária a um espírito de uma lei principiológica.
R
O terceiro ponto que me faz também rememorar um pouco os debates que nós tivemos na Comissão de Juristas e que certamente também esse Parlamento irá enfrentar é a conciliação de uma abordagem baseada em risco e em direitos. Então, o que propõe o projeto de lei que nós estamos debatendo aqui nesta audiência pública? Ele procura minimamente tentar delinear quais seriam os contornos dessa difícil equação, tanto prevendo riscos que são, por assim dizer, inegociáveis, porque colocam determinados direitos que são essenciais para o pacto, para o contrato social nosso - tem a ver, por exemplo, com questões relacionadas à manipulação cognitiva ou adição de crianças e adolescentes, esses são alguns dos riscos listados exemplificativamente nessa proposta -, quanto também em determinados cenários contextuais de aplicação de inteligência artificial em que você deveria ter um dever de cuidado maior. É muito diferente a aplicação de uma inteligência artificial que vai, por exemplo, fazer a filtragem e a avaliação de currículos e vai, por exemplo, de certa maneira, tensionar o acesso ao mercado de trabalho de uma pessoa, quando, por exemplo, uma mesma tecnologia de inteligência artificial, às vezes treinada sob os mesmos parâmetros técnicos, vai fazer uma simples automatização de um chatbot, de um site ou de qualquer outra interface que a gente possa imaginar. O desenho proposto por esse projeto em específico procura fazer essa conciliação.
E, como disse o Senador Marcos Pontes, dentro dessa perspectiva de não procurar enrijecer e não procurar trazer uma solução universal para uma tecnologia que é bastante variante, bastante cambiante, me parece que, para além, inclusive, do próprio Projeto de Lei 2.338, é interessante notar como essas propostas regulatórias que têm surgido reconhecem também as próprias insuficiências do próprio direito, entendendo numa cauda longa de como é que a gente vai amadurecendo as tecnologias, as técnicas para gerenciamento de riscos da tecnologia.
Também é importante destacar que esse projeto de lei não procura criar uma definição estanque do que é risco excessivo, alto ou de outros degraus que nós possamos imaginar, tanto que ele prevê de forma expressa - inclusive, diferentemente das outras propostas em discussão - que possa haver uma reclassificação desses riscos e que isso deve envolver necessariamente mercado, sociedade civil e academia. Então, não procura, de certa maneira, criar um ambiente regulatório monopolista e que seja objeto de capturação mais fácil, apenas porque vai vir a ser designada uma possível autoridade competente.
É importante mencionar isso, esse óleo nas engrenagens dessa proposta regulatória, que pode ser, obviamente, aperfeiçoada, como, por exemplo, delineando melhor quais são os deveres de prestação de contas desse futuro órgão regulador. Isso é benéfico não apenas para a sociedade civil, mas também para o próprio mercado. Aqui o meu apelo é: vamos entender como a gente pode aperfeiçoar dentro dessas balizas, dessas premissas necessárias que estão postas nesse desenho regulatório que se apresenta e que pode ser considerado um ponto de partida.
Outra coisa que me chama a atenção nos debates após a proposta desse projeto de lei é também não cair, de certa maneira, numa cilada, em que o papel ou a existência de uma autoridade reguladora com papel de coordenação seria rival a uma adoção de regulação descentralizada.
R
Pelo contrário, me parece que é importante justamente a gente ter alguma autoridade que pelo menos tenha uma visão panorâmica de inteligência artificial, para que a gente possa estruturar os padrões mínimos comuns a todas as áreas, a todos os setores, com deveres básicos de informação, e que esses setores possam elevar essas fundações, de acordo com as suas respectivas particularidades. Esse é um outro ponto importante, que vem aparecendo no debate, e que eu acho que é importante a gente poder rememorar e tentar desmistificar.
E aí eu concluo, nesses meus breves dez minutos, tentando lembrar como que outros processos legislativos foram bem-sucedidos, porque a gente acabou tomando como ponto de partida determinadas propostas regulatórias que, sobretudo, eram em sintonia com que o restante do mundo vinha debatendo, a exemplo da Lei Geral de Proteção de Dados Pessoais.
Depois que a gente teve um certo consenso sobre que o projeto de lei que havia sido, então, encaminhado pelo Executivo era esse ponto de partida, a gente pôde - mercado, sociedade civil e academia - refinar esse projeto de lei. Obviamente, ele não é perfeito, tem as suas imprecisões, mas, sem dúvida, tirou um certo imobilismo da discussão que a gente veio a ter no Parlamento.
Parece-me que a gente está nesse ponto de inflexão. Qual é o nosso ponto de partida, hoje, que está sendo feito no Legislativo brasileiro? Parece-me que o ponto de partida tem que ser necessariamente essa proposta que a gente está debatendo especificamente nessa audiência pública, porque, como a gente mencionou, ele é um contínuo, uma evolução de todos esses debates que iniciaram na própria Câmara dos Deputados e chegaram ao Senado, e agora passam por um objeto de evolução e de sofisticação.
Dito isso, acho que a principal mensagem a ser colocada é que regulação não é contra inovação. A gente está falando necessariamente de fixar direitos e deveres, que não vão reforçar a confiança em todas as trocas econômicas, não é? Inovação não é uma corrida de 100m rasos, mas é uma espécie de maratona, e, se a gente não tiver essas garantias minimamente estabelecidas, de novo, uma procedimentalização mínima para que esses princípios possam florescer, a gente vai ter uma quebra de confiança, não apenas nas trocas econômicas, no sentido mais amplo, mas na própria adoção dessa tecnologia. Parece-me que esse é o principal fio condutor que a gente precisa ter em consideração quando a gente for avançar e considerar aperfeiçoamentos hoje na proposta ou nas propostas que estão sob objeto de avaliação do Parlamento brasileiro.
Obrigado, Senador.
O SR. PRESIDENTE (Eduardo Gomes. Bloco Parlamentar Vanguarda/PL - TO) - Quero agradecer ao Bruno Bioni, Diretor Fundador do Data Privacy Brasil, e queria tentar dar uma colaboração para todos os expositores. Eu até vou falar com a Secretaria também, depois, da própria Comissão Especial, sobre um detalhe eminentemente de ambiente legislativo, porque, na minha opinião, a Comissão de Juristas deve permanecer atenta ao debate até o final das outras audiências públicas. Por que eu estou chamando atenção para isso? Por uma certa experiência, aí nesses 23 anos de Parlamento. Quando a gente teve o trabalho concluso... Eu até vi aqui: agora que está acabando, a gente tem a sigla CJSUBIA, que é a sigla da Comissão de Juristas, mas, assim, a gente teve muito alerta, muita observação e absolutamente nenhuma consequência. Eu não tive ninguém chegando e dizendo "olha, eu achei que ponto tal da Comissão de Juristas tinha que ter uma evolução, uma modificação". Então, como vão começar agora as audiências públicas, se alguns de vocês que estão participando dessa exposição, para colaborar, estiverem já com conhecimento de alguma solicitação, podem passar para a Secretaria anotar, porque, senão, fica aquela questão: a gente fez o trabalho, apresentou o projeto, vai partir para uma consequência legislativa...
R
E eu ouvi atentamente - vou preservar o nome, é importante nesse caso, porque não fui autorizado a falar o nome -, mas esses dias eu conversei com uma pessoa durante cinco minutos sobre uma contrariedade no relatório, mas ela não soube dizer nem qual era a solução. Então, assim, precisamos entender que vamos chegar para a consequência de voto. Então, eu queria que ficasse permanente esse convite aí para a Comissão de Juristas, se a gente tiver em algum momento uma posição pontual de questionamento do relatório, para a gente ganhar tempo nesse processo. Eu sei que as observações foram muito genéricas, pouco pontuais. Não estou criticando ninguém, mas a gente precisa partir para uma questão objetiva.
Então, neste momento, eu vou passar a palavra a Juliano Souza de Albuquerque Maranhão, Professor da Faculdade de Direito da Universidade de São Paulo (USP).
V. Sa. tem a palavra por dez minutos, ou mais, e passaremos ao último expositor logo em seguida.
O SR. JULIANO SOUZA DE ALBUQUERQUE MARANHÃO (Para expor. Por videoconferência.) - Muito obrigado, Senador. Gostaria também de agradecer ao Senador Astronauta Marcos Pontes pelo convite. Cumprimento todos os presentes.
Eu quero aproveitar, então, inclusive essa indicação para focar em um ponto específico. Minha contribuição vai dizer respeito especificamente ao impacto que as inteligências artificiais generativas ou os modelos fundacionais podem trazer em relação a implicações sobre o projeto de lei, que foi o resultado do trabalho da Comissão de Juristas e resultou, então, no PL 2.338.
Por que eu vou focar nisso? Primeiro, eu sou um dos diretores da International Association for Artificial Intelligence and Law, e este é um tema discutido em todos os países: como adaptar a legislação em relação aos novos modelos fundacionais. E, em segundo lugar, eu sou Diretor também do Instituto Legal Grounds, que promove um fórum brasileiro de IA responsável que congrega participantes de todos os setores da indústria brasileira e também do setor público que aplicam a inteligência artificial de modo intensivo. E uma das preocupações aparece com relação a esse modelo e, em particular, eu vou focar em que medida isso pode trazer implicações sobre o fomento a investimento.
Por que isso? As IAs generativas e os modelos fundacionais vêm sendo discutidos e podem trazer implicações a alguns temas, como a discussão e definição da relação entre fornecedores, operadores e usuários. Também um segundo tema é implicações em relação à autoria de obras geradas por inteligência artificial. Nenhum desses eu acho que são cruciais.
R
O tema da autoria, por exemplo, eu acredito que não deveria ser regulado ex ante, mas deveria aguardar toda a evolução jurisprudencial para entendimento desse tema que é extremamente complexo em relação à legislação autoral.
O que eu acho importante e que deve ser enfatizado é a forma pela qual os modelos fundacionais, os modelos de inteligência artificial generativa transformam a estrutura de fornecimento e de competição nos mercados de inteligência artificial. Por quê? Eles fazem com que a inteligência artificial deixe de ser um jogo de desenvolvimento independente de modelos especializados no sistema de inteligência artificial e transforma esse mercado em um grande ecossistema em que você vai ter, numa primeira etapa, fornecedores de infraestrutura de IA. Significa grande capacidade de processamento computacional, reunião de equipes de experts que agreguem alto valor a esse processamento computacional, e a coleta, coleção, armazenagem e preparação de dados para o treinamento desses sistemas.
Numa segunda etapa, você vai ter aqueles agentes que vão desenvolver modelos fundacionais ou fazer o fine-tuning de modelos fundacionais; por exemplo, um ChatGPT, que tem um grande modelo de linguagem natural, em que pode ser feito um fine-tuning para aplicação em documentos jurídicos para o campo do direito, por exemplo. E, depois, na última etapa, aqueles que vão se dedicar ao emprego e aplicações de inteligência artificial, seja in house, seja no desenvolvimento de aplicativos e aplicações específicas.
Então, esse novo mercado é um mercado em que, para desenvolver modelos fundacionais, são necessários investimentos pesados. Aqui são centenas de milhões de dólares para desenvolver um grande modelo fundacional. E a pergunta é: onde o Brasil quer estar nesse mercado? Quer ser apenas um aplicador ou quer desenvolver modelos fundacionais, quer desenvolver infraestrutura para inteligência artificial? Essa pergunta é importante. Nós podemos acreditar que o Brasil tem potencial para entrar nesse mercado por um simples exemplo: o desenvolvimento de modelos de linguagem natural em português. O Brasil tem potencial para ser líder. E, por ser uma língua latina, o Brasil pode ser também um ator importante para línguas espanholas e outras línguas latinas. Então, o Brasil tem potencial para isso. O importante é como fomentar o investimento.
O Fabricio e o Bruno colocaram aqui uma tensão entre o Projeto 2.120 e o Projeto 2.338. Eu concordo que não deveria haver tensão, complementaridade, mas alguns defensores do 2.120 apontam que o 2.338 seria muito detalhado, e, nas suas regras de governança, isso poderia travar o investimento, ao passo que defensores do 2.338 trazem o argumento de que, por ser muito genérico e meramente principiológico, ele não traz segurança jurídica para o investimento. Mas a verdade é que nenhum dos dois projetos traz regras específicas para enfrentar os gargalos institucionais que existem no país para o fomento e investimento em inovação.
Então, acredito que uma contribuição e algo que possa ser agregado ao projeto é trazer efetivamente regras que impliquem superação de gargalos para fomento e investimento e também direcionamento de investimento.
R
Eu vou dar alguns exemplos: regras para contratações públicas de sistemas de inteligência artificial. No setor público - e até foi uma pergunta da audiência -, os modelos têm sido desenvolvidos internamente. Por quê? Porque o sistema de contratação utilizado não é flexível o suficiente para desenvolvimento de soluções específicas. Então, poderia haver regras que especificam ou dão preferências a modelos mais flexíveis para contratação de soluções específicas. Isso aproxima o setor público do setor privado para o desenvolvimento de soluções de inteligência artificial.
Destinação de fundos públicos. O Fundo Nacional de Desenvolvimento Tecnológico e Científico é mencionado na Estratégia Brasileira de IA. Poderia ser direcionado para projetos, e grandes projetos de inteligência artificial no sentido de desenvolver capacidade computacional, centros de base de dados apropriados para o desenvolvimento de sistemas de IA e também formação de especialistas.
O Fundo de Defesa de Direitos Difusos também poderia ser direcionado em aplicações, por exemplo, corretivas para trazer benefícios aos consumidores naquilo que é chamado de IA para o bem ou AI for Good.
Incentivos a parcerias público-privadas. Regras também para cooperação entre instituições públicas de ensino superior e a indústria. Em outros países há canalização de investimentos da indústria diretamente para universidades. E essa cooperação, por exemplo, na Alemanha é uma das chaves para o desenvolvimento da indústria alemã, aquilo que é chamado de indústria 4.0. Então existem também limitações na legislação brasileira para que possa haver esse investimento e essa cooperação.
Investimento na pequena e médio empresa e também sandbox regulatórios que estão previstos no art. 38 do Projeto 2.338. Ali já tem uma sinalização para isso, mas a gente poderia ampliar para trazer mais essas regras no sentido de fomento ao investimento e superar algumas limitações para o investimento em inovação no país.
Então, só para completar, como bem o Senador Marcos Pontes colocou... Em primeiro lugar, ele colocou a importância da inteligência artificial, os benefícios que são trazidos, mas também os riscos. Importante que nossa lei também traga essa sinalização no sentido de investimento para os benefícios, não só pelo potencial benefício da tecnologia, mas também para o desenvolvimento econômico do país e, mais do que isso, para inserção do Brasil nesse grande mercado internacional, na economia mundial que vai ser pautada por investimentos em inteligência artificial.
Eu até gostaria de lembrar que na Comissão de Juristas nós chegamos a discutir esse ponto, mas não avançamos no sentido do desenvolvimento. Chegamos até a pensar em regras sobre isso, mas acabamos não incorporando no projeto. Eu gostaria de revisitar esse tema e chamar a atenção para que, nesse novo cenário de um mercado de inteligência artificial, em que vai prevalecer um investimento intensivo em sistemas de inteligência artificial, o Brasil esteja preparado para canalizar esses investimentos e ser um ator na produção e desenvolvimento de modelos fundacionais e de infraestrutura para a inteligência artificial, e não apenas um aplicador de inteligência artificial.
Então, com isso eu concluo e agradeço novamente o convite.
O SR. PRESIDENTE (Eduardo Gomes. Bloco Parlamentar Vanguarda/PL - TO) - Muito obrigado. Agradeço ao Dr. Juliano Souza.
Passo a palavra ao Thiago Luís Sombra, Professor da Faculdade de Direito da Universidade de Brasília (UnB), para a última exposição desta audiência pública, que ficará à disposição de todos os membros desta Comissão, bem como aos próximos convidados na sequência da grande maratona que faremos aí de audiências públicas sobre o tema.
V. Sa. tem a palavra por até dez minutos.
R
O SR. THIAGO LUÍS SOMBRA (Para expor. Por videoconferência.) - Obrigado, Senador.
Primeiro, eu queria agradecer ao Senado Federal pela organização desta audiência pública. É um prazer poder falar desse assunto novamente na presença dos meus colegas de Comissão.
Ressalto que foi um esforço hercúleo chegar a um projeto que, no fim das contas, é um passo inicial, é um projeto que tem como objetivo contribuir com uma discussão que fatalmente se aperfeiçoará no Congresso. No final das contas, é um trabalho elaborado por uma Comissão de Juristas que precisa ter uma aderência dentro do setor produtivo e encontrar também ressonância nos demais setores regulados da economia.
O que eu queria mencionar rapidamente, Senador, é que nós temos uma série de aspectos que foram regulados no projeto. E o projeto tem uma característica que eu acho que é muito marcante em termos de premissa fundamental, premissa estruturante dele: ele é um projeto focado no modelo de corregulação. Ele tem lá o objetivo de traçar direitos e garantias, estabelecer parâmetros para uma avaliação de impacto de riscos, de impacto algorítmico e um capítulo de responsabilidade, mas ele também delega, deixa espaços para que a iniciativa privada possa evoluir em aspectos tecnológicos. E o principal deles é na própria avaliação de impacto algorítmico, que é um juízo próprio que o desenvolvedor ou uma empresa poderá fazer das soluções que vai implementar ou que vai colocar à disponibilidade no mercado para que elas possam evoluir.
Eu tenho uma visão positiva da inserção de inteligência artificial na economia brasileira, Senador - não na inserção; ela já está inserida. Hoje, o TCU, a Controladoria-Geral da União, a Polícia Federal e o CNJ têm várias iniciativas de contratação de soluções de inteligência artificial, seja para cruzamento de informações de contratos públicos, identificação de superfaturamento... Isso já aconteceu durante o período da pandemia da covid-19. O Supremo Tribunal Federal tem um projeto, em parceria com a UnB, chamado Projeto Victor, que envolve também catalogação e identificação de decisões. O CNJ editou uma resolução para tratar desse assunto. E a ANPD, mais recentemente, trouxe também a implementação de um sandbox regulatório. Ou seja, o assunto já está colocado. Não há como, como bem mencionou o Fabricio, nós voltarmos atrás. O que nós podemos agora, como o senhor bem ressaltou, Senador, é tratar dos aperfeiçoamentos, dos ajustes. Acho que essa é a contribuição produtiva.
Mas eu queria aqui enfatizar os aspectos positivos e gostaria de dar alguns exemplos, especialmente na linha do que o Juliano fez, no setor de saúde: a inteligência artificial foi muito utilizada durante a pandemia para testes em massa da covid-19. Nós temos visto, a cada dia que passa, os temas de mobilidade urbana, mas também de diversidade serem conciliados com os temas de inteligência artificial. Dou um exemplo: pessoas com deficiência visual cada vez mais usando soluções de inteligência artificial que criam, a partir do reinforcement learning, um aprendizado do ambiente onde essas pessoas se locomovem para dar um pouco mais de autonomia. E a lei tem um capítulo próprio sobre sistemas computacionais e o nível de autonomia que esses sistemas devem ter na linha de conciliar com os riscos que estão expostos.
Outros dois temas que são muito importantes, em parcerias que foram feitas recentemente: prevenção de incêndios, especialmente prevenção de incêndio na Amazônia; e prevenção de abalos sísmicos em regiões do mundo com uma alta propensão aqui de terremotos, furacões e fenômenos da natureza. São as soluções e os modelos preditivos que têm auxiliado no melhor gerenciamento de crises dessa natureza. No Brasil, nós não tivemos ainda a capacidade de utilizar para a finalidade, por exemplo, de prevenção de grandes enchentes, mas é algo que potencialmente tem um espaço para que se crie isso e nós consigamos aqui ter uma melhor acomodação da população em locais que são críticos, locais que têm uma exposição maior ao nível concentrado de chuvas.
R
Eu queria só enfatizar também que aqui há uma perspectiva que eu acho que é muito importante: para além dos aspectos positivos e das medidas que foram implementadas, é salutar mencionar que houve uma pesquisa que foi feita recentemente pela FGV que aponta que é possível que as soluções de inteligência artificial contribuam com até 6,5% de incremento no PIB brasileiro, adicionando mais de R$432 bilhões na economia brasileira até 2035. Isso é um dado concreto. Não é um dado que, efetivamente, contribuirá para aumento de desemprego, mas para a criação de oportunidades nos mais diversos setores produtivos.
O principal aspecto das soluções de inteligência artificial, especialmente quando a gente fala de IA generativa, não é a retirada de oportunidades, mas a criação de uma perspectiva a partir de perguntas certas. O aprendizado virá das perguntas certas, da maior capacidade de se valer do benefício das máquinas para fomentar as perguntas corretas, que vão nos levar a soluções que proporcionarão melhores políticas públicas, a melhor prestação de serviços públicos, a identificação de deficiências em locais no país nos quais nós não temos capacidade logística, especialmente, de atender a uma grande quantidade de indivíduos... Então, há um caminho que é positivo.
O que eu acredito que é o papel do Senado, nesse exato momento, é olhar para os pontos... E aqui eu trago, por exemplo, um: a Profa. Laura e o Bruno ajudaram na organização de um congresso no Conselho da Justiça Federal, e nós trouxemos o Prof. Frank Pasquale, que trouxe várias contribuições relevantes, a partir de uma experiência que ele tem falado sobre watermarking e labelling, ou seja, colocação de etiquetas, a identificação de marcas dentro da cadeia de desenvolvedores de inteligência artificial, com o intuito de identificar até onde vai o papel de um e até onde vai o papel do outro e, na medida do possível, definir limites para a responsabilização. Isso, de repente, pode ser algo que nós podemos pensar como um passo dentro desse novo processo, desse novo ajuste que será implementado daqui por diante, ou dentro das outras contribuições que poderão ser feitas.
E, finalizando, Senador, esta minha participação, eu queria dizer que a Comissão sempre esteve muito aberta e sempre foi muito receptiva e permeável a toda e qualquer sugestão dos mais diversos setores da economia. Nós organizamos audiências públicas e ouvimos acadêmicos, ouvimos reguladores e ouvimos professores dos mais diversos locais.
Há uma percepção - que talvez não se concretize, mas com a qual nós podemos contribuir - de que, dentre os desenvolvedores de tecnologia no Brasil e startups, ainda não há um conhecimento tão profundo do impacto que o projeto de lei pode trazer. Talvez um papel que essas audiências públicas possam ter, daqui por diante, é nós ajudarmos aí nessa capilaridade, nesse maior alcance da compreensão do setor produtivo, especialmente do pequeno e médio, como bem ressaltou o Juliano, daqui por diante.
Com isso, eu queria concluir, Senador, agradecer mais uma vez o convite e dizer que me encontro à disposição, assim como os demais colegas.
O SR. PRESIDENTE (Eduardo Gomes. Bloco Parlamentar Vanguarda/PL - TO) - Bom, gostaria de agradecer a todos os expositores.
Acho que ficou claro também para a Secretaria da Comissão que nós vamos repassar uma síntese desta audiência, mas com aquela observação de que, nas próximas audiências públicas, a gente vai realmente provocar... É importante que a gente saiba que a Comissão vai para um momento definitivo de conclusão dessa etapa.
Então, eu queria agradecer muito.
R
Se alguém quiser fazer algum tipo de comentário, fique à vontade. Alguém gostaria de falar alguma coisa sobre a audiência? (Pausa.)
Tudo bem? (Pausa.)
Então, eu vou encerrar a sessão.
Não havendo mais nada a tratar, declaro encerrada a presente reunião.
Mantenho o convite aos membros da Comissão para as outras audiências públicas para o acompanhamento. Eu tenho a impressão de que estamos quase concluindo a fase de instrução das audiências públicas, mas, se houver também por parte de vocês alguma sugestão, a Secretaria da Comissão estará à disposição, e a Adriana também.
Está encerrada a presente sessão.
Muito obrigado.
(Iniciada às 14 horas e 19 minutos, a reunião é encerrada às 15 horas e 28 minutos.)