Notas Taquigráficas
| Horário | Texto com revisão |
|---|---|
| R | O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG. Fala da Presidência.) - Boa tarde a todos os senhores e as senhoras presentes. Desejando uma semana de trabalho muito frutífera a todos, especialmente para a nossa Comissão, que caminha agora para a fase final, quero saudar os meus colegas Senadores Astronauta Marcos Pontes e Eduardo Gomes, nosso ilustre Relator, pela presença conosco em mais uma audiência pública, em que estamos aqui, abertos a todas as propostas, sugestões e, principalmente, colaborações dos brasileiros para que essa lei seja a mais abrangente possível. Declaro aberta a 18ª Reunião da Comissão Temporária Interna sobre Inteligência Artificial no Brasil, criada pelo Requerimento nº 722, de 2023, com a finalidade de examinar os projetos concernentes ao relatório final aprovado pela Comissão de Juristas, responsável por subordinar a elaboração de um substitutivo sobre inteligência artificial no Brasil, criado pelo Ato do Presidente do Senado nº 4, de 2022, bem como eventuais novos projetos que disciplinem a matéria. Antes de iniciarmos os nossos trabalhos, proponho a dispensa da leitura e a aprovação da ata da reunião anterior. As Sras. Senadoras e os Srs. Senadores que concordam permaneçam como se encontram. (Pausa.) A ata está aprovada e será publicada no Diário do Senado Federal. |
| R | Informo que esta reunião se destina a realização de audiência pública com o objetivo de instruir o PL 2.338, de 2023, que dispõe sobre o uso da inteligência artificial em cumprimento ao Requerimento nº 2, de 2024, CTIA, de autoria do Senador Astronauta Marcos Pontes. O público interessado em participar poderá enviar comentários e participações pelo endereço senado.leg.br/ecidadania, ou ligar para o 0800 0612211. Encontram-se, presentes no Plenário da Comissão, Rodrigo Badaró, Coordenador do Observatório Nacional de Cibersegurança, Inteligência Artificial e Proteção de Dados do Conselho Nacional da Ordem dos Advogados do Brasil; Artur Romeu, Diretor para América Latina da Repórteres Sem Fronteiras; Carlos Coninck Júnior, Advogado da Central Única dos Trabalhadores (CUT Nacional); Marcos Ferrari, Presidente-Executivo da Conexis Brasil Digital. Encontram-se também presentes, por meio de sistema de videoconferência, Wagner Meira Júnior, Professor da Universidade Federal de Minas Gerais; Bianca Berti, Analista Sênior de Transparência e Integridade da instituição Transparência Brasil; Paula Guedes, Pesquisadora do Grupo de Trabalho de Inteligência Artificial de Coalizão, Direitos da Rede; Jean Paul Neumann, Coordenador do Grupo de Trabalho de IA da Federação das Associações das Empresas Brasileiras de Tecnologia da Informação; Juliano Souza de Albuquerque Maranhão, Professor da Faculdade de Direito da Universidade de São Paulo. Agradeço a presença de todos. E, vou, mais uma vez, solicitar... Nós temos dois participantes que já farão as suas primeiras participações rapidamente. Aos senhores todos, serão concedidos dez minutos. Eu vou pedir para que, por favor, não ultrapassem, para que a gente não tenha necessidade de atuar, uma vez que a Ordem do Dia, nesta Casa, está prevista para início às 16h. Por questões do Regimento Interno, assim que a Ordem do Dia começa, nós somos instados - obrigados, para ser mais exato no termo - a parar todos os serviços. Então, para que todos os convidados possam ter a sua colaboração, eu peço a gentileza de que todos se mantenham dentro dos dez minutos. O Relator é o Senador Eduardo Gomes, alguma observação antes do início? Muito boa tarde, mais uma vez, Senador. O SR. EDUARDO GOMES (Bloco Parlamentar Vanguarda/PL - TO. Para discursar.) - Boa tarde, Presidente. Presidente, fiz a opção de fazer uma fala breve agora do início, primeiro para agradecer ao Senador Astronauta Marcos Pontes e a V. Exa., pelo diligente esforço de ouvir-nos todos, a todo momento, até que o Regimento nos imponha a votação em si. E quero tranquilizá-los com relação à capacidade que nós conseguimos construir com o apoio de V. Exa. dessa avaliação da regulação de inteligência artificial, desde a Comissão de Juristas, a Comissão Especial, e os debates que ocorreram, as centenas, porque já passou de centenas de audiências públicas, e a capacidade que nós criamos... Falava isso ontem com o Presidente Rodrigo Pacheco e com outros Parlamentares. Em especial nessa análise, Presidente Carlos Viana, a Comissão com a V. Exa. preside entra para a história do Congresso Nacional e do Senado Federal, porque foi a primeira vez que os textos, em cada fase do relatório, têm tido um caráter provocativo, propositivo e de alteração progressiva de um texto até que a gente tenha a nossa regulação. Com todas as dificuldades estruturantes da lei, o ideal seria que a gente pudesse ter uma lei que mudasse de seis em seis meses; mas isso não é possível, só pelo voto. A gente tem exemplos no mundo inteiro; recentemente, fui ao fórum de Lisboa, e foi uma das tantas experiências que tive. |
| R | Entendo que, neste momento, o Brasil está maduro para votar um texto de regulação de IA que corresponda única e exclusivamente a esse propósito. Não dá para misturar com eleição, não dá para misturar com liberdade de expressão; dá para entender que nós hoje somos uma casa com 230 milhões de moradores, numa rua de 8 bilhões de vizinhos - alguns até bisbilhoteiros - que estão convivendo nessa rua o tempo inteiro. Então, é chegada a hora de desburocratizar, mas de dar intensidade e capacidade de investimento. Eu não falo mais sobre o relatório; eu só falo nesse momento, depois de dois anos, Presidente Carlos Viana, em impressões. A impressão que eu tenho é de que, conversando com alguns entes desse ecossistema, a pessoa fala comigo e não tem a menor ideia - ou finge não ter a menor ideia - de que seu setor já está completamente transformado, e essa gentileza de procedimentos para concorrência não existe no ambiente digital. Nós já estamos ou perdendo ou ganhando com o que está acontecendo agora. A gente só não sabe exatamente onde é que está. Por isso que é preciso dar esse passo. Eu agradeço a V. Exa. e também faço os meus cumprimentos ao Senador Marcos Pontes pela dedicação, a V. Exa. e também aos membros da Comissão que terão essa missão na quinta-feira. Muito obrigado, Presidente. O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Obrigado. Vou chamar à frente aqui os convidados que comporão a mesa inicialmente: o Sr. Carlos Coninck Júnior, por gentileza - seja bem-vindo -; o Sr. Rodrigo Badaró; o Sr. Artur Romeu e o Sr. Marcos Ferrari. Por gentileza, peço para se dirigirem à frente. Vamos diretamente ao nosso primeiro participante, que está remoto, o Prof. Wagner Meira Júnior, da nossa Universidade Federal de Minas Gerais. Prof. Wagner, muito boa tarde. Obrigado pela presença! O senhor tem dez minutos para sua apresentação. O SR. WAGNER MEIRA JÚNIOR (Para expor. Por videoconferência.) - Boa tarde a todos e a todas. Obrigado pelo convite, mais uma vez. É uma satisfação e uma honra muito grande estar aqui hoje. Eu li atentamente o substitutivo proposto pelo Senador Eduardo Gomes e, em relação ao que a gente tinha visto em outubro, eu acho que houve uma grande evolução, embora eu vá tentar trazer aqui uma contribuição técnica, baseado em alguns aspectos que eu acho que talvez ainda possam ser considerados. Em primeiro lugar, em nome da academia, eu gostaria de agradecer pelos vários pontos de inserção da atuação da academia no processo, seja a distinção da etapa de P&D (pesquisa e desenvolvimento), da operação comercial e da criação de um comitê de especialistas e cientistas de IA para acompanhar toda a evolução da tecnologia da inteligência artificial. Uma questão primeira e ampla que me preocupou foi exatamente no sentido de que os sistemas de inteligência artificial hoje são compostos ou derivados... são sistemas complexos e que utilizam muitas tecnologias produzidas e em operação fora do país. Não ficou claro para mim como seria essa questão da integração dessas tecnologias e da sua utilização, uma vez que isso já é fato. Nós já vemos hoje várias empresas oferecendo produtos e serviços, por exemplo, em cima de uma plataforma de que todos já devemos ter ouvido falar, que se chama ChatGPT. Um segundo ponto para aprofundar é reforçar uma questão de que esses sistemas de inteligência artificial são dinâmicos e bidirecionais, ou seja, no sentido de que tanto usuários quanto sistemas evoluem constantemente. E isso, dentro do que está colocado dentro do projeto de lei, pode gerar um custo e uma dificuldade extrema. Eu vou tentar dar alguns exemplos nesse sentido, tá? |
| R | O primeiro caso é que, dada a amplitude e a complexidade desses sistemas computacionais, que, no fundo, são os sistemas de IA, nós cobrirmos casos de riscos e danos e outros termos que são usados no projeto de lei, num sistema estático, já seria desafiador; num sistema dinâmico, é muito mais complicado. Por quê? Porque o que nós estamos vendo hoje não necessariamente é o que nós vemos amanhã. Há algumas questões, no PL, que tentam dar cobertura a isso, mas de qualquer maneira, é um ponto que eu chamaria de atenção, considerando a velocidade com que a tecnologia vem evoluindo e o impacto que isso pode ter. Por exemplo, no art. 32, existe um conceito de garantia de dez anos, o desenvolvedor deve garantir por até dez anos. Hoje em dia, eu tenho sérias dúvidas de se isso faz sentido, porque os sistemas têm versões diárias, às vezes, mais do que diárias. Então, nossa garantia de dez anos é em relação a qual versão? A de dez anos atrás? A de hoje? Então, há certos conceitos que vão ser de difícil implementação e acompanhamento. O segundo aspecto amplo é quando se fala sobre supervisão humana efetiva. Isso é algo de alto custo e relativo, porque exatamente quais são as habilidades e competências e qual é o escopo e a alçada dessa supervisão humana efetiva? É algo que vai variar muito ao longo do tempo. Um outro aspecto que eu acho que é importante mencionar é que alguns dos requisitos que aparecem ao longo de todo o documento - e, sim, são requisitos legítimos e importantes -, são subjetivos e também têm certo dinamismo associado. Eu posso destacar aqui as questões de justiça, equidade e inclusão; transparência e explicabilidade; diligência devida e auditabilidade; a questão da prevenção, precaução e mitigação de riscos e danos, eu já mencionei; e a governança transparente, que foi uma adição bastante interessante em relação à proposta do ano passado. Então, essa subjetividade, quando nós falamos em relação à supervisão humana efetiva, pode criar uma conjuntura talvez inviável na prática, ou talvez inerentemente engessada, e isso, do ponto de vista técnico, me traz uma preocupação. Uma outra preocupação é que existe, no PL, uma série de fricções que são natas, são fato e me preocuparam, porque não está claro como é que isso vai ser. Talvez, desculpem a minha ignorância, do ponto de vista jurídico, mas não está claro como isso vai ser equilibrado. Então, vou citar alguns casos aqui para poder ilustrar essa parte da minha fala. Vejam bem, quando nós falamos, existe toda uma discussão sobre privacidade, LGPD, no PL, e, por outro lado, direito à explicação. Esses dois temas são relacionados e complementares. Em algum lugar, por exemplo, no art. 8º, se fala sobre prevenir ou minimizar riscos para direitos e liberdades, e para tal, é necessário compreender as capacidades e limitações dos sistemas e controlar devidamente o seu funcionamento. Ou seja, nesse sentido, pode ser que, para alcançarmos essa compreensão, a privacidade esteja em risco e mesmo as questões de propriedade intelectual. |
| R | Um outro caso, em que também há aí um espaço de fruição, é quando se fala sobre explicabilidade e preservação da propriedade intelectual. Eu achei bem interessante que, em todas as vezes que os termos "explicabilidade" e "interpretabilidade" foram mencionados, há uma ressalva sobre a preservação da propriedade intelectual dos desenvolvedores das empresas. E o que é considerado propriedade intelectual é uma pergunta em aberto. A partir do momento, como é colocado em algumas partes do PL, que nós falamos sobre entender o funcionamento, prover funções de ponderação, esses tópicos, claramente, entregam uma parte da propriedade intelectual, do princípio ativo e de funcionamento desses sistemas. Inclusive, no art. 6°, fala-se sobre informações suficientes, adequadas e inteligíveis. Todos esses três termos são termos relativos para os quais, certamente, vai haver muita discussão sobre o que significam. Ainda temos uma outra questão, porque eu quero, já concluindo a minha fala aqui, mencionar a questão da diversidade cultural e educacional dos usuários e do papel que eles representam nesse ecossistema que está sendo pensado para a inteligência artificial. O que eu quero dizer com isso? É que, quando nós falamos sobre aquelas dimensões subjetivas que eu mencionei agora há pouco, como justiça, como transparência, como interpretabilidade, notem que a percepção de ter alcançado a justiça ou estar satisfeito com a explicação, ou a auditoria ser suficiente, reinsere o usuário nesse processo, e um usuário extremamente diversificado e cujo perfil também vai estar em constante evolução. Então, nós temos aqui uma questão de como esses mecanismos de governança, como esses mecanismos de auditoria e de acompanhamento vão, de alguma maneira, contemplar a diversidade e a variedade de perfis e de formações da nossa população. O que pode ser explicação para um pode não ser para outro; o que pode ser justo para um não necessariamente vai ser para outro. E isso me preocupa, porque nós podemos alcançar uma situação em que o custo de manutenção e de acompanhamento desses sistemas de IA acabe sendo muito maior do que o custo em si ou do que a sua operação, uma lógica bastante inviável novamente. E isso principalmente considerando que nós estamos falando de sistemas e usuários em constante evolução, e não há, no horizonte, qualquer expectativa de que esse dinamismo vá arrefecer. Um aspecto, terminando já a minha fala, é que a avaliação de impacto algorítmico é um processo interativo contínuo. Então, diante dessas observações, vocês imaginem o quão custoso, difícil e variável pode ser esse processo. Muito obrigado, mais uma vez, e estou à disposição. O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Obrigado |
| R | O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Obrigado ao Prof. Wagner Meira Júnior, professor da Universidade Federal de Minas Gerais, pela colaboração. Vamos já, em seguida, à Sra. Paula Guedes, pesquisadora do Grupo de Trabalho em Inteligência Artificial da Coalizão Direitos na Rede. A senhora tem dez minutos para a exposição, por gentileza. Obrigado. A SRA. PAULA GUEDES (Para expor. Por videoconferência.) - Obrigada. Olá, gente, boa tarde. Como foi falado aqui agora, eu sou Paula Guedes, eu estou aqui representando hoje o GT, o Grupo de Trabalho de Inteligência Artificial da Coalizão Direitos na Rede, essa coalizão que tem tanto se empenhado nas pautas de regulação de inteligência artificial nos últimos anos, especialmente em busca de uma regulação que seja protetiva de direitos e que estimule a inovação responsável. Queria agradecer pelo espaço aqui hoje, especialmente ao Senador Alessandro Vieira, que fez o requerimento de adição de nomes para esta audiência pública, e aos Senadores Marcos Pontos e Carlos Viana por terem permitido também essa inclusão de espaço para representantes da sociedade civil. Ainda agradeço e parabenizo o Sr. Relator Eduardo Gomes por ter conduzido o processo de forma tão diligente e empenhada até o momento. Bom, sem mais delongas, eu gostaria de começar minha fala ressaltando a urgência de se regularem os usos de inteligência artificial. Tivemos ontem uma tarde de audiências públicas em que foram reforçados inúmeros benefícios trazidos pela IA, o que é inegável, mas o atual contexto de manutenção de autorregulação por regras principiológicas ou códigos privados de boas condutas não é mais suficiente para prevenir e mitigar os muitos riscos e atuais danos causados pela IA. Não estamos falando de presunção, mas de realidade que precisa ser considerada. (Falha no áudio.) O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Bem, ao que parece... Vamos tentar retomar o contato com a Sra. Paula Guedes, para que ela possa dar sequência na exposição. E mais uma vez, agradeço a cada um dos participantes aqui por manter o tempo de dez minutos para a exposição. Bem, voltamos com a Sra. Paula Guedes? Acho que já conseguimos retomar o sinal. A SRA. PAULA GUEDES (Por videoconferência.) - Vocês pararam de me ouvir quando? O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Quando você estava falando sobre o código de autorregulação, que não é mais suficiente para dar sequência à atualidade. A SRA. PAULA GUEDES (Por videoconferência.) - Perfeito. Bom, tá. Então, continuando, regras principiológicas ou códigos privados de boas condutas já não são mais suficientes para prevenir e mitigar os muitos riscos e atuais danos causados pela IA. E aqui, a gente não está mais falando de presunção, mas de realidade que precisa ser considerada. Apenas para considerar alguns exemplos desses muitos riscos, são vários: reforço de práticas discriminatórias, exclusão de acesso a bens e serviços essenciais para grupos historicamente marginalizados, auxílio a campanhas de desinformação e violência, erosão de processos democráticos, manipulação de crianças em ambiente online, facilitação à vigilância, acentuação de mudanças climáticas, aceleração de epistemicídio de línguas e culturas originárias e locais e intensificação da precarização de trabalho. Dito isso, antes de entrar especificamente no Projeto de Lei 2.338, eu gostaria de desmentir uma narrativa falaciosa que vejo muito sendo difundida ainda. Uma regulação que proteja direitos, crie obrigações de governança e incentivos à inovação responsável, como faz o PL 2.338, não é oposta ou impeditiva à inovação e ao desenvolvimento econômico do Brasil. Se voltarmos ao início dos anos 90, quando se discutiu o Código de Defesa do Consumidor, havia o mesmo argumento de que o modelo regulatório do CDC impediria o avanço do país. Hoje verificamos um cenário de muito maior proteção de direitos dos consumidores, que não enfrentam mais tantos produtos defeituosos, que explodem, por exemplo. E o Brasil não se tornou atrasado nesse cenário, mas o nosso desenvolvimento é pautado no bem-estar e na promoção de direitos fundamentais. Uma regulação eficiente e protetiva de direitos é condição indispensável para o florescimento de produtos e serviços de IA responsáveis, que potencializem o ser humano e o Estado democrático de direito. Quem argumenta que as obrigações do projeto de lei impedirão o avanço de inovação no Brasil, especialmente de startups, certamente não olhou o capítulo X, sessão V do projeto de lei, que trata especificamente de incentivo a microempresas, empresas de pequeno porte e startups. |
| R | A título comparativo, a Comissão Europeia realizou um estudo de impacto regulatório do AI Act, recém-aprovado, e dentro da análise constatou que a maior parte dos sistemas atualmente em uso de inteligência artificial seria enquadrada como de médio e baixo risco, ou seja, sem grandes obrigações. Apenas de 5% a 15% seriam consideradas de alto risco. Nessa porcentagem, os custos regulatórios extras seriam praticamente zerados para setores que já possuem obrigações; e, para os demais, apenas de 5% a 10%. Dito isso, quem ainda insiste nessa falsa dicotomia entre regulação e inovação certamente tem interesse na manutenção do cenário atual para que se possa continuar violando uma série de direitos fundamentais. Nesse ponto, não há que se falar em avanço econômico de inovação a qualquer custo. A inovação tem que proteger direitos. Além disso, no ano passado, a Academia Brasileira de Ciências publicou um relatório sobre regulação de IA no Brasil em que eles dizem ser perfeitamente compatível a agenda de estímulo à indústria nacional de inteligência artificial e a proteção de direitos fundamentais, evitando abusos desses sistemas. Feitas essas considerações, eu queria passar, então, para a análise do texto do PL 2.338, que foi publicado no dia 18 de junho. Neste ponto, eu ressalto que a GT IA, da CDR, apoia esse último texto, com as devidas críticas que serão feitas ainda. Porém, antes disso, eu gostaria de mencionar alguns muitos acertos, por englobar elementos essenciais para uma boa regulamentação de IA no Brasil. Ponto 1: manutenção da regulação baseada em risco, que faz com que haja diferentes obrigações para os agentes de inteligência artificial, considerando maiores obrigações para sistemas de maior risco, o que é inclusive positivo para inovação no país. Ponto 2: definição de uso de IA de risco excessivo (art. 13), e por isso o desenvolvimento, implementação e uso são proibidos. Eu ressalto aqui como foi importante trazer a vedação total de sistemas de armas autônomas e a volta do rol de finalidades e contextos de alto risco (art. 14). Trazer esses riscos já no projeto de lei não vai tornar a futura lei obsoleta, como se tem falado, porque o próprio texto prevê mecanismos para atualização desse rol, caso necessário. Então, a lei aqui é dinâmica. Ponto 3: criação de obrigações gerais de governança (Capítulo IV), conjugadas com obrigações específicas mais fortes para sistemas de alto risco (Seção II), além das obrigações específicas para o poder público (Seção III) e para as IAs de propósito geral e generativas (Seção V). Nesse ponto, tenho que mencionar alguns argumentos utilizados ontem de que a avaliação preliminar seria igual a uma censura prévia, o que é um argumento que não se sustenta. A avaliação preliminar é apenas uma medida de avaliação do grau de risco de um sistema; não impede, por si só, qualquer desenvolvimento ou utilização de IA; apenas define o grau de risco para definição das obrigações. Além disso, quem vê obrigações de governança com tanto receio, certamente, é porque sabe que está desenvolvendo tecnologia de forma não responsável. Ponto 4: garantir direitos básicos dos indivíduos potencialmente afetados pela IA (Capítulo II) - também é um ponto positivo. Outro ponto positivo seria a atenção especial ao contexto brasileiro de discriminações estruturais, a partir da fixação, ao longo de todo o texto, as medidas de prevenção e combate a essas diferentes formas de discriminação direta e indireta, além da proteção de grupos vulneráveis. Outro ponto também de destaque positivo seria essa definição do arranjo regulatório (Capítulo IX), que conjuga uma autoridade coordenadora com independência, agora representada pela ANPD, com demais autoridades setoriais, além da criação de um conselho com participação da sociedade civil, o que é fundamental. Outro ponto positivo são as regras programáticas para o poder público para fomento à inovação sustentável, com destaque, no Capítulo X, para a Seção II, que prevê a proteção do trabalho e aos trabalhadores, e para a Seção III do mesmo capítulo, para a sustentabilidade, além da Seção II do Capítulo XI, que prevê a implementação de programas de formação, capacitação e educação. Então, por todos esses pontos, ressalto como é importante que a gente tenha o PL 2.368 aprovado por esta Comissão e, posteriormente, em Plenário. |
| R | Porém, para que o projeto se mantenha coerente em sua missão de proteger direitos fundamentais e promoção de inovação responsável, é fundamental destacar dois pontos graves de críticas que podem ser alterados ainda. Eu vou citar os dois mais urgentes. O primeiro: uma regulação em que se pretende combater diferentes formas de discriminação e proteger grupos vulneráveis não pode permitir o uso de IAs que sejam comprovadamente perpetuadoras de práticas discriminatórias. Por isso é essencial que o inciso VII do art. 13 do projeto, que trata de sistemas de identificação biométrica à distância e em tempo real em espaços accessíveis ao público, não preveja exceções para fins de segurança pública e Justiça criminal. A CDR, por meio da campanha Tire meu Rosto da sua Mira, tem posição pelo banimento desses sistemas nesses contextos. Além de comprovadamente reforçar discriminações com a população negra e periférica, essa tecnologia já se mostrou pouco eficiente ao que se propõe, gerando desperdício de dinheiro público em prol de um tecnossolucionismo que não é comprovado. Segundo ponto de crítica: é indispensável a volta da avaliação da capacidade de endividamento e estabelecimento de escore de crédito para o hall de alto risco do art. 14. O acesso ao crédito financeiro é fundamental como condicionante para o exercício de uma série de direitos fundamentais, fazendo com que essa automatização de concessão tenha que ser sujeita a diversas garantias robustas, especialmente em razão do potencial discriminatório, como já comprovado através de pesquisas. Os modelos de crédito, hoje em dia, são alimentados por muitos dados; então, por si só, isso já exige uma proteção reforçada contra a segurança. Dito isso, já caminhando para o final, gostaria de ressaltar que o Projeto de Lei 2.338 atual, com essas incorporações devidas das críticas que acabei de falar, é o modelo mais avançado em termos de proteção de direitos e estímulo à inovação responsável. Uma regulação de IA baseada em direitos e atenta aos seus riscos, como faz o 2.338, contribuiria para posicionar o Brasil como pioneiro no desenvolvimento e fornecimento de tecnologias responsáveis. E, por fim, eu deixo aqui um dado de uma pesquisa recém lançada pelo Instituto Idea, em parceria com o Brazil Forum UK de 2024, que revelou que pelo menos 73% dos brasileiros acham que deve haver uma regulação de IA no país. E, como bem colocou o Senador Eduardo Gomes em um evento recentemente no Fórum Jurídico de Lisboa, não regular de alguma forma é ser regulado. Então, se o Brasil quer de fato mostrar a sua cara, especialmente com a atual Presidência do G20, o Projeto 2.338 é o melhor caminho para isso. Obrigada. O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Obrigado à Paula Guedes, pesquisadora do Grupo de Trabalho de Inteligência Artificial da Coalizão Direitos na Rede, pela participação. Convido agora o Sr. Rodrigo Badaró, Coordenador do Observatório Nacional de Cibersegurança, Inteligência Artificial e Proteção de Dados do Conselho Nacional da Ordem dos Advogados do Brasil. O senhor tem dez minutos para a exposição, Sr. Badaró. O SR. RODRIGO BADARÓ (Para expor.) - Boa tarde a todos. Primeiramente, cumprimento o nosso primus inter pares, o nosso Presidente, o douto Senador Carlos Viana, representando o meu glorioso Estado de Minas Gerais - lembra aqui o Senador Milton Campos, o político dos homens e das leis. Cumprimento, também com muita ênfase, o Senador Astronauta, que vem elaborando um trabalho excepcional; o guerreiro do projeto - um dos guerreiros -, o querido Senador Eduardo Gomes, que vem se dedicando; e obviamente o Presidente Rodrigo Pacheco, que é o propositor da medida. Eu não posso deixar de adentrar primeiramente na posição da OAB antes de elogiar a postura deste Parlamento. É impressionante verificar o quanto foi debatido e vem sendo debatido esse ponto, Senador. Eu gosto de lembrar o princípio da alteridade, em que, sem conhecer o outro, não conhecemos a nós próprios. O Senado - eu anotei aqui, Presidente - promoveu mais de 26 audiências públicas, com mais de 120 palestrantes, seminário internacional e ainda sessão temática no Plenário do Senado. Isso é democracia, isso é exercício do Legislativo, isso é força da Câmara Alta junto à população fazendo um debate técnico, difícil e, Senador, tentando atender a todos os pontos aqui complexos colocados nessa matéria de extrema importância. |
| R | Não à toa, o projeto evoluiu muito. Não podemos deixar de considerar que a primeira versão - e até cheguei, em algum ponto, a fazer críticas - recebeu adequações, ouvindo a Academia, ouvindo a sociedade civil, ouvindo a ANPD. Eu acredito que, obviamente, sempre na expectativa de melhorar, chegamos, talvez, à maturidade de um debate e da aprovação do projeto de lei, Presidente e querido Senador Cláudio Viana... Carlos Viana, desculpe-me. Nunca errei um nome. Desculpe. Eu pensei... Estava falando de romano e já trouxe um romano aqui. Senador, a OAB criou o Observatório Nacional de Inteligência Artificial, do qual faço parte, e estamos debatendo esse assunto desde a última liberação do texto. Sou indicado novamente pelo Presidente da República, Luiz Inácio Lula da Silva - fui indicado antes pelo Presidente Bolsonaro -, para compor, com muita honra, a representatividade da OAB no Conselho Nacional de Proteção de Dados. Aqui, o princípio da OAB, básico, Senador, é preservar a liberdade, mesmo sabendo... Eu falei em Lisboa, Senador Eduardo Gomes, que, para ter um poder estatal - e citei até Leviatã, na época -, você dispõe, talvez, de abrir mão de certas liberdades individuais em prol de quê? Em prol, repito, da segurança jurídica. A segurança jurídica se dá pela intervenção do Estado, e, nesse caso, ninguém mais competente que o Congresso Nacional para dar um norte, para dar um farol para a população brasileira. E sabe por que eu digo isso, Presidente Carlos Viana? Porque eu estou no GT do CNJ, e o CNJ já está debatendo, em tese, stricto sensu, uma regulação com a renovação, na verdade, a atualização - por meio do debate do Grupo de Trabalho capitaneado pelo querido Conselheiro Bandeira de Mello, indicado por esta Casa, e pelo Ministro Cueva -, a alteração da Resolução 332, que trata de inteligência artificial. E mais, Senador: a AGU já vem debatendo a inteligência artificial, o TCU já vem debatendo a inteligência artificial, a OAB já vem debatendo a inteligência artificial. A inteligência artificial já atinge a população brasileira não no dia a dia comercial, mas também naquilo que importa, a nosso ver e principalmente no da OAB, no debate dentro do espectro jurídico e do direito das defesas constitucionais do cidadão. Então, é imperioso, Senador... Desculpe-me, mas você começa a ver uma dispersão regulatória setorial, que é positiva, e precisamos, de qualquer forma, ter uma sinalização de se vamos ou não regular e de como regular vinda do Congresso Nacional. Meu maior medo, Senador, é ter uma pulverização exagerada setorial de autorregulação ou de regulação normativa - porque o brasileiro adora o positivismo normativo - e, depois, ficarmos em um emaranhado de leis. |
| R | E aí, Senador, por mais que haja conflito e indicação de competência específica na Constituição, o senhor vai ver município legislando; o senhor vai ver estado legislando; o senhor vai ver, daqui a pouco, todos os setores com uma legislação e sem um norte, que tem que sair do Senado Federal, exatamente pelo amplo debate que aqui foi imposto. Não à toa, Senador - eu estava num cargo, até dois meses atrás, no Conselho Nacional do Ministério Público -, o Ministério Público também já está debatendo há muito tempo a questão, criou o MP digital, e eu, nos meus últimos dias de mandato, soltei uma liminar no CNMP pedindo informações de todos os Ministérios Públicos, do que estão desenvolvendo de inteligência artificial, de como a estão usando. É imperioso que se preservem o princípio da transparência, o princípio da segurança jurídica, o princípio do sigilo dos dados, e, com a norma vinda do Congresso Federal, com a autoridade que o Congresso Federal tem, certamente será uma luz e um farol para todos que acompanham e têm esperança neste Brasil, Senador Astronauta. E aqui eu digo, sem receio, que há, sim, uma neofobia: temos medo do novo, sempre vamos ter; isso é inevitável. Na questão de investimento, de que eu já escutei vários professores falando, Senador, eu tenho um pensamento um pouco inverso. Já estão sendo investidos - e a Profa. Dora Kaufman fez questão de colocar isso no debate em Lisboa - bilhões de dólares fora do Brasil, enquanto aqui não estamos investindo nada. Não é melhor haver uma regulação, exatamente para criar um ambiente favorável para que haja mais recurso para aquele pequeno desenvolvedor de startup ou a inteligência nacional? Porque o que está acontecendo, Senador, é que a inteligência nacional, os grandes talentos e grandes profissionais estão indo para fora! Eles estão indo para fora. Então, dizer que a regulação... Até pode ser que, da forma que estava, pudesse até alijar alguma questão desenvolvimentista, mas, da forma que se encontra hoje, eu acredito que, fora alguns ajustes que até esta própria audiência pública já vem apontando, é extremamente favorável, inclusive para o desenvolvimento. Como é que o Governo vai apoiar, Senador Astronauta, ou disponibilizar recurso público para uma empresa ou para o desenvolvimento de uma universidade que não tem um setor regulado pelo Governo Federal? Vai ser mais difícil, Senador. Então, realmente, é muito importante que nós atinjamos essa meta de pelo menos virar a página. Querendo ou não, somos a nona economia do mundo; como já dito aqui pela colega, vamos presidir o G20. Por mais que se fale que os Estados Unidos - e eu, Senador Astronauta, sou americano também, tenho dupla nacionalidade - são extremamente liberais, lá os setores são altamente regulados; de alguma forma, são regulados. Há um papel relevantíssimo, Senador Astronauta, das agências reguladoras - e, coincidentemente, na minha palestra de Lisboa, eu citei a Chevron doctrine, que caiu no dia, ou seja, a autonomia das agências reguladoras na interpretação dos dispositivos legais e técnicos para a aplicação da lei -, então não podemos ter medo da regulação; não podemos ter medo da regulação. (Soa a campainha.) O SR. RODRIGO BADARÓ - E, já terminando, Senador, agradeço muito a oportunidade de estar aqui; estou extremamente honrado, emocionado. |
| R | Eu acredito que o PL, hoje, concilia os princípios de regulação setorial, com mitigação de risco controlada, inovação e uma abordagem humana centrada. E aqui eu não posso deixar de, ao encerrar, citar quem eu adoro tanto, o Cícero: "Prudência é saber distinguir [Senador] as coisas desejáveis das [coisas] que convém evitar". Sem regulação estaremos certamente numa posição pior do que estamos hoje. Muito obrigado, Presidente. O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Obrigado ao advogado Rodrigo Badaró, Coordenador do Observatório Nacional de Cibersegurança, Inteligência Artificial e Proteção de Dados do Conselho Nacional da Ordem dos Advogados do Brasil. Eu convido agora meu colega jornalista Artur Romeu, Diretor da Repórteres sem Fronteiras para a América Latina. O senhor tem dez minutos para a exposição. O SR. ARTUR ROMEU (Para expor.) - Muito obrigado, Senador Carlos Viana, Presidente desta Comissão. Obrigado pelo convite. Obrigado também ao Senador Astronauta Marcos Pontes, pela presença também, e ao Relator desse PL tão importante para o futuro do país, o Senador Eduardo Gomes. Muito obrigado. Eu represento aqui a Repórteres sem Fronteiras, uma das maiores organizações do mundo atuando no campo da liberdade de expressão, uma organização fundada na França, em 1985, com 40 anos de atuação no campo, com escritórios regionais em todos os continentes, 140 correspondentes espalhados pelo mundo e que tem atuado, de maneira muito intensa nessa agenda, nos últimos anos, em particular com a publicação, no ano passado, da Carta de Paris sobre IA e Jornalismo, que estabelece a primeira estrutura ética global que orienta os meios de comunicação na era da inteligência artificial. A comissão que gerou essa carta foi presidida pela ganhadora do Prêmio Nobel da Paz, Maria Ressa, jornalista das Filipinas. A Repórteres sem Fronteiras está desenvolvendo também um sistema de linguagem de inteligência artificial, chamado Projeto Espinosa, feito por e para jornalistas e para as redações, completamente comprometido com essa agenda também nesse sentido, e contribuiu com o relatório sobre a inteligência artificial como um bem público, assegurando o controle democrático da inteligência artificial no espaço da informação e democracia, além de estar incidindo também intensamente dentro do marco regulatório europeu, do EU AI Act, sobre esses temas. Os sistemas de inteligência artificial, em particular os de inteligência artificial generativa, estão revolucionando a forma como criamos, divulgamos e acessamos informação em vários suportes. Em muitos sentidos, o desenvolvimento dessa tecnologia pode contribuir com o exercício do jornalismo e o direito à informação. Porém, há alertas importantes sobre os riscos associados ao rápido desenvolvimento dessa tecnologia em um ambiente marcado por uma nova corrida do ouro e um vácuo regulatório. Em uma pesquisa realizada com mais de 2,7 mil especialistas em inteligência artificial no mundo, publicada em janeiro de 2024, a desinformação, a alavancada pela produção de deepfakes e a manipulação em larga escala da opinião pública foram os três cenários mais destacados como principais fontes de preocupação associadas ao desenvolvimento dessa tecnologia nos próximos 30 anos. Também publicada este ano, em 2024, uma pesquisa do Reuters Institute, feita com mais de 300 líderes dos principais meios de comunicação de veículos de imprensa, em 50 países diferentes, que revelou que a sua grande maioria acredita que o uso da inteligência artificial generativa vai contribuir com uma tendência do declínio generalizado da confiança do público nas informações jornalísticas. É necessário - e é o que esse projeto faz - aproveitar o potencial inovador do sistema de inteligência artificial, ao mesmo tempo em que se promove uma gestão eficaz dos riscos associados ao espaço da informação e democracia. |
| R | Eu queria falar de três desafios centrais que estão colocados para o jornalismo nesse tema. Primeiro, o uso dos sistemas de inteligência artificial em mecanismos de decisão sobre quais informações temos acesso. Então, os mecanismos de busca e as redes sociais são as principais fontes de tráfego para sites de notícias online, sendo responsáveis por cerca de dois terços do seu alcance no âmbito global. A forte dependência dos meios de comunicação em relação às plataformas para atingir seu público ameaça a independência e a sustentabilidade do jornalismo. E os sistemas de recomendação dessas plataformas priorizam, em muitos casos, as receitas de publicidade e o envolvimento do usuário, em detrimento da qualidade, ampliando o conteúdo polarizador, prejudicial e sensacionalista. Os donos dessas plataformas têm um poder discricionário significativo, que permite moldar a disseminação de informações de acordo com seus interesses ou sua ideologia. Queria passar para um segundo desafio que está colocado, sobre a autenticidade e a confiabilidade dos conteúdos jornalísticos produzidos. A inteligência artificial reduz obstáculos à produção de conteúdos enganosos, de forma mais convincente, diversificada e adaptada em grande escala - deepfakes. Sua utilização sem controle humano adequado pode levar à divulgação de notícias tendenciosas ou não verificadas, acabando por minar a confiança nos meios de comunicação social. Esse aumento no conteúdo sintético realista representa uma dupla ameaça. Por um lado, corre o risco de enganar a opinião pública, fabricando fatos e exemplos. A gente já tem vários exemplos relacionados a esse ponto. Por outro, leva a uma dúvida sistemática sobre a autenticidade de todo o conteúdo, inclusive aquele que é genuíno. Então, também um ponto crucial para a gente levar em consideração. E o terceiro ponto para o qual eu queria chamar a atenção tem a ver com a sustentabilidade do jornalismo e o papel cada vez maior dos intermediários entre os meios de comunicação e o público, que levou a uma perda significativa da receita de publicidade dos meios de comunicação. Recentemente, a maior parte do conteúdo jornalístico disponível digitalmente em todo o mundo foi extraída por empresas de IA para treinar os seus modelos, sem levar em consideração leis de direitos autorais ou os criadores de conteúdo. Os chatbots que usam o conteúdo de meios de comunicação representam duas ameaças à sustentabilidade do jornalismo. Primeiro, eles correm o risco de desviar o tráfego dos veículos e meios de comunicação usando seus dados, oferecendo compensação insuficiente. Segundo, podem exercer um poder opaco e arbitrário, ao escolher qual conteúdo é licenciado e qual permanece invisível dentro dos seus sistemas. Eu queria falar agora especificamente do PL 2.338. O Brasil tem a oportunidade, com esse texto, de ser o primeiro país do mundo a dar ao direito à informação a importância que ele merece na regulação dos sistemas de inteligência artificial. É um texto pioneiro, que pode ser utilizado como referência no mundo inteiro, inclusive para o modelo europeu, o EU AI Act. Um exemplo aqui, no art. 2º, envolve justamente essa preocupação, no inciso XV, sobre "a integridade da informação mediante a proteção e a promoção da confiabilidade, precisão e consistência das informações". Outro ponto que eu gostaria de ressaltar e que ilustra a relevância desse texto para o debate atual: dentro dos parâmetros identificados para avaliar a classificação de alto risco de um sistema de inteligência artificial, temos sistemas que desempenham um papel central na "produção, curadoria, difusão, recomendação e distribuição, em grande escala e significativamente automatizada, de conteúdo [...] por provedores de aplicação, com objetivo de maximização do tempo de uso e engajamento das pessoas ou grupos afetados", no art. 14. Essa classificação pode ser estendida para outros sistemas que representam "risco à integridade da informação, ao processo democrático e ao pluralismo político". |
| R | Ambos sistemas dialogam com o desafio inicial apontado anteriormente, relacionado ao uso de IA no que diz respeito à exigência de que os sistemas que fornecem acesso de notícias e informações ampliem suas fontes diversas e confiáveis. Outro ponto crucial que o texto traz é, ao falar sobre sistemas de propósito geral, também incluir a necessidade de que os desenvolvedores devem demonstrar por meio de testes e análise "a identificação, a redução e a mitigação de riscos razoavelmente previsíveis para os direitos fundamentais", mais uma vez citando aqui a integridade da informação e o processo democrático como ponto crucial. E o último ponto que eu gostaria de trazer para ilustrar a força deste PL e o seu pioneirismo tem a ver com a parte de direitos autorais, com a remuneração para criadores de conteúdo. O capítulo sobre direitos de autor e conexos também faz uma contribuição fundamental, nesse caso, ao desafio apontado no que se refere ao tema da sustentabilidade do jornalismo. Os desenvolvedores de IA devem divulgar as bases de dados utilizadas para treinar seus modelos e respeitar os direitos dos titulares de direitos autorais para qualquer uso comercial, mesmo sem reprodução direta. Os titulares de direitos de propriedade intelectual seriam livres para consentir a utilização de suas obras ou para se opor a ela e, caso necessário, para negociar sua remuneração individual ou coletivamente com os desenvolvedores de IA. (Soa a campainha.) O SR. ARTUR ROMEU - Finalmente, para fechar, eu queria fazer uma consideração final e abrangente. O argumento que defende que o projeto de lei na sua versão atual pode significar um ambiente que restringe a livre circulação de informação no Brasil é absolutamente falacioso; muito pelo contrário, o projeto de lei contribui de maneira significativa ao direito a uma informação livre, plural e confiável ao abordar a questão da integridade da informação e reconhecer os danos decorrentes do avanço da inteligência artificial. A necessidade de integrar esse aspecto da lei não decorre tampouco de um desconhecimento da inteligência artificial, que estaria por detrás de um suposto medo infundado em relação à inovação tecnológica; muito pelo contrário, especialistas e pesquisadores do campo, que se dedicam também a estudar as transformações sociais geradas pelo avanço tecnológico e não apenas sua dimensão econômica, alertam para o risco de ampliação da desinformação e os riscos de manipulação em massa da opinião pública. E, para concluir, dependemos de uma regulação séria do setor em matéria de direito à informação, ancorada no equilíbrio entre o espaço para a inovação e a gestão de danos decorrentes desse processo. Abrir mão desse equilíbrio é uma prerrogativa que beneficia um número restrito de empresas em detrimento de outros setores de atividade econômica e, em particular, do interesse da sociedade brasileira. As nossas recomendações visam prevenir e evitar esses danos e orientar a inovação tecnológica como um bem público, numa direção que seja do interesse público. Não devemos cometer os mesmos erros do passado, em que as redes sociais e as empresas tecnológicas decidiram as regras do jogo, definiram as agendas, determinaram quais danos importavam e onde e capturaram as narrativas políticas. Isso resultou em demasiadas desculpas corporativas e, infelizmente, em danos substanciais para as nossas comunidades, para as nossas instituições democráticas e para a nossa ação enquanto cidadão. Acreditamos que a inteligência artificial pode seguir um caminho diferente, mais esclarecido e significativo. A tecnologia de inteligência artificial pode avançar num caminho orientado pela supervisão democrática... (Soa a campainha.) O SR. ARTUR ROMEU - ... constantemente avaliada e melhorada através da liderança cívica e da participação inclusiva, que é o que este projeto, este PL, vem demonstrando até agora. Muito obrigado. |
| R | O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Obrigado ao senhor, jornalista Artur Romeu, diretor da Repórteres sem Fronteiras para a América Latina, pela colaboração. Nós vamos agora, novamente por via remota, ouvir o Sr. Jean Paul Neumann, Coordenador do Grupo de Trabalho de Inteligência Artificial da Federação das Associações das Empresas Brasileiras de Tecnologia da Informação (Assespro). Sr. Neumann, boa tarde. O senhor tem dez minutos para a sua apresentação, por gentileza. O SR. JEAN PAUL NEUMANN (Para expor. Por videoconferência.) - Boa tarde, Srs. Senadores, todos que estão aí acompanhando, principalmente o Senador Carlos Viana, o Senador Eduardo Gomes, o Senador Astronauta Marcos Pontes. Eu estou aqui representando a Assespro. A Assespro é uma entidade, uma associação de empresas de tecnologia da informação, com quase 50 anos de existência e aproximadamente 3 mil associados. Nós vamos aqui falar um pouco sobre algumas preocupações, do ponto de vista prático, de quando a gente fala de desenvolvimento de inteligência artificial. A gente precisa ter uma visão de que a inteligência artificial vem impulsionando mudanças revolucionárias. A inteligência artificial surgiu como uma ferramenta que pode gerar inovações marcantes, seja no dia a dia das pessoas, na economia, nos negócios, bem como nos serviços públicos, como educação, saúde e segurança. Contudo, a implementação de IA vem com alguns desafios significantes, principalmente preocupações éticas com privacidade, vieses algorítmicos, segurança cibernética, não é? E a gestão desses desafios requer realmente políticas cuidadosas, segurança jurídica, colaboração internacional e um compromisso com a ética na tecnologia, para garantir que os benefícios da IA sejam distribuídos de maneira justa e equitativa. A gente entende que a proposta é bastante restritiva e que talvez pudesse ser mais pragmática em pensar muito mais no modelo de regulamentação baseada em princípios gerais. O projeto, do ponto de vista de governança, é extremamente denso, complexo e custoso diante de tantas outras legislações já existentes, que já mitigam os riscos existentes, como o Código Civil, a Lei das Fake News, a LGPD, o CDC, o ECA, as regulações do Bacen e da Anvisa, entre as demais legislações existentes. É muito importante que a gente possa ter um balanceamento entre mitigar os riscos da IA, sem promover uma regulação e uma governança excessivas, consequentemente privando o país de benefícios que podem ser trazidos pela tecnologia. Eu vou trazer aqui uma apresentação. (Pausa.) A gente está falando agora, especificamente nesta audiência, sobre sistemas e governança, e que isso é importante. É lógico que a gente precisa buscar garantir a segurança e o respeito dos direitos das pessoas afetadas; porém, alguns pontos merecem atenção, como a complexidade e os custos envolvidos, além do risco de burocratização excessiva. Eu quero trazer algumas informações específicas sobre inteligência artificial, alguns números, inicialmente. A indústria, basicamente, é quem principalmente domina a inteligência artificial, o uso da inteligência artificial. Esse é um relatório da Universidade de Stanford, é um relatório relativamente recente, tá? Um dos primeiros pontos de identificação é que a indústria é a principal fonte de uso da inteligência artificial hoje; em segundo, a indústria em auxílio com a academia; e, em terceiro, a academia. Isso mostra o quanto a inteligência artificial vem atuando, principalmente no setor econômico e produtivo do país. |
| R | Um outro ponto importante é a gente mostrar que a maioria dos modelos usados e lançados são modelos de código aberto. Isso tem um impacto muito forte, principalmente quando a gente fala de governança, porque muitos desses modelos... Esses são números dos Estados Unidos, onde se mostra que a maior parte dos modelos são modelos de código aberto, porém, no Brasil, o uso de modelos de terceiros, modelos de código aberto, principalmente importados, é a grande maioria, eu imagino que seja acima de 90%. Então, quando a gente fala sobre responsabilidades, a gente precisa ter a visão de que parte do que é desenvolvido no Brasil se utiliza de modelos e sistemas que foram desenvolvidos por terceiros, o.k.? Um outro ponto importante é que, se nós olharmos os principais modelos de aprendizado em máquina existentes no mundo, hoje, em nenhum deles figura o Brasil, ou seja, a gente ainda tem uma dependência muito grande de modelos feitos em outros países, e logicamente isso mostra o quanto o Brasil precisa se desenvolver e precisa de velocidade para que possa efetivamente se destacar, porém é muito importante que... Para esse processo de destaque do Brasil em relação à inteligência artificial e à criação de modelos nacionais, a gente precisa ter uma legislação que permita a rápida evolução de que esse ambiente necessita. E outra questão importante de chamar a atenção é sobre o custo que é cada vez maior para treinar sistemas de inteligência artificial. Esses são números de 2023. Então, o primeiro modelo, que foi o modelo Transformer, custou US$930. Se você olha o Gemini Ultra, que é um modelo do Google, no final de 2023, ele já foi para quase US$200 milhões. Só para vocês terem uma ideia, existe um modelo hoje da xAI que está em desenvolvimento, em aprendizado - e a tendência, a previsão é que façam todo o aprendizado dele até o final do ano -; só esse único modelo está custando US$1,8 bilhão. Então, isso também traz uma outra atenção de que a IA generativa está extremamente evoluída, numa velocidade extremamente grande. Como o colega falou - o Wagner -, existe uma solicitação de documentação de dez anos, quando na verdade os modelos simplesmente estão gerando três, quatro versões por ano, a velocidade de evolução disso é muito grande. Então, só investimento em IA generativa em 2023 foi de US$25 bilhões, ou seja, cerca de R$138 bilhões. |
| R | Só para vocês terem uma ideia de quanto isso custa, todo o orçamento - está certo? - do Ministério de Ciência e Tecnologia, para projetos de inovação, para este ano, não passa de 13 bilhões. Então, quando a gente fala dos números de patentes de IA e projetos de códigos que envolvem IA, o crescimento tem sido exponencial; ou seja, os modelos, as patentes sobre inteligência artificial vêm crescendo de forma exponencial, ao mesmo tempo em que o número de projetos publicados de software, de códigos de software que envolvem inteligência artificial, têm crescido, assim, numa escala realmente exponencial, mostrando o quanto isso é rápido e vem se desenvolvendo e criando novos pontos, novas descobertas, coisas que serão muito difíceis de tentar prever em um projeto de lei. Então, quando a gente fala da governança, de acordo com o art. 17, os agentes de IA devem estabelecer estruturas de governança que garantam a segurança dos sistemas e o atendimento aos direitos de pessoas afetadas, incluindo medidas de transparência, segurança da informação e capacitação de pessoal ao longo do ciclo de vida da IA. E aí a gente tem algumas preocupações, porque, quando a gente fala em governança, a implementação de estruturas robustas de governança pode ser complexa e custosa, especialmente para pequenas empresas startups, que não podem ter os recursos necessários para atender a todas as exigências. A nossa previsão é que, a depender do nível da IA a ser desenvolvida, o custo de governança pode ser muito maior do que o próprio projeto de inteligência artificial. Além disso, tem a questão da burocratização, ou seja, o excesso de requisitos burocráticos pode reduzir a agilidade das empresas na adaptação e implementação de novas tecnologias e prejudicar a competitividade. Quando a gente vai para sistemas de governança de alto risco, a necessidade de medidas tão específicas e rigorosas pode desincentivar a inovação em áreas classificadas como de alto risco, pois empresas poderão optar em não investir em tecnologias que envolvam um processo regulatório tão intensivo, e a gente pode ficar à mercê de países estrangeiros. O impacto no mercado, ou seja, as exigências podem criar barreiras de entrada no mercado, favorecendo grandes empresas, que têm recursos para cumprir as regulamentações, enquanto as pequenas podem ser excluídas por não conseguirem pagar por esse custo. Quando a gente fala de impacto algorítmico, as exigências de avaliação do impacto por profissionais qualificados podem ser onerosas, exigir uma capacitação que nem toda empresa possui. Além disso, a contratação de especialistas externos pode ser um custo adicional significativo, e esse custo vai para toda a cadeia. Além disso, tem um tempo de agilidade, o processo contínuo da avaliação e monitoramento pode ser demorado, reduzindo a capacidade das empresas de reagir rapidamente à mudança no mercado e a novas oportunidades de inovação. E, quando a gente fala de sistema de propósito geral e GenAI, a gente tem que ter muito cuidado com o rigor e a complexidade, porque a existência de testes rigorosos e análise contínua para identificar e mitigar riscos pode ser um processo complexo e custoso, especialmente para desenvolvedores de IA de propósito geral, que pode ter múltiplas aplicações e contextos de uso. Além do impacto na inovação: a necessidade de conformidade com regulamentações tão detalhadas pode desincentivar inovação em sistemas de IA generativa, em que a flexibilidade e a capacidade de experimentar novas abordagens são cruciais. |
| R | O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Para o encerramento, Sr. Neumann, por gentileza. O SR. JEAN PAUL NEUMANN (Por videoconferência.) - O.k. Enfim, o impacto na indústria de software vem aumentar o custo de desenvolvimento, limitação das inovações, além do perigo de fuga de talentos e de novos empreendimentos, para o que a gente tem algumas sugestões de melhorias, como flexibilização da governança, regulamentação baseada em princípios, transparência, participação e capacitação de apoio. Vai ficar tudo aí na apresentação. E, como conclusão, embora o projeto busque proteger os direitos fundamentais e garantir o uso ético da IA, é crucial encontrar um equilíbrio que não iniba a inovação e o desenvolvimento tecnológico. Ajuste nas regulamentações pode transformar a IA em um instrumento de competitividade, de desenvolvimento para o Brasil, promovendo um ambiente mais favorável para a inovação, o crescimento sustentável da indústria de tecnologia e o bem-estar social. É isso. O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Obrigado, Sr. Jean Paul Neumann, Coordenador do Grupo de Trabalho de Inteligência Artificial da Federação das Associações das Empresas Brasileiras de Tecnologia da Informação (Assespro). De imediato convido a Sra. Bianca Berti, Analista Sênior de Transparência e Integridade da Instituição Transparência Brasil, para apresentação. Peço a gentileza, Sra. Bianca, de permanecer dentro dos dez minutos, por favor. A palavra está com a senhora. A SRA. BIANCA BERTI (Para expor. Por videoconferência.) - Boa tarde a todos. Queria, primeiro, agradecer a V. Exas., o Senador Carlos Viana e o Senador Astronauta Marcos Pontes, que são o Presidente e o Vice da CTIA, por nos receber nesta audiência pública. Quero agradecer também a V. Exa., Senador Eduardo Gomes, Relator desta Comissão, pela iniciativa em pautar esse tema e por todo esforço para chegar ao texto avançado que discutimos hoje. E, por fim, quero agradecer também a V. Exa., Senador Alessandro Vieira, por ter viabilizado a nossa participação na audiência, por sua abertura às preocupações aqui da sociedade civil. Eu sou a Bianca Berti, Analista Sênior de Transparência e Integridade na Transparência Brasil, que é uma organização da sociedade civil que há 24 anos atua em defesa da transparência pública, do acesso à informação e do controle social sobre o poder público brasileiro, que para nós são pilares essenciais na garantia da integridade das instituições e do combate à corrupção. Na seara dos direitos digitais, nós integramos hoje a coalizão dos direitos na rede e também contribuímos na agenda de construção de diretrizes internacionais de governança de tecnologia, como o Pacto Digital Global; por meio de parcerias com organizações e iniciativas internacionais, como o Global Partners Digital e o Global Partnership on Artificial Intelligence. Então, eu queria começar a minha fala aqui agradecendo e parabenizando o esforço da Comissão, especialmente do Relator, o Senador Eduardo Gomes, na produção de um texto compreensível como o Projeto de Lei 2.338. Eu vou começar expondo a visão da Transparência Brasil sobre a necessidade da garantia da transparência e da explicabilidade das ferramentas como forma de viabilizar a boa governança da IA no país. Em seguida, eu vou fechar com uma reflexão mais ampla sobre a importância da regulamentação da IA baseada em direitos e riscos. Em 2020, a Transparência Brasil desenvolveu o projeto Transparência Algorítmica, que foi fruto de uma parceria com a Universidade Northwestern, no qual a gente mapeou os usos das ferramentas de IA pelo poder público brasileiro, principalmente em nível federal. O mapeamento foi todo conduzido com base em pedidos de acesso à informação e envio de questionários aos órgãos públicos. Na época, a gente encontrou que, em 56% das ferramentas utilizadas, não foram considerados possíveis vieses ao longo de seu desenvolvimento e utilização. Isso significa que eles poderiam incorrer em outputs diferentes para diferentes grupos, resultando então em decisões discriminatórias. |
| R | Em 47% das ferramentas não havia qualquer métrica de eficácia, ou seja, a gente sequer sabia se elas estariam funcionando melhor do que jogar um dado para tomar determinada decisão ou para embasar uma decisão de política pública. Isso foi uma fotografia do uso de tecnologia na época. Hoje, se a gente fosse repetir esse mapeamento, a gente teria que replicar a mesma metodologia de pedidos e questionários, que tomam muito tempo e recursos, já que o poder público ainda não se responsabiliza por organizar as informações de maneira clara e nem por publicar em seus portais de transparência. Então, o ônus de obter as informações sobre ferramentas de IA recai sempre sobre o cidadão. Um desafio imprescindível é que as disposições de governantes de tecnologia de IA incluídas nesse PL garantam um arcabouço claro de informações obrigatórias a serem prestadas sobre elas. A gente enxerga que a base de dados públicas sobre IA, que foi criada no artigo 39, por exemplo, é uma ferramenta essencial para garantir isso, só que a gente também enxerga que ela pode ser aprimorada. No caso do setor privado, ao menos as tecnologias de alto risco precisam estar incluídas e contemplar ambos os critérios, de transparência e explicabilidade, sem prejuízo do sigilo industrial. Já no caso do poder público, como agente de IA, a transparência e a explicabilidade precisam ser concedidas para todas as tecnologias, de novo, sem exceção. E essa base deve conter, obrigatoriamente, um rol de informações mínimas sobre as tecnologias, como o tipo de tecnologia e seu objetivo. Então, se se trata, por exemplo, de uma tecnologia biométrica, ou de uma tecnologia de análise de risco, o modelo estatístico utilizado - se é uma regressão simples, se é uma árvore de decisão, se é processamento de linguagem natural -; a descrição dos inputs, ou dados de entrada, para a gente entender quais são as variáveis que são consumidas pelo modelo na hora de ser treinado e validado; a descrição dos outputs, ou resultados; o grau de apoio à decisão oferecida pela ferramenta; então, se a decisão que a ferramenta fornece como output embasa, de fato, uma decisão em política, por exemplo, ou não, se é só um fator, uma informação que traz apoio a certas avaliações. E, por fim, as métricas de avaliação da própria ferramenta, como a acurácia, a precisão e demais testes realizados ali para verificar se a ferramenta de IA realmente é efetiva no que elas se propõem a fazer. Então, esses critérios fazem parte da nossa metodologia de transparência de IA, mas tem outras organizações como o Lapin, que também elaboraram metodologias por esse tipo de avaliação, e ela não é nenhum bicho de sete cabeças, como a gente vê sendo retratado por aí, principalmente por aqueles que acreditam se tratar de algo extremamente oneroso para as empresas realizarem. A transparência e as aplicabilidades são condições indispensáveis para viabilizar a governança da IA, e elas precisam ser incorporadas em seus desenhos e concepção. Então, da mesma forma que um desenvolvedor precisa ser capaz de explicar sua tecnologia a um potencial comprador ou investidor, ele também tem que ser capaz de explicar aos terceiros que potencialmente serão afetadas pelas decisões tomadas ali com base nos resultados produzidos por uma ferramenta que ele produziu. Então, a garantia das informações mínimas de forma transparente é o que nos permite fazer um diagnóstico preciso sobre o uso de IA no Brasil, inclusive para conseguir embasar as melhores orientações de política pública e estratégias para o desenvolvimento de uma IA responsável no país. A transparência algorítmica é essencial, por exemplo, para fomentar o compartilhamento de tecnologias dentro do poder público e também para permitir a fiscalização sobre os usos das ferramentas, sobre o seu impacto na alocação de recursos e na entrega de bens e serviços à população. No curso do nosso trabalho com o poder público, a gente está muito acostumado a ouvir reclamações conectando a exigência de prestações de contas e de transparência a um aumento desnecessário da burocracia, mas, no fundo, isso é uma desculpa de quem só não quer ter que prestar contas à sociedade de forma geral. A gente vê isso, por exemplo, com a falta de transparência e rastreabilidade de algumas emendas parlamentares, que impossibilitam que a sociedade fiscalize a sua atuação. No caso das tecnologias, a gente pode ter situações de gastos excessivos sem que haja resultados compatíveis com esses gastos, ou, pior, resultando, na verdade, impactos negativos à população e dano ao Erário. |
| R | Então, sem a obrigação de conceder transparência, é impossível garantir a prestação de contas adequada, e os agentes de IA não terão nenhuma preocupação ou incentivo de incorporá-la ao longo do ciclo de vida das tecnologias de IA. A exigência da prestação de contas é o que cria a necessidade de planejamento e adequação às normas. Qualquer contexto em que haja pouca ou nenhuma condição de transparência vai incorrer, necessariamente, no aumento de ineficiência na alocação de recursos e mesmo de corrupção. Isso impossibilita a boa governança tanto para o setor público quanto para o setor privado. O próprio trabalho de governança do SIA, o Sistema Nacional de Regulação e Governança de Inteligência Artificial, proposto aqui no texto do PL, no art. 40, vai depender do amplo conhecimento e transparência de todas as tecnologias. Queria parabenizar a iniciativa de estabelecer o SIA, mas também chamo atenção a uma necessidade de se incorporar efetivamente a sociedade civil brasileira de defesa de direitos na sua composição, para garantir que todos os cidadãos estejam representados e que a sociedade civil possa acompanhar e monitorar, pelo exercício do controle social, os rumos do desenvolvimento das tecnologias, que cada vez mais vão afetar suas vidas. Diante do exposto, a gente entende que o texto ainda pode ser aprimorado, mas é visível que ele avançou muito se comparado às iniciativas anteriores, predominantemente de abordagem principiológica, que não eram suficientes para defender os direitos fundamentais dos cidadãos brasileiros frente a um avanço irrestrito de tecnologias. O desenvolvimento da IA precisa acompanhar a necessidade e particularidade do país, não o contrário. E é preciso garantir sempre, em primeiro lugar, a proteção das pessoas afetadas por decisões embasadas em algoritmos, dada a facilidade de adesão à postura tecnosolucionista, e há críticas quanto aos efeitos das tecnologias. Hoje, a gente tem que se orientar pelo exemplo mais elevado de regulação, em especial dos países cujos cidadãos têm seus direitos efetivamente protegidos. A gente não quer importar as tecnologias que foram desenvolvidas em contexto de violação de direitos, e, da mesma forma, a gente não pode aceitar e incorporar a violação de direitos como a única forma de desenvolver tecnologias competitivas. Caso a gente faça isso, a gente vai se nivelar completamente por baixo. E, por isso, a defesa das hipóteses de vedação e do rol de tecnologias de alto risco, que são contempladas no PL hoje pelos arts. 13 e 14, é essencial. E não cabem aqui contrapontos com o argumento da novidade ou da velocidade da inovação, porque as tecnologias listadas ali já foram exaustivamente analisadas quanto aos seus impactos negativos sobre os direitos fundamentais ao redor do mundo. E, nesse sentido, destaco aqui também que as tecnologias de reconhecimento facial para fins de segurança pública, por exemplo, deveriam, inclusive, estar contempladas no rol de tecnologias vedadas, dada a extensa documentação dos seus resultados insatisfatórios e enviesados, que perpetuam uma discriminação racial e de gênero e têm custos elevados de violação de direitos das populações afetadas. Os países que não defendem os direitos dos seus cidadãos apropriadamente foram capazes de alavancar um desenvolvimento de tecnologias de maneira irrestrita; mas essa conta chega e está chegando! Os impactos negativos do desenvolvimento irresponsável acabam necessariamente recaindo sobre as populações mais vulneráveis. A gente crê que o Brasil pode e deve evitar que isso aconteça. Saúdo novamente os esforços do Relator e desta Comissão em buscar uma legislação capaz de impulsionar o desenvolvimento da IA responsável no Brasil. E encerro minha fala. Muito obrigada. |
| R | O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Obrigado, Bianca Berti, Analista Sênior de Transparência e Integridade da Instituição Transparência Brasil. De imediato, também convido o Sr. Carlos Coninck Júnior, que é Advogado da Central Única dos Trabalhadores e está conosco, aqui, compondo a mesa. O senhor tem dez minutos por gentileza, Sr. Carlos. O SR. CARLOS CONINCK JÚNIOR (Para expor.) - Boa tarde a todos e todas. Queria, primeiro, agradecer o espaço. Falo aqui em nome da Central Única dos Trabalhadores (CUT Nacional). Agradeço ao Senador Carlos Viana, ao Senador Astronauta Marcos Pontes, ao Relator do projeto de lei, Eduardo Gomes, e a todos os Senadores, enfim, à Comissão, pelo espaço que foi aberto aqui para a CUT apresentar suas propostas e dialogar sobre o projeto de lei que está sendo proposto. Eu não teria como começar a minha fala se não fosse no sentido de destacar a importância da regulamentação da inteligência artificial no Brasil. Eu acho que é unânime, em todas as falas que me precederam, que a gente precisa regular. Claro que existem ponderações sobre o que precisa, o que não precisa estar no texto, mas acredito também que temos aqui, nesta Comissão, um cenário maduro, de muitas discussões, de muito debate sobre o que é preciso dentro do cenário de inteligência artificial, dentro do Brasil. Portanto, nós temos uma urgência na regulamentação da inteligência artificial, e é isso também que a CUT defende perante esta Comissão. Queria destacar que o uso da inteligência artificial do Brasil não é uma novidade; ela já tem um enfoque muito grande em todo o cenário nacional e já está incorporada à vida cotidiana das pessoas, como bem destacado pelo relatório do Senador Eduardo Gomes, mas o debate tem colocado uma discussão ainda maior no momento atual, principalmente em relação ao avanço da tecnologia e à utilização de inteligência artificial, que passou a ser muito complexa, mais talvez o que a compreensão de muitos em relação ao que é inteligência artificial e ao impacto dela na vida das pessoas. Portanto, dentro dos riscos da negligência do uso da inteligência artificial, eu queria destacar a possibilidade de uso dela para discriminação, exclusão de acesso a bens e serviços de grupos marginalizados, manipulação de opiniões e discursos políticos, disseminação de discursos de ódio e desinformação, manipulação de conteúdo audiovisual que não permita diferenciar a realidade. Então, nós temos aí as deepfakes como bem conhecido no nosso cenário, que geram graves prejuízos às pessoas, ofendem a honra, a dignidade e podem levar, inclusive, a casos de extorsões e fraudes. Então, é uma preocupação muito grande, de fato, pela sua utilização. E aqui um ponto essencial, principalmente em relação ao que a CUT apresentou, que é a precarização do trabalho: o impacto que a inteligência artificial tem nas relações de trabalho, como isso pode gerar impactos, seja na redução massiva da força de trabalho, dos postos de trabalho, como também nas decisões algorítmicas no mundo do trabalho. Então, até que ponto isso pode chegar a afetar e como isso é importante de ser legislado, regulamentado para que nós possamos ter a minimização desses riscos. A criação do marco regulatório do uso da inteligência artificial no Brasil, além de urgente, com danos reais já experimentados, é também algo essencial. A gente precisa, o Parlamento, o Congresso Nacional não pode deixar isso correr solto. A gente precisa de uma regulamentação que, efetivamente, verifique as condições nacionais, as nossas diferenças em relação aos modelos internacionais e possa promover um ambiente regulatório saudável, um ambiente regulatório ético que possa realmente promover um amplo espaço para que os indivíduos afetados pela inteligência artificial tenham seus direitos resguardados, que tenham efetivamente uma transparência. |
| R | Então, eu acredito que esse projeto que está sendo aqui discutido na Comissão Temporária chegou a esse nível de maturidade, e permite amplamente a votação pelo Congresso. Queria destacar também que o projeto de lei em questão coloca o Brasil, como já foi dito anteriormente, numa posição de vanguarda no avanço regulatório no cenário nacional e internacional, criando uma lei genuína para o país, que vai observar as diferenças, vai observar as especificidades do que nosso país precisa. Ela permite, sim, a inovação sustentável; permite, sim, que haja um avanço do uso da tecnologia artificial, mas ela é calcada nos direitos humanos, na ética, na transparência, na confiabilidade, na proteção e na responsabilidade do seu uso - o que é o principal. Não adiantaria apresentar apenas uma lei principiológica que não tivesse efeitos práticos para o nosso país. É por isso que, dentro do que foi proposto inicialmente, talvez de fato a legislação não servisse para o nosso país, mas desde o que passou pela discussão dentro desta Comissão, e na fase em que está atualmente, ela é plenamente possível de ser votada pelo Congresso Nacional. Ela é uma lei boa para o país. Então, a gente de fato precisa dessa regulamentação. Alguns pontos do projeto de lei precisam ser ressaltados, por trazerem um avanço do uso adequado da inteligência artificial, como a regulação assimétrica, que vai impor a categorização dos riscos, e que os agentes já tenham obrigações diferentes dentro dos riscos que o uso da inteligência artificial oferece. A introdução de um sistema de governança e transparência com avaliações de impacto algoritmo e de mecanismos de fiscalização com a criação de um ecossistema de inteligência artificial ético e transparente. A criação do CIA, que talvez não tenha sido muito explorado nas falas anteriores, mas é um sistema nacional de regulação muito forte, que traz para dentro desse sistema muitos atores, inclusive dos setores que precisam de regulamentação específica, e que talvez a lei não pudesse atender neste momento sem trazer um impacto prejuízo. Também a imposição de uma avaliação de impacto algoritmo ao desenvolvedor e aplicador do sistema de alto risco, realizado por profissionais ou equipe de profissionais com conhecimentos técnicos, científicos, regulatórios e jurídicos. E, principalmente, a proteção ao trabalho aos trabalhadores, conforme o Capítulo 10, Seção 2, de forma a desenvolver diretrizes para mitigar os potenciais impactos negativos aos trabalhadores, em especial a perda e deslocamento do emprego e oportunidade de carreira; bem como potencializar os impactos positivos aos trabalhadores, valorizando os instrumentos de acordo, negociações e convenções coletivas, e fomentando a capacitação dos trabalhadores, a ampliação dos postos de trabalho e a valorização dos trabalhadores em atividade. Sob o enfoque da precarização das relações de trabalho, é importante destacar o que foi apresentado na Emenda 53, apresentada por Sua Excelência o Senador Fabiano Contarato, parcialmente acatada pelo Relator, para que seja aprovada, na sua íntegra, pela Comissão; ou também na fase posterior, junto ao Senado Federal. |
| R | A emenda proposta busca a alteração do caput do então art. 56, anteriormente 55, no sentido de que todos os órgãos do SIA sejam responsáveis pela elaboração de diretrizes e normas voltadas à proteção do trabalho, e não apenas o Conselho de Cooperação Regulatória, ampliando o debate e o papel dos órgãos do SIA também na proteção ao pleno de emprego. Também se buscou nos incisos do III ao VIII que não ocorra mera valorização dos instrumentos de negociação e convenção coletiva, em sentido vago, mas efetivo fomento e incremento de uma participação sindical para garantir o debate e melhores condições à categoria profissional como mais um agente importante para a garantia dos direitos dos trabalhadores dentro dos avanços necessários no uso da tecnologia e como meio de assegurar o bem-estar e a dignidade humana. E ainda se buscou assegurar a continuidade do pleno emprego aos profissionais em atividade, com a preservação da dignidade humana acima do mero desenvolvimento tecnológico, de forma a permitir a responsabilidade do poder público e dos agentes de inteligência artificial no fomento da qualificação e ampliação dos postos de trabalho, não apenas na substituição em massa e abrupta da força de trabalho, mas a qualificação daqueles que já estão inseridos dentro do mercado e precisam tão-somente... (Soa a campainha.) O SR. CARLOS CONINCK JÚNIOR - ... promover o uso da inteligência artificial dentro do cenário em que estão. Então, apesar do evidente e louvável esforço de inclusão de proteção ao trabalho e aos trabalhadores no projeto de lei em questão, inclusive com o acolhimento parcial da emenda, a inclusão na íntegra da emenda apresentada fornece ainda mais amparo aos trabalhadores e cumpre com o objetivo da lei, que é fomentar o desenvolvimento sustentável, de forma a reduzir os impactos negativos que o uso da inteligência artificial possa ter sobre a força de trabalho nacional, e, consequentemente, a economia nacional e as políticas públicas desenvolvidas no intuito da melhora do bem-estar social. Não há como se falar em economia sustentável sem o pleno emprego. Sem emprego não há consumo, sem emprego há sensível aumento da criminalidade e prejuízo à segurança pública. Sem emprego não há desenvolvimento social, sem emprego não há dignidade. Portanto, muito ainda haveria a se falar sobre inteligência artificial - poderíamos discorrer por horas sobre isso aqui -, mas o ponto são exatamente essas considerações, essas contribuições para que haja um maior enfoque... O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Obrigado. O SR. CARLOS CONINCK JÚNIOR - ... para a proteção aos trabalhadores, assim como apresentado na emenda. Agradeço a atenção de todos e fico à disposição. O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Obrigado ao Sr. Carlos Coninck Júnior, advogado da Central Única dos Trabalhadores. Vamos ao Prof. Juliano Maranhão, da Faculdade de Direito da Universidade de São Paulo, que está acompanhando também remotamente. Professor, dez minutos para a apresentação. O SR. JULIANO SOUZA DE ALBUQUERQUE MARANHÃO (Para expor. Por videoconferência.) - Boa tarde. Primeiramente, eu gostaria de agradecer pelo convite. Eu vou procurar ser direto e breve, porque minha conexão está muito ruim, pode ser que ela caia, inclusive. Mas eu queria falar principalmente sobre o tema do fomento e investimento em inteligência artificial e a forma como esse tema é tratado no projeto de lei. (Falha no áudio.) ... importância hoje no país, não só porque isso desrespeita a proteção de direitos fundamentais, mas principalmente porque o sucesso das economias nacionais vai depender da forma pela qual o país se insere na cadeia produtiva global de inteligência artificial. Então, regular a inteligência artificial não é só estabelecer restrições ou mecanismos de governança para o uso responsável da inteligência artificial, mas também... (Falha no áudio.) |
| R | ...trazer ferramentas para fomento e também eliminar gargalos existentes no ordenamento jurídico nacional para o investimento em inovação. Isso é chave. Para se ter uma ideia, eu acho que eu posso até já me beneficiar da apresentação do Jean Paul Neumann, que mostrou como atualmente, com o avanço das IAs generativas e dos grandes modelos fundacionais, a disputa no mercado global de IA passou a ser grande. Não se trata mais de uma competição com múltiplos agentes que criam dados de uma forma fragmentada numa cadeia dispersa com ampla abertura, sem quaisquer barreiras à entrada. O desenvolvimento de grandes modelos exige investimentos pesados, exige também a disponibilidade de dados de qualidade para o desenvolvimento desses modelos. Então, é importante olhar para toda essa cadeia de produção de IA, entender onde o Brasil tem que se inserir e trazer regras para que o Brasil se insira nessa competição global de forma efetiva. Quando olhamos para a cadeia de IA, nós temos, primeiro, o fornecimento de energia; depois, numa segunda etapa, o fornecimento de dados, de expertise e também a capacidade computacional; numa terceira etapa, está o desenvolvimento dos grandes modelos, IAs generativas e grandes modelos fundacionais; e depois a etapa das aplicações. Então, olhando para esse panorama, em primeiro lugar, o Brasil tem a oportunidade de ser um grande fornecedor global de energia limpa para os mercados de IA. Uma outra oportunidade que é importante é que o Brasil não se restrinja ao papel de aplicação de grandes modelos que são desenvolvidos e fornecidos a partir de outros países. O Brasil tem a possibilidade de se inserir nesse mercado de grandes modelos e de IAs generativas, na medida em que o Brasil, por exemplo, tem o potencial de ser o líder global em desenvolvimento de sistema de linguagem natural em português ou talvez até em línguas latinas. Em relação ao uso de IA para análise de imagens e medicina, o Brasil também é avançado. Agora, para que o Brasil possa competir, é importante que haja investimentos pesados, inclusive em parcerias públicas, para que o público também invista em qualidade de dados. O Brasil hoje é um país que tem uma administração digital, existem muitos dados disponíveis dos tribunais ou de saúde, do SUS, que podem servir de base a desenvolvimento de grandes modelos. Então, é muito importante que haja regras claras e concretas para aplicação e para fomento da inteligência artificial, que coloquem o Brasil dentro dessa competição global. Isso é importante para a... (Falha no áudio.) E, quando nós olhamos o projeto de lei, a versão original do PL 2.338 não tinha nenhuma regra sobre investimentos, sobre fomento à inteligência artificial. Eu fiz parte da Comissão de juristas, insisti muito para que houvesse um capítulo sobre fomento e investimento em IA no Brasil, mas isso não foi incorporado. |
| R | Depois de muitas críticas, quando o texto veio a público, diversos setores colocaram essa crítica de que faltavam regras de fomento e a ... (Falha no áudio.) ... preliminar e que foi divulgada pela Comissão transitória do Senado continha ali regras, incorporou regras de fomento à inovação. Então, no art. 50 havia 11 incisos com regras de estímulo à inovação. E o que o Brasil precisa em investimento em inovação? Primeiro, direcionamento de fundos públicos para grandes projetos de investimento em IA; a previsão de parcerias público-privadas... (Falha no áudio.) ... para que empresas invistam em universidades em particular e em universidades públicas; regras para que haja maior flexibilidade na contratação pelo estado de sistemas de inteligência artificial, que é hoje algo que acontece muito pouco no Brasil, porque são usadas regras de licitação e para aquisição que são anacrônicas para o que essa tecnologia exige. E o meu ponto aqui diz respeito ao fato de que da primeira versão do texto preliminar para a versão atual, aqueles 11 incisos voltados para o fomento à inteligência artificial, apesar do grande consenso e das várias manifestações dizendo que é importante, que é necessário para o país ter regras de fomento, regras que reduzam gargalos para investimento em IA no país, o art. 50, que agora passou a ser o art. 54, foi reduzido de onze medidas para três medidas de inovação, basicamente se restringindo ali a sandbox regulatória e financiamentos, recursos tecnológicos para pequenas e médias empresas. O Brasil não vai se inserir no mercado global de IA somente tendo incentivos para startups para pequenas e médias empresas. O jogo competitivo global é outro. É importante investir em pequenas e médias empresas? É muito importante. Agora, deve haver um conjunto de regras robustas, claras, que concretizem esse investimento. Mesmo na versão preliminar do texto da Comissão Temporária, o texto apenas trazia esses 11 incisos como diretrizes. É importante que eles não sejam apenas diretrizes, sejam regras que efetivamente sejam aplicáveis, ou que sejam previsto um prazo para que haja uma regulamentação pelo Executivo, para que se estabeleça... (Falha no áudio.) ...vinculante, no Brasil, um compromisso dos órgãos públicos em... outro tema que caiu... Na versão anterior, tanto o Fundo nacional de Desenvolvimento Científico e Tecnológico era direcionado para IA quanto o Fundo de Direitos Difusos era direcionado para IA, no novo-texto, caiu o direcionamento do Fundo de Direitos Difusos, o que é um retrocesso. Afinal de contas, poderiam ser desenvolvido sistemas de IA para favorecer o interesse público, por exemplo, para fortalecer a informação, reduzir a simetria de informação entre consumidores e empresas. Temos visto uma série de iniciativas para o bem público que poderiam se valer de recursos do Fundo de Direitos Difusos, mas, para que o Brasil se insira nesse mercado global, não adianta fazer standbox regulatório, porque também exige um custo para a administração e... (Falha no áudio.) ... olhar apenas para oportunidades. Isso é importante, mas é fundamental (Falha no áudio.) ... recursos e que sejam eliminados os gargalos, para que possa haver parcerias público-privadas no desenvolvimento de grandes bases de dados de qualidade e também no desenvolvimento de modelos fundacionais e grandes sistemas, sistemas de IA generativa, que possam colocar o Brasil como um ator competitivo no cenário global. |
| R | Eu gostaria também de ressaltar o fato de que é muito positivo que haja regras - e que foram incorporadas na versão final - em relação à proteção ambiental e à sustentabilidade dos sistemas (Falha no áudio.) ... É importante que isso não esteja só aqui, mas que isso seja uma pauta do Brasil perante os fóruns internacionais de regulação de IA, porque, se nas regulações internacionais de IA ficar incorporado que a energia que alimenta a IA deve ser uma energia limpa, isso é uma grande oportunidade para o Brasil se inserir com peso na cadeia produtiva de IA global. Obrigado. O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Obrigado ao Prof. Juliano Souza de Albuquerque Maranhão, da Faculdade de Direito da Universidade de São Paulo, que está fora do Brasil e aceitou participar. Muito agradecido, Professor. Convido já também, de imediato, o Sr. Marcos Ferrari, Presidente-Executivo da Conexis Brasil Digital. O senhor tem dez minutos para a apresentação. O SR. MARCOS FERRARI (Para expor.) - Obrigado, Senador. Queria agradecer ao senhor pela oportunidade de estarmos aqui apresentando nosso ponto de vista da Conexis; agradecer também ao Senador Astronauta Marcos Pontes, que é um grande ativista nesse tema de inteligência artificial; e, ao mesmo tempo, agradecer ao Senador Eduardo Gomes e parabenizá-lo pela liderança não só como Relator do projeto como também na liderança do diálogo. O Senador tem sido incansável na participação de fóruns e está sempre aberto ao diálogo, o que nos traz um debate bastante positivo para a melhoria contínua do texto. Então, queria deixar aqui registrados os meus parabéns e agradecimento ao Senador Eduardo Gomes. A Conexis é o sindicato patronal das operadoras - vou tentar ser breve e direto aos pontos. Aqui são os nossos associados. Aqui são os nossos números. O setor é muito grande, então os números são muito grandes. O que eu queria só trazer de relevância é o número de acessos que nós temos: nós temos 344 milhões de acessos, ou seja, todo dispositivo que você conecta a rede de telecomunicações é um dispositivo - um celular, um telefone fixo, uma banda larga fixa. Então, tudo que se faz em telecom é de alta escala, tem muito impacto. Então, esse número para nós é importante. Queria que fixassem esse número aqui. O que nós trazemos como sugestão? Nós estivemos esse ano no Mobile World Congress, que é o grande evento de telecomunicações que ocorre em Barcelona, e o principal tema do evento esse ano foi justamente inteligência artificial. Tivemos várias apresentações, várias demonstrações. O que nós percebemos, nessa participação nossa quando estivemos em Barcelona, foi justamente isto: princípios flexíveis e dinâmicos, ou seja, a legislação deve prever esses princípios que sejam flexíveis e dinâmicos, para que possam fomentar inovação e adoção das inovações, e aí virar um círculo virtuoso, e não, ao contrário, um círculo vicioso, que acaba amarrando as inovações. |
| R | Desse eslaide eu destaco que nós entendemos que as regras devem ser principiológicas, baseadas sempre em risco, com regulação responsiva e principiológica. Também acreditamos que devemos ter liberdade de desenvolvimento de modelos de negócios e, da mesma forma, que se respeite o segredo de negócio. Esses são os nossos principais pontos gerais que defendemos, do ponto de vista macro da regulação e da legislação sobre o tema. Os pontos que nós trazemos para reflexão são baseados em duas linhas: a autorregulação e as boas práticas internacionais. O que nós trazemos para a contribuição do debate: primeiro, a partir do regulamento que está em tramitação, o que nós entendemos é que o regulamento deve valorizar a expertise setorial. Nós compreendemos que cada órgão regulador do seu setor tem a maior expertise para poder avançar na regulação do tema, e sempre com cuidado de não aprofundar as assimetrias entre setores regulados e não regulados durante a implementação, o início da vigência da nova lei. Como nós somos setores regulados, naturalmente esses setores terão uma agência reguladora já no dia 1; no d+1, já terá uma agência reguladora para fazer a sua regulação, enquanto que setores não regulados ainda não terão uma regulação e um agente regulador no d+1. Então isso pode criar um risco de se ter uma assimetria entre setores regulados e não regulados. Entendemos também que deve ter uma responsabilização adequada em cada membro da cadeia produtiva, ou seja, existem os desenvolvedores e os operadores, cada um tem que ter o seu grau de responsabilização na legislação. Também compreendemos que deve haver uma harmonização com as normas internacionais. Entendemos e compreendemos que toda e qualquer regulação que venha a ser aplicada por aqui beba na fonte das melhores práticas internacionais. Sempre usar o benchmarking, que eu acho que isso é importante para gente possa avançar de maneira equilibrada e adequada aqui no Brasil. E, por último, a autorregulação. Nós entendemos que é um espaço que pode colaborar bastante, uma vez que ela é muito mais ágil, muito mais prática e, ao mesmo tempo, protege o cidadão, protege o consumidor. Bom, quais são os benefícios da autorregulação? Primeiro, no nosso caso, telecomunicações é um setor altamente regulado. Dados os nossos números, que estavam aqui na lâmina anteriormente, certamente é de se compreender que nós, assim como os bancos, as seguradoras... são setores que possuem uma regulação bastante ostensiva. Dado isso, nós entendemos que a autorregulação pode oferecer algumas contribuições importantes para que não haja alguma barreira à inovação. No nosso caso, um normativo de autorregulação demora em torno de quatro meses para ficar pronto: do início da gestação à conclusão, até passar a valer a autorregulação. Então, é um tempo que nós consideramos adequado para que possa, de fato, ser efetivo em relação à inteligência artificial. |
| R | Aqui tem a importância, tem todas as contribuições, tudo que nós entendemos que traz de positivo o fato de se ter uma autorregulação como regulação dinâmica e aderente à realidade, ou seja, não tem a burocracia que muitas vezes ocorre nas agências reguladoras. Alguns regulamentos demoram mais de dois anos para serem implementados, ou melhor, para serem aprovados; a implementação ainda demora mais tempo. Então, acho que a autorregulação pode contribuir nesse sentido. Melhora a relação com o consumidor; há uma resolução de problemas de forma mais eficiente, uma vez que se conhece... não existe assimetria regulador e regulado. Enfim, entendemos que há vários pontos positivos e que ela pode contribuir. Aqui é apenas algum exemplo do que nós já temos de autorregulação e como que funciona. No caso do setor de telecomunicações, aqui são alguns exemplos. Nós temos já um código de autorregulação, temos normativos de atendimento, de oferta, de cobrança. E temos compromissos setoriais. Por exemplo, o cell broadcast, Senador, vai substituir o SMS quando há um desastre. Normalmente, hoje, funciona através de alerta de desastre por SMS. O setor se organizou e, mediante uma colaboração entre as empresas, estamos criando o cell broadcast, que é uma ferramenta muito mais eficiente para avisar o cidadão quando haverá algum desastre ou, pelo menos, alguma previsão de desastre naquela região. Então, é um compromisso setorial que é uma maneira de autorregulação. O Celular Legal; o Não Me Perturbe; autenticação e identificação de chamadas - quando agora vocês receberem chamadas de alguma empresa, alguma ligação, vocês vão saber de quem é essa ligação, vai aparecer a logomarca de quem está ligando. Então, esses são todos exemplos de compromissos setoriais por meio de autorregulação, por meio de uma iniciativa própria do setor. Aqui um outro exemplo. Vou passar rápido, mas como a LGPD é um tema extremamente importante... Nós fomos um dos primeiros setores a lançar o Guia de Boas Práticas de Proteção de Dados. Então, também é um exemplo de como que o setor pode se autorregular. Bem, nós acreditamos que o texto, desde a sua origem até hoje, avançou bastante. E queria aproveitar também a oportunidade para parabenizar o Presidente da Casa por trazer esse tema justamente ao debate. Então, o Presidente Pacheco trouxe o tema ao debate e nos deu a oportunidade de colaborar com a discussão. (Soa a campainha.) O SR. MARCOS FERRARI - Esses são dois termos que nós achamos que são importantes. Nós já apresentamos ao Relator, não vamos aqui entrar em detalhes, mas o que nós entendemos é que o alto risco tem que ser baseado na tecnologia, ou seja, conforme o uso e contexto. A tecnologia vai ter um determinado uso, entendemos que o alto risco tem que ser classificado por isso. O sistema de certificação nós compreendemos que deve seguir as boas práticas internacionais, ou seja, não precisamos inventar "jabuticabas" brasileiras, vamos seguir o que já há de melhor no mundo. E, como conclusão, a responsabilidade do tema reside não na sua própria natureza, mas sim na sua própria forma e em como ela é aplicada em diferentes contextos. Por fim, eu acho que entendemos que a autorregulação pode, de fato, ser um caminho promissor para oferecer soluções regulatórias e legislativas mais concretas. No meu tempo certinho. O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Muito obrigado, Marcos Ferrari - boa colaboração -, Presidente-Executivo da Conexis Brasil Digital, pela participação. Eu vou ceder a palavra ao Relator, Senador Eduardo Gomes, para as considerações finais. O SR. EDUARDO GOMES (Bloco Parlamentar Vanguarda/PL - TO. Como Relator.) - Presidente Carlos Viana, muito obrigado. |
| R | Eu quero agradecer a todos os expositores, ao Carlos Coninck Júnior - quem pedir para fazer contato... Porque acho que uma das relações mais sérias do efeito da inteligência artificial é a relação de trabalho; então, teremos muitas conversas aí. Agradeço ao Dr. Rodrigo Badaró, que ajudou bastante; ao jornalista Artur Romeu; ao Dr. Marcos Ferrari; a todos que participaram pela via remota. Presidente, eu queria só deixar claro: eu fiz uma série de anotações aqui, mas, sem prejuízo às anotações que foram feitas, eu já pedi para a consultoria entrar em contato com todo mundo que participou, para ver se tem mais alguma contribuição, alguma colaboração, e faço as impressões finais aí do que nós estamos fazendo aqui. Nesse período de discussão de inteligência artificial, da regulação, surgiram as impressões, as lendas... O mundo mudou, definitivamente, em algumas circunstâncias que não ocorrerão mais. Então, não adianta a gente falar aqui daquele assunto de filme da Sessão da Tarde, em que duas pessoas na garagem vão criar um conglomerado... Quem está investindo hoje investe 50 bilhões, 195 bilhões, 800 bilhões, e não está querendo discutir nacionalidade - volto àquela questão da casa e da rua. Então, se a gente não regular, para não compreender as nossas dificuldades de fomento, de abertura, de institucionalização, independente de governo, mas sim com o Estado, com as agências reguladoras trabalhando, com o direito de propriedade intelectual, direito autoral, respeitado, discutido... A gente não vai resolver tudo de uma vez só, mas esse é o primeiro passo. A gente precisa ter condições de regular com essa visão, porque a outra visão se choca diretamente com a realidade. As relações de trabalho... Há países que estão, de maneira muito estranha, mas de maneira eficiente, modificando a relação de trabalho, de modo que aquele mesmo trabalhador, com a chegada da inteligência artificial, ele tem três empregos, trabalha menos e ganha mais. Então, olha só o que está acontecendo com o trabalho no mundo. Agora, não adianta a gente não regular e não cuidar do ambiente. Tem 47 supercomputadores nos Estados Unidos, quase 80% das máquinas disponíveis para esse fim, e no Brasil nós temos três. Aí, nos estamos lá, num time formado no mundo... Então, se a gente não regular minimamente, abrir espaço e se conhecer na cadeia... Todos que criticaram, neste dia de hoje, o relatório colaboraram com o relatório, porque, se eles tiverem condições de apresentar texto alternativo e competência... Porque o medo é geral. É evidente que interpretação subjetiva, no Brasil... Você pega a Constituição. Ela, hoje, em si, depois de 35 anos - está para fazer 36 -, a nossa Constituição, feita aqui, de 1988, tem centenas de artigos que não foram regulamentados até hoje, e o Supremo Tribunal Federal se debruça, até hoje, sobre pendengas. Então, a lei leva ao exercício do direito, à regulação do setor e ao pleno direito de recurso, de melhoramento - e é isso que a gente está fazendo. Então, quero agradecer mais uma vez a V. Exa., ao Presidente Rodrigo Pacheco, ao Astronauta Marcos Pontes e a todos os nossos colegas da Comissão e a todos aqueles que expuseram hoje as suas posições. Muito obrigado. O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Obrigado, Senador Eduardo Gomes e todos os participantes. Quero fazer apenas dois pontos aqui com relação às colocações que foram feitas, eu anotei algumas. Nós precisamos tomar um certo cuidado, porque são tecnologias que, hoje, podem não estar atendendo, mas, futuramente, depois de melhoradas... A questão, por exemplo, da identificação via câmeras. Realmente, há uma preocupação muito grande com relação às populações vulneráveis, mas nós não podemos, por exemplo, colocar no texto a proibição de que uma escola ou uma universidade possa, diante da identificação que já tem dos seus membros, fazer essa identificação via câmeras. Esse é um ponto que nós precisamos... |
| R | O SR. EDUARDO GOMES (Bloco Parlamentar Vanguarda/PL - TO) - Presidente... O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Pois não. O SR. EDUARDO GOMES (Bloco Parlamentar Vanguarda/PL - TO. Pela ordem.) - Só para contribuir com que V. Exa. está falando, a gente reduziu a expressão, o alcance, mas não deixou de atender à solicitação técnica do próprio Ministério da Justiça, porque esse é um dos pontos em que a gente fez questão de ouvir o Governo Federal. Há uma questão aí de ciência, de polícia, de polícia técnica... O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG) - Um interrogatório, uma sequência processual remota, tudo isso tem que ser visto. Outra questão é o crédito, por exemplo, que foi colocado, para a inteligência artificial. Isso naturalmente é uma questão do setor. O setor, se não tiver crédito, fecha a porta. Ao longo do tempo, nós teremos discussões importantes. Outra questão que nós até discutimos foi a questão do SIA. No começo, falava-se que não há necessidade de se criar uma nova autoridade no Brasil, já que nós temos a Autoridade Nacional de Proteção de Dados, mas, da forma como foi feito, é quase um conselho de regulação dessa inteligência... O SR. EDUARDO GOMES (Bloco Parlamentar Vanguarda/PL - TO) - E outra coisa. Tem visão colaborativa muito mais do que fiscalizatória, porque nós temos aí... Por exemplo, no setor financeiro, há o Serasa; no setor de saúde, o SUS. É um sistema. Então, eu acho que o sistema... Agora nos preocupa muito - é evidente que haverá uma cobrança política - a sua formação com relação a uma participação plural. O SR. PRESIDENTE (Carlos Viana. Bloco Parlamentar Independência/PODEMOS - MG. Fala da Presidência.) - Obrigado. O Senador Marcos Pontes não está conosco aqui, mas deixou também uma série de pontos, que já estão sendo colocados, nada com que a gente não consiga manter o nosso objetivo de votarmos este relatório na próxima quinta-feira. Eu quero agradecer ao Antônio, de São Paulo; ao Adriano, também de São Paulo; ao Giovanni, de São Paulo; à Bruna, do Rio de Janeiro; ao Luiz, de São Paulo; ao Marcos, de Alagoas; e ao Anderson, de São Paulo, com relação às perguntas enviadas. Peço desculpas, porque não há prazo hoje, uma vez que a Ordem do Dia se inicia agora, às 16h, no Senado. Senhores, amanhã, às 14h, haverá mais uma audiência pública com convidados de todo o país, de todas as áreas, para a execução desse relatório até a quinta-feira. Nada mais havendo a tratar, declaro encerrada a presente reunião. Muito obrigado. (Iniciada às 14 horas e 15 minutos, a reunião é encerrada às 16 horas e 06 minutos.) |

