Notas Taquigráficas
| Horário | Texto com revisão |
|---|---|
| R | O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP. Fala da Presidência.) - Boa tarde a todos. Havendo número suficiente de Senadores, eu declaro aberta a 9ª Reunião da Comissão Temporária Interna sobre Inteligência Artificial no Brasil, criada pelo Requerimento nº 722, de 2023, com a finalidade de, no máximo, em 120 dias, examinar os projetos concernentes ao relatório final aprovado pela Comissão de Juristas, responsável por subsidiar a elaboração do substitutivo sobre inteligência artificial no Brasil, criada pelo Ato do Presidente do Senado Federal nº 4, de 2022, bem como eventuais novos projetos que disciplinem a matéria. Antes de iniciarmos nossos trabalhos, proponho a dispensa da leitura e aprovação das atas da 6ª, 7ª e 8ª reuniões. As Sras. e Srs. Senadores que concordam permaneçam como se encontram. (Pausa.) |
| R | As atas estão aprovadas e deverão ser publicadas no Diário do Senado Federal. Sobre a pauta de hoje, informo que essa reunião se destina à realização de audiência pública com o objetivo de debater “abordagens regulatórias nacionais e internacionais”, modelos de regulação (comando e controle ou responsiva, centralizada ou descentralizada, setorial ou unificada, autorregulação regulada), regime de fiscalização (sanções administrativas, incentivos, autoridade reguladora, exercício e limites ao poder de polícia), sandboxes regulatórios, regime de transição regulatória e segurança jurídica, em cumprimento ao Requerimento nº 4, de 2023, da Comissão Temporária de Inteligência Artificial, de autoria do Senador Eduardo Gomes. O público interessado em participar desta audiência pública poderá enviar perguntas ou comentários pelo endereço www.senado.leg.br/ecidadania ou ligar para 0800 0612211. Novamente, www.senado.leg.br/ecidadania ou ligar para 0800 0612211. Encontram-se presentes no Plenário da Comissão: Rodrigo da Silva Ferreira, Encarregado de Proteção de Dados na Casa da Moeda do Brasil; Abraão Balbino e Silva, Superintendente-Executivo da Agência Nacional de Telecomunicações (Anatel), representando Carlos Manuel Baigorri, o Presidente da Anatel; Loren Spíndola, Líder do Grupo de Trabalho de Inteligência Artificial da Associação Brasileira de Empresas de Software (Abes). Encontram-se também presentes, por meio de sistema de videoconferência: Hélio Ferreira Moraes, Coordenador da Comissão de Tecnologia da Câmara de Comércio Brasil-Canadá; Susana Maria Aires de Sousa, Professora da Faculdade de Direito da Universidade de Coimbra. Profa. Susana, bem-vinda. Temos também Miriam Wimmer, Diretora da Autoridade Nacional de Proteção de Dados. Bem-vinda, Miriam. É bom vê-la de novo. Encontra-se também presente, na sala de reuniões da Comissão, Fernanda Arbex, da Câmara de Comércio Brasil-Canadá. Obrigado pela presença. Gostaria de aproveitar este momento e também agradecer a presença de todos que se encontram aqui na audiência, assim como aqueles que nos acompanham, através da TV Senado e das redes do Senado. Aproveito para ressaltar que perguntas e comentários podem ser enviados através do Portal e-Cidadania do Senado Federal e também pelo telefone 0800 0612211. Então, como vamos fazer a dinâmica desta exposição? Primeiro, gostaria de comentar a importância de nós termos esses debates aqui. A inteligência artificial é uma tecnologia disruptiva e, como toda tecnologia disruptiva, tem as suas vantagens, muitas vantagens, em todos os setores, mas também os riscos inerentes. Para dar um exemplo mais palpável, as pessoas já estão mais acostumadas com a tecnologia nuclear |
| R | Para dar um exemplo mais palpável, as pessoas já estão mais acostumadas com a tecnologia nuclear, ela também é uma tecnologia de extrema importância, que tem inúmeras vantagens de utilização no setor de medicina, por exemplo, em diagnóstico, remédios, radiofármacos, etc., mas também, se mal-empregada, tem o potencial de produzir muitos problemas, como a bomba atômica, por exemplo. A inteligência artificial também é uma tecnologia que já está presente no nosso dia a dia, tem a tendência de estar cada vez mais em todas as atividades, em todos os setores, e, como tal, tem a capacidade de produzir muitos resultados importantes, como aumentar o número de empregos qualificados também, porque é uma das preocupações de muitas pessoas a inteligência artificial reduzir empregos. Na verdade, ela vai transformar os empregos e criar novas oportunidades de negócio, mas, para que isso seja possível no nosso país, é importante que nós tenhamos uma regulação, que tenhamos uma legislação que seja, ao mesmo tempo, protetora dos direitos das pessoas, quando a gente fala das questões de ética, das questões de proteção de dados, das questões de não discriminação, e também, ao mesmo tempo, flexível o suficiente para permitir o desenvolvimento dos negócios no Brasil, as aplicações de inteligência artificial, assim como o desenvolvimento da própria tecnologia, a parte de ciência e tecnologia necessárias para o Brasil estar pari passu com todos os outros países, para que nós tenhamos competitividade aqui no nosso país. Esse é o nosso desafio em criar essa legislação. Portanto, a existência de audiências como esta tem uma importância muito grande no sentido de ouvir as diversas áreas da sociedade civil que utilizam, que desenvolvem inteligência artificial, para que nós tenhamos um texto que seja de muitas mãos e que possa atender às demandas e interesses do país e das pessoas aqui do nosso país. Nós já tivemos audiências com o setor acadêmico, com o setor de ciência e tecnologia, com o setor de medicina, de saúde especificamente, e, agora, esta audiência também tem uma importância muito grande para que nós possamos ver os aspectos regulatórios disso e para que, ao longo dessas discussões, nós também possamos trazer a melhor proposta em termos de estrutura de todo esse sistema no Brasil, para que não haja interferência entre as diversas agências, lembrando que cada agência reguladora já trata dos seus dados, ou seja, da sua especificidade naquele campo, e estou vendo ali o pessoal da Anatel, e outras agências de proteção de dados, a Anvisa, etc., elas têm as suas próprias atribuições e conhecem muito bem as suas áreas. Temos que tomar um cuidado muito grande para que não haja interferência de uma agência em outra em termos de regulação, obviamente, e a inteligência artificial e a segurança cibernética são temas que são transversais, e, para que nós tenhamos a melhor eficiência no Brasil, é importante que nós tenhamos aí a participação das agências e uma proposta em que as agências possam trabalhar nos seus devidos setores com inteligência artificial e congregando essas informações todas num centro, pode ser um conselho, por exemplo, que possa congregar as informações e tomar as decisões adequadas de proteção no Brasil, de evolução, de desenvolvimento do Brasil, mas que cada setor tenha os seus tratamentos individuais, vamos chamar assim. |
| R | Então, essa, por enquanto, é uma das ideias que nós temos aqui no desenvolvimento. Hoje nós vamos ter uma série de discussões sobre isso e eu tenho certeza de que vão ser muito interessantes para todos nós, e principalmente, para a sociedade brasileira. Então, sem mais demoras, eu gostaria de combinar como que vai ser feito isso. Nós temos aqui seis apresentadores, seis apresentações a serem feitas. Eu vou chamar numa certa ordem aqui, e cada apresentador tem dez minutos para fazer a sua apresentação, ou seja, dez minutos. O pessoal que está aqui tem a vantagem de ter o relógio ali na parede, e, faltando um minuto, toca uma sirene, uma buzina... (Soa a campainha.) O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - ... mais ou menos como isto aqui. Então, faltando um minuto, vai tocar isso aí; e, 15 segundos antes do final, vai aparecer uma voz feminina muito convincente, que vai falar: "Olha, faltam 15 segundos para terminar o seu tempo". Quem está no remoto não tem a vantagem da sirene, mas o "15 segundos" vocês vão ouvir. Então, eu vou pedir para aqueles que estão fazendo a apresentação remotamente que controlem seu tempo. Lógico que isso não é escrito em pedra, termine a ideia. No final, eu posso aumentar o tempo aqui à medida do necessário, só vou pedir para que se mantenha dentro do razoável, porque são seis apresentações, dez minutos cada um, uma hora só de apresentações, e depois vamos ter um tempo para debate no final. E nós vamos ler também algumas das questões enviadas pelo pessoal que está nos assistindo pelo e-Cidadania, o que não impede de um apresentador também entrar no debate, fazer outras perguntas para os outros apresentadores, e assim a gente chega às melhores conclusões. Para, então, dar partida aqui nesse foguete, vamos começar com a Miriam. (Pausa.) Nós vamos começar com a Miriam Wimmer, que é Diretora da Autoridade Nacional de Proteção de Dados. E, antes de passar a palavra a ela, eu gostaria de convidar - já estão os nomes aqui - para compor a mesa aqui comigo o Abraão Balbino e Silva, Superintendente-Executivo da Agência Nacional de Telecomunicações, por favor; e também a Loren Spíndola, que é a Líder do Grupo de Trabalho de Inteligência Artificial da Associação Brasileira de Empresas de Software, por favor. Obrigado. Obrigado. Obrigado. Miriam, então, a palavra é sua, por dez minutos. A SRA. MIRIAM WIMMER (Para expor. Por videoconferência.) - Muito obrigada, Excelência. Gostaria de começar cumprimentando o senhor, os demais membros desta audiência pública, e dizer que realmente lamento não estar aí presencialmente para apertar a mão do senhor, Ministro - e desculpe chamá-lo de Ministro, mas é a força do hábito, tivemos a oportunidade de trabalhar juntos quando o senhor estava à frente do MCTIC; então, é uma grande satisfação mais uma vez participar de um debate sobre um tema tão importante aí ao lado do senhor. Queria comentar também a importância e a relevância de debatermos não apenas os aspectos substantivos dos diferentes projetos de lei que estão em discussão atualmente no Senado Federal, mas também, sobretudo, o arranjo institucional que é necessário para adotar essas propostas normativas de maior efetividade. E eu queria comentar aqui que eu vou, hoje, expor alguns pontos que traduzem a visão da Autoridade Nacional de Proteção de Dados Pessoais sobre o tema e que estão também consubstanciados numa nota técnica que será tornada pública hoje, a Nota Técnica 16, de 2023, elaborada pela nossa Coordenação-Geral de Tecnologia e Pesquisa, que traz uma análise preliminar sobre o Projeto de Lei 2338, com uma contribuição para esse importante que se encontra em curso perante o Congresso Nacional. |
| R | Eu queria, ainda, antes de começar, dizer que a ANPD está integralmente à disposição dos senhores e das senhoras, dos demais convidados que participam, para contribuir e colaborar com vistas ao alcance de um melhor entendimento sobre a matéria. Então, iniciando já aqui minha exposição, eu queria começar frisando que existe uma grande proximidade entre a Lei Geral de Proteção de Dados e os diferentes projetos de lei em discussão no Congresso Nacional. Eu queria comentar aqui alguns pontos que saltam aos olhos quando a gente olha para o PL 2.338, sobretudo, que foi fruto, de certo modo, do trabalho da Comissão de Juristas, criada pelo Senado Federal, e para a Lei Geral de Proteção de Dados. Um primeiro aspecto é que ambos os documentos, a lei e a proposta normativa, se preocupam profundamente com a tutela de direitos. E esse foi um ponto frisado pelo senhor, Senador Marcos Pontes, na sua fala inicial: a importância de que a gente cuide da inovação, mas também da proteção de direitos. Nesse sentido, ao analisar o capítulo específico desse tópico no projeto de lei, a gente verifica a presença de direitos que já estão, de certo modo, referenciados na Lei Geral de Proteção de Dados, como, por exemplo, a ideia de um direito à explicação, a ideia do direito à revisão de decisões automatizadas, além de fundamentos como transparência e direito de acesso, que são também pedras fundamentais da sistemática da Lei Geral de Proteção de Dados. Outro aspecto que nos chama a atenção, quanto à proximidade de abordagens, diz respeito a essa abordagem baseada em riscos. E o PL 2.338 é um PL que se propõe a categorizar os sistemas de inteligência artificial de acordo com o nível de risco que tais sistemas oferecem à sociedade, aos indivíduos. Essa é uma abordagem muito semelhante à da LGPD, que foi uma norma que introduziu a necessidade de que as organizações públicas e privadas estabeleçam sistemas de governança de dados baseados justamente na avaliação de riscos, na avaliação de impactos e na adoção das salvaguardas necessárias para minimizar tais riscos. Eu comento, por exemplo, que a LGPD introduz a figura do relatório de impacto à proteção de dados pessoais, que tem uma abordagem, uma sistemática que guarda grande proximidade à ideia de avaliação de impacto algorítmico, por exemplo, que é um elemento que consta da proposta de lei ora sob análise. Um elemento adicional a ser comentado é que ambos os documentos falam, por exemplo, da necessidade de comunicação de incidentes de segurança que possam afetar indivíduos, organizações. É verdade que, no âmbito da LGPD, estamos falando de incidentes de segurança relacionados a dados pessoais, ao passo que a inteligência artificial certamente abrange outros tipos de incidentes de segurança não relacionados necessariamente a indivíduos, mas é uma sistemática semelhante. Ambos os documentos falam também da importância, da coordenação entre diferentes órgãos e entidades, ponto frisado por V. Exa. na sua fala de abertura, Senador Marcos Pontes, ao salientar as diferentes expertises e especialidades setoriais que devem conviver e coexistir com uma abordagem harmonizada à luz de uma lei geral. E o último ponto que eu comentaria é que também ambos os documentos estabelecem uma sistemática de elaboração normativa que é muito semelhante na exigência de consultas públicas, de audiências públicas, de debates amplos com a sociedade, com os diferentes setores afetados, e essa é uma sistemática também estabelecida pela LGPD e já desenvolvida pela ANPD. E eu comento aqui com satisfação que a ANPD já foi, pelo segundo ano consecutivo, premiada com o Selo Ouro de Boas Práticas Regulatórias, concedido pelo Ministério de Desenvolvimento, Indústria e Comércio, em função da sua atuação nessa lógica, nessa abordagem sempre muito participativa e muito responsiva. |
| R | Então, como primeiro ponto de destaque eu salientaria que existe uma grande compatibilidade, uma grande convergência funcional entre o que já está previsto hoje na LGPD e entre as propostas que se encontram hoje sobre a mesa com vistas à regulação da inteligência artificial. O segundo ponto que eu queria debater um pouquinho, Exa., diz respeito à discussão sobre o arranjo institucional e a figura da autoridade competente. E esse é talvez um dos temas mais polêmicos que nós temos ora sob debate. É um ponto também comentado por V. Exa. no início porque de fato nós temos um arranjo constitucional bastante complexo na administração pública brasileira. O senhor, que foi ministro de Estado, sabe melhor do que eu a grande fragmentação que existe entre pastas ministeriais, agências reguladoras, órgãos na esfera federal, estadual, municipal. E a verdade é que tanto a LGPD quanto o projeto de lei que trata de IA buscam estabelecer uma abordagem horizontal para o tema e falam na existência de uma autoridade competente. Uma autoridade central dotada de competências, eu diria assim, agregadoras, competências de tratar com sistematicidade e coerência uma proposta normativa que tem uma transversalidade muito profunda. E eu diria que nós temos, então, já há dois anos, quase três anos, experiência a partir da criação da ANPD. E nós temos aqui diuturnamente enfrentado esse desafio de tentar imprimir coerência e consistência a uma legislação que incide sobre setores muito diferentes. A LGPD se aplica a todos os setores econômicos, se aplica a quase todos os campos do poder público. E nós temos no nosso dia a dia o desafio de nos relacionar com múltiplos órgãos reguladores. Como é o caso da Anatel, eu vejo na mesa o meu colega Abraão Balbino. É o caso do Banco Central, da CVM, do setor de saúde, do setor de educação. E me parece que esse arranjo instituído pela LGPD é um arranjo muito semelhante ao que poderia funcionar no caso da inteligência artificial. De certo modo, parece-me que é até um equívoco a gente falar na diferença entre abordagens centralizadas ou descentralizadas porque efetivamente a criação de um novo órgão regulador não pode afastar a expertise e a competência dos órgãos setoriais, que conhecem seus setores melhor do que ninguém. E essa foi também a lógica introduzida na Lei Geral de Proteção de Dados, que não afasta a competência de nenhum órgão, mas diz: olha, nós temos aqui uma autoridade central, uma autoridade responsável por interpretar de maneira final na administração pública a LGPD, por aplicar essas sanções administrativas. E com isso, ao mesmo tempo em que se conhece a pluralidade de órgãos públicos que porventura possam ter competências relacionadas ao tema, a gente busca também organizar um ecossistema em torno de um eixo central, de uma autoridade, que é capaz de conferir sistematicidade a uma legislação que é extremamente abrangente. E aqui eu diria que a existência de um órgão com essa característica traz uma série de vantagens. Em primeiro lugar, a possibilidade de responder de maneira mais ágil e mais coordenada a desafios emergentes, mas também, sobretudo, funcionar como uma fonte clara e consistente de orientação para todos os setores e agentes envolvidos, incluindo desenvolvedores, empresas, poder público, a sociedade em geral, e, assim, eliminando ou minimizando risco de ambiguidades, de sobreposições, de divergências interpretativas, que geram uma grande insegurança jurídica, tanto para o setor privado como também para os indivíduos, para os titulares de dados, para os cidadãos. Então, eu diria que essa ideia de uma autoridade central de forma alguma impede que reguladores que fiscalizam setores econômicos específicos possam também desenvolver as suas próprias regras de uso sobre a inteligência artificial dentro dos seus contextos, observar as suas realidades específicas, desde que alinhadas às diretrizes gerais estabelecidas pela legislação e interpretadas por um órgão dotado dessa responsabilidade de ter um olhar transversal, um olhar geral. |
| R | E assim, Exa., nessa nota técnica que eu mencionei e que será encaminhada a todos os gabinetes, aos membros da Comissão e também tornada pública no nosso site, a sugestão que a ANPD vem trazer a público é de um arranjo institucional que de fato preveja uma autoridade central, um órgão regulador central, que vai trabalhar em estreita cooperação, de um lado, com o Poder Executivo. E, quando a gente fala em Poder Executivo, a gente fala também de uma multiplicidade de olhares. Afinal de contas, existem políticas públicas que se relacionam à IA no campo da educação, no campo da ciência e tecnologia, no campo da modernização do Estado, por exemplo, no campo das comunicações. Então, é a ideia do Poder Executivo como um orquestrador das políticas públicas setoriais e uma agência, uma autoridade competente, responsável por executá-las, por dar concretude, por interpretar a norma. Da mesma forma como nós conhecemos a relação, por exemplo, entre o Ministério Supervisor e as agências reguladoras, uma experiência que nós temos como o caso da Anatel, por exemplo, que se encontra aqui à mesa. Nesse sentido, inclusive, uma sugestão que nós trazemos é que a responsabilidade por atualizar, cuidar e priorizar os temas no âmbito da Estratégia Brasileira de Inteligência Artificial (Ebia), que foi concebida sob sua sugestão, Ministro, fique com o Poder Executivo efetivamente, o Poder Executivo como um formulador de políticas públicas e uma autoridade competente, responsável por zelar pela sua implementação, por interpretar a legislação a partir de um olhar mais técnico. Nós entendemos também que esse arranjo institucional deve necessariamente contar com a presença e a expertise dos órgãos reguladores setoriais que vão atuar de forma coordenada com o órgão regulador central, respeitadas as especificidades setoriais. E, aqui, uma figura que nos parece interessante, é uma figura também trazida pela LGPD, é a ideia de um fórum permanente de comunicação, ou um fórum de órgãos reguladores setoriais justamente para permitir que as diferentes visões se encontrem e busquem consenso, busquem visões compartilhadas que tragam segurança jurídica. Por último, o último elemento que me parece essencial nesse arranjo institucional que estamos aqui, humildemente, sugerindo à Comissão é a ideia de participação institucionalizada da sociedade por meio de um conselho consultivo ou outro arranjo semelhante. E isso nos parece absolutamente vital, considerando a transversalidade da pauta, o seu impacto sobre os diferentes segmentos sociais, sobre os diferentes setores econômicos. E aqui nós não nos propomos, obviamente, a dizer quem vai se sentar nesse conselho consultivo, mas, sim, propomos essa ideia como parte intrínseca do modelo, de modo que os diferentes segmentos sociais possam participar, possam opinar, possam ser ouvidos nos processos decisórios relativos ao tema da inteligência artificial. Então, esse é um arranjo inicial que nós propomos como uma sugestão, como um ponto de partida, como uma reflexão mais aprofundada. Eu diria que, como uma mensagem derradeira, a ANPD se enxerga como um órgão capaz de ter esse olhar transversal. E é claro que qualquer discussão sobre ampliação de competências depende também, fundamentalmente, do fortalecimento institucional da ANPD, que precisa realmente contar com as garantias institucionais de independência técnica, autonomia administrativa e decisória nos moldes que as agências reguladoras têm, que também o Cade tem, conforme previsto na lei das agências. Com isso, Excelência, acho que ainda dentro do tempo que me foi concedido, eu queria concluir esta fala inicial me colocando mais uma vez integralmente à disposição da Comissão. Tem colegas nossos que estão presentes aí no Plenário, e teremos muita satisfação em continuar desdobrando e debatendo essas sugestões iniciais que trazemos aqui para debate. Muito obrigada, Excelência. O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Obrigado, Miriam. É um prazer ouvi-la e vê-la novamente. Parabéns pela apresentação. Eu gostaria, neste momento, antes de passar a palavra ao Rodrigo da Silva Ferreira, de também apresentá-lo aqui. O Rodrigo está presente aqui conosco, compõe a mesa também, e é encarregado da proteção de dados da Casa da Moeda do Brasil. Ele vai ter a palavra por dez minutos. |
| R | Mas também gostaria de aproveitar este momento para registrar a presença do Sr. Pedro Arthur Villela Pedras aqui conosco e do Sr. Luiz Eugênio Salomão, ambos da Blincast Tecnologia. Obrigado, sejam bem-vindos. E sem dúvida nenhuma, toda participação aqui é muito importante, não é? Não deixe de comentar também. Ainda antes da apresentação, para incentivar que nós tenhamos mais perguntas e participações do público, eu vou ler algumas das participações que já chegaram aqui pelo e-Cidadania. Inicialmente a Maria Clara, de Minas Gerais. E aliás, eu aproveito para que os nossos debatedores registrem essas ideias, anotem aí os nomes também, porque de repente, algumas dessas questões, depois, no final, vocês podem responder. Então já vão pensando nas respostas. Maria Clara, de Minas Gerais: "Quais são os desafios-chave na regulação da [...] [inteligência artificial] para garantir a proteção de dados pessoais?" A Giseli Borges, do Rio Grande do Sul: "Até que ponto o Governo pode intervir ou regular o desenvolvimento de tecnologias que tenham [...] [inteligência artificial] embutida sem frear a evolução tecnológica?" A Melissa Westphal, desculpe se eu errei o sobrenome aqui, de Santa Catarina: "A inteligência artificial já está integrada nos dias atuais [...] ela pode desempenhar um papel significativo [na área de educação]?" A Carla Alessandra, de São Paulo: "Quais os mecanismos [...] de controle elaborados para [fiscalizar e punir eventuais desvios do uso de inteligência artificial]?" O Oziel Ribeiro, de Goiás: "Como a [...] [regulamentação de inteligência artificial] pode equilibrar a inovação tecnológica com preocupações éticas e de segurança?" Marcus Lopes, do Rio de Janeiro: "Até o momento, todos os modelos de [...] [inteligência artificial apresentam] desvios de comportamento. É necessária a supervisão/revisão do trabalho por humanos [...]." Não é uma pergunta, é um comentário. Também um comentário do Jeremias Brandão, da Bahia: "[...] além de criar mecanismos para regulamentar [seu uso, é importante criar meios para] identificar quando algo foi manipulado [pela inteligência artificial]" Quero, já de início, agradecer a participação de todas as pessoas através do e-Cidadania, lembrando que continua aberta a participação de todos que nos assistem, através do Portal do Senado. Então é www.senado.leg.br/e cidadania ou pelo telefone 0800-61-2211. E agora, sim, eu passo a palavra ao Rodrigo da Silva Ferreira, Encarregado de Proteção de Dados da Casa da Moeda do Brasil. Rodrigo, dez minutos. Obrigado. O SR. RODRIGO DA SILVA FERREIRA (Para expor.) - Boa tarde a todos. É um prazer estar aqui, falando sobre um tema que é tão importante para o país. Eu queria, neste breve tempo, trazer cinco pontos que me parecem fundamentais nesse debate de regulação de inteligência artificial. O primeiro é que justamente pela relevância do tema, a estratégia deve anteceder a regulação. Eu sempre ouço que o Brasil não pode perder a corrida da regulação. Eu diria que o Brasil não pode perder a corrida é da inovação. E nesse sentido, o Brasil, o país precisa de uma estratégia para lidar com inteligência artificial. E, naturalmente, a regulação vai ser parte dessa estratégia, mas a estratégia deve ser debatida primeiro, até para que a regulação eventualmente não venha a conflitar com aquilo que se pretende para o desenvolvimento do país. Então estratégia deve vir primeiro, e a regulação, depois, na linha de ser parte, de ser uma peça dessa estratégia. |
| R | O segundo ponto importante é que é evidente que cada nova tecnologia traz riscos e, se uma tecnologia nova traz riscos, a regulação tem um papel importante para mitigar esses riscos. Nisso o PL 2.338 é muito interessante, porque, complementado pela sempre brilhante Miriam, ele teve um foco especial em riscos. Mas me preocupa muito um aspecto, porque, embora o projeto tenha um foco em riscos e direitos, a delimitação da incidência desse projeto de lei e, portanto, da lei que dele adviria, é focada em tecnologia. Vejam que o conceito da lei diz que o sistema de inteligência artificial requer duas coisas: aprendizado de máquina ou lógica e representação de conhecimento. Eu deixei ali, no centro do gráfico, as siglas em inglês, só por uma questão de tamanho, mas aquele círculo roxo ali é a área de incidência da lei. Mas a gente falou de regulação de riscos - não é? Então, que riscos são esses? E eu trouxe aqui três exemplos de riscos do próprio PL 2.338, que seriam os riscos de veículos autônomos, de equipamentos médicos e de score de crédito. Bom, por que a gente quer regular o veículo autônomo? Não é pelo risco de ele utilizar a inteligência artificial. É pelo risco de acidente de trânsito - não é verdade? Só que, para além daquilo que está no núcleo ali abrangido pela regulação, a gente tem uma série de elementos que provocam risco. Por exemplo, a parte de automação, de robótica. Está aqui o Senador Marcos Pontes, que é especialista nisso - não é? A gente tem ali sensores, atuadores. A gente tem controladores determinísticos que podem produzir um acidente sem que tenha qualquer relação, sem que haja qualquer relação com aquele núcleo de inteligência artificial. Então, se eu vou regular veículo autônomo pelo risco da automação, eu tenho que pensar no risco completo e não só nesse núcleo que foi abrangido. E vejam que... Um outro risco aqui é o score de crédito. Por que eu estou aqui regulando o score de crédito? É porque nas decisões automatizadas existe o risco de discriminação. E aí isso vale para vários sistemas que são automatizados. Eu trouxe aqui o exemplo do score de crédito, mas eu poderia falar das decisões automatizadas em relações de emprego, das decisões automatizadas para acesso a ensino. A gente quer evitar a discriminação. Esse é o risco. Mas qual é o maior perigo de discriminação? É justamente aquele que decorre de sistemas determinísticos. É quando eu digo que eu não quero contratar o negro, é quando eu digo que eu não quero contratar, por exemplo, a mulher em idade reprodutiva. E, por ser determinístico, esse tipo de sistema, esse tipo de configuração foge do alcance da lei, porque a lei foca em aprendizado de máquina e lógica e representação de conhecimento. Então, vejam que os riscos têm uma abrangência maior que o próprio conceito da lei e a gente precisa enfrentar o risco, não a tecnologia. E, por fim, e esse aqui é um tema que me parece muito importante, que por si só já mereceria esse debate, a lei também traz como risco os equipamentos médicos. E, veja, aqui há dois problemas. Primeiro, porque você pode ter danos causados justamente pela parte robótica desses sistemas, por exemplo, de cirurgia automatizada, e, segundo, porque no núcleo mesmo dos sistemas preditivos nem sempre vai se acertar 100%. E aí, como é que esses sistemas funcionam via de regra? Por uma análise de risco-benefício, porque eles podem acertar mais que o médico inclusive. Eu vou privar a população disso? Não faz sentido. Só que a lei diz que, se uma predição falha, essa é uma falha do serviço, e isso atrai responsabilidade objetiva. Vejam que hoje, para um medicamento, não existe responsabilidade sobre o risco inerente divulgado. Se a bula prevê aquele efeito colateral e há uma análise de risco-benefício, o medicamento está aprovado. A lei hoje, pelo PL 2.338, subverte essa lógica para sistemas médicos e a gente precisa refletir nisso. Então, me parece que o risco deve determinar o contorno da regulação, não o conceito tecnológico; a heterogeneidade dos riscos inviabiliza um conceito uniforme que limite a incidência da lei - veja que cada área dessas tem uma abrangência diferente, não coincidem entre si -; e os contornos dos riscos são complexos e impõem regulação setorial. |
| R | Um terceiro ponto importante é que cada etapa é complexa e é heterogênea. Isso dentro de um sistema de IA, isso falando só do núcleo. Eu obtenho dados, e esses dados podem ser próprios ou podem ser públicos; eu tenho algoritmos que podem ser desenvolvidos por mim ou eu posso apelar para, por exemplo, soluções de código aberto, que é outra coisa de que o projeto não trata e que os europeus já estão enxergando, outros projetos regulatórios já estão enxergando, porque precisam, de fato, tratar disso. Então, eu tenho o PyTorch, o TensorFlow. Praticamente, toda solução, hoje, de mercado está por cima desses algoritmos; são algoritmos criados pelo próprio desenvolvedor. A partir disso, eu gero modelos que também podem ser open source. A Meta está divulgando aí, por exemplo, grandes modelos de linguagem que são abertos. Esses modelos geram previsões que, se esse é um sistema de IA, eu não tenho controle sobre essa previsão. Essa capacidade de gerar previsões me autoriza a lançar produtos. Então, o ChatGPT, por exemplo, não é um modelo; ele tem um componente que é o modelo. O ChatGPT é um produto que tem outros elementos ali associados, e, a partir disso, eu tenho produtos derivados. Eu posso contratar a OpenAI, usar uma API da OpenAI para usar o modelo deles e, a partir disso, criar, por exemplo, outros produtos. Vejam que só de inteligência artificial mesmo, só no núcleo, já é um ecossistema complexo, com diferentes reguladores, diferentes etapas, com diferentes agentes em diferentes etapas. De maneira que a restrição a dois agentes do PL 2.338 (fornecedor e operador), que é como está no PL, não me parece fazer sentido. E diferentes etapas de um mesmo produto podem ter agentes distintos e submeter a reguladores distintos. Eu tenho dificuldade de ver como uma entidade central, ainda com esse efeito de coordenação, não vá gerar algum tipo de sobreposição regulatória. Isso, particularmente, me preocupa bastante. Quarto ponto é que direitos impõem escolhas. Existem trade-offs que não estão claros. A gente, na regulação, por exemplo, quer combater a discriminação algorítmica, mas a gente também levanta a bandeira de que a gente tem que conter o uso de dados sensíveis. Ora, uma das coisas que gera discriminação algorítmica é a falta de precisão de modelos por sub-representação de determinadas categorias nos datasets. Como é que eu resolvo isso? Aumentando a possibilidade de que os agentes tenham esses dados sensíveis nos datasets. Então, é preciso flexibilizar a LGPD para ter menor discriminação algorítmica. Eu não consigo, por razões matemáticas, não por razões ideológicas, levantar as duas bandeirinhas ao mesmo tempo. Não faz sentido matemático! Por mais que seja politicamente correto, não dá. A mesma coisa: explicabilidade e efetividade. Eu tenho modelos hoje supersofisticados, com bilhões de parâmetros, com várias camadas que eles chamam de hidden layers (camadas ocultas), que a arquitetura traz melhor resultado, mas o efeito colateral é menor explicabilidade. Quando eu, pela regulação, imponho um grau maior de explicabilidade, eu sou forçado a usar algoritmos que vão ser piores na eficácia deles. Não faz sentido. Eu não consigo levantar as duas bandeiras ao mesmo tempo. Esses trade-offs precisam ser compreendidos pela regulação, de maneira que a restrição a dados sensíveis agrava a discriminação algorítmica em diversas aplicações. Acho até que a regulação deveria prever uma hipótese de tratamento adicional na LGPD para facilitar o tratamento de dados sensíveis para essa finalidade, porque, hoje, para dados comuns, os reguladores têm ido pela via do legítimo interesse, mas não cabe legítimo interesse para dados sensíveis. Isso precisa ser corrigido ou a gente vai ter distorções. E algoritmos com maior explicabilidade podem possuir menor precisão e efetividade, e isso precisa ser considerado por aquele que defende explicabilidade para tudo. Existem efeitos colaterais por razões matemáticas, de novo. O estado da arte acaba impondo isso. E, por fim - e aí eu concluo -, regras prescritivas devem ser setoriais e devem ser dinâmicas. Isso está correndo muito rápido; isso oscila muito rápido. Se eu congelo regras prescritivas numa lei, Senador - isso é fundamental -, se eu congelo regras prescritivas numa lei, daqui a um ano, antes da vacatio legis, elas, de repente, não fazem mais sentido. E, de repente, o que faz sentido para a saúde não faz sentido para score de crédito ou vice-versa. O que faz sentido para os dois pode não fazer nenhum sentido para veículo autônomo. E eu estou colocando tudo isso, só citando três de vários do projeto de lei, a gente está colocando tudo isso no mesmo balaio. Será que faz sentido? Parece-me que não. Então, a regulação tem que ser setorial, porque as complexidades são setoriais. |
| R | Então me parece contraproducente a criação de uma autoridade centralizada para IA mesmo para a coordenação. Vejam que coordenação não é papel de regulador. (Soa a campainha.) O SR. RODRIGO DA SILVA FERREIRA - Esse nível de coordenação é papel de governo. Não cabe à tecnocracia de um regulador esse tipo de articulação mais geral, para isso existe a legitimidade democrática: o palco está aqui no Congresso, o palco está no Executivo. A gente deixa a tecnocracia focar as questões técnicas, e falo isso com a tranquilidade de quem é um tecnocrata, sendo tecnocrata eu mesmo. A gente tem que compreender um pouco os nossos limites. Acho que esse papel de coordenação de governo não cabe a autoridade nenhuma. Os riscos são heterogêneos. Existe sobreposição regulatória inevitável, ainda que haja antes uma narrativa em sentido diverso. O bloco de governança do PL 2.338 me parece excessivamente prescritivo. Acho que há várias iniciativas boas no projeto, principalmente ao tratar de riscos e direitos, mas a parte de governança prescritiva me parece excessiva para um projeto dessa natureza. Melhor preservar princípios, mas deixar as regras prescritivas para os reguladores setoriais, até para que elas sejam atualizáveis. Para evitar justamente isto: uma regra ótima, ótima hoje; daqui a um ano pode não ser. E aí, vai ter que ter um projeto de lei para alterar? Não faz sentido, a meu ver também. (Soa a campainha.) O SR. RODRIGO DA SILVA FERREIRA - E por fim, o regime de responsabilidade civil é regressivo. E aí eu fecho isso nesse último minutinho que eu tenho. Vejam, por que a gente regula responsabilidade civil no PL? Porque tem preocupação, por exemplo, com o reconhecimento facial pelo Estado em ações de segurança pública. Mas a responsabilidade do Estado, Senador, já é objetiva, pela Constituição, não é por essa lei. "Ah, porque nós temos consumidores hipossuficientes". A responsabilidade civil na ação de consumo já é objetiva, pelo Código Civil do Consumidor, não é por esse projeto de lei. Só que esse projeto de lei, ao tratar da saúde, por exemplo, subverte o modelo. E hoje, o que não gera responsabilidade, porque não é considerado vício de produto, passa a ser considerado vício de produto com a responsabilidade objetiva de quem atua com aquele sistema. Não faz sentido. Eu vou privar a população, e o SUS depende disso, por conta de uma escolha equivocada de regime de responsabilidade. Outra, uma empresa, uma microempresa hoje que cria um sistema de biometria - e biometria pela lei é de alto risco, então atrai responsabilidade objetiva -, vendendo o serviço dela para uma grande empresa, tem responsabilidade subjetiva. (Soa a campainha.) O SR. RODRIGO DA SILVA FERREIRA - Mas com essa lei, eu subverto o modelo e o microempresário passa a ter responsabilidade objetiva só porque ele usou o IA. Não faz sentido. Então, a meu ver, isso também merece uma maior atenção. Com isso, eu concluo. Muito obrigado por essa oportunidade. O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Obrigado. Obrigado, Rodrigo. Parabéns pela apresentação. Muitos dados interessantes e importantes aqui na montagem de todo esse sistema. Por isso que essas discussões são importantes. Parabéns. Eu passo a palavra agora para o Abraão Balbino e Silva, que é Superintendente-Executivo da Agência Nacional de Telecomunicações. Por dez minutos, com a palavra, por favor, Abraão. O SR. ABRAÃO BALBINO E SILVA (Para expor.) - Obrigado, Senador. Muito boa tarde. Boa tarde a todos. Para nós da Anatel, é um prazer muito grande estarmos aqui presentes nesta Comissão. É sempre um prazer estarmos aqui no Congresso. A Anatel é um órgão regulador com 25 anos de existência e atuação, aprendendo muito, errando muito, crescendo muito e se transformando ao longo desse tempo, especialmente porque ela é o órgão regulador que foi criado nos anos 90 para lidar com o telefone fixo, com o orelhão. Nesse período, o Brasil se digitalizou, temos o celular, temos a banda larga, temos os serviços via satélite, e tudo que surgiu nesse período foi objeto, inclusive, do nosso aprendizado de como regular, de como tratar. É interessante que esse é um assunto que, quando a gente fala de inteligência artificial, trata de uma tecnologia que emerge a partir da evolução das tecnologias da informação e da comunicação, em convergência com outras ciências, como estatística e a própria evolução da ciência da computação. |
| R | Então, nós estamos falando de algo que está intrinsecamente ligado ao ecossistema digital e que cada vez mais faz parte do nosso dia a dia. Até por conta disso, nós sempre lá na agência estivemos muito próximos da compreensão de como isso acontece. Por exemplo, a Anatel tem a responsabilidade de representar o Brasil nos organismos da ONU relacionados à parte de tecnologia. Recentemente, por exemplo, eu tive o privilégio de presidir a comissão que criou a resolução das Nações Unidas que trata de como fomentar e, ao mesmo tempo, estimular parcerias e desenvolvimento da inteligência artificial dentro do organismo das Nações Unidas. Foi uma resolução com uma grande participação brasileira, e, inclusive, um dos principais eventos internacionais sobre inteligência artificial, o AI for Good, que é um evento das Nações Unidas que acontece anualmente, é criado a partir dessa resolução. E é importante a gente ter em mente que muitas vezes a gente olha para a inteligência artificial com medo. A gente olha para esse assunto e já pensa no risco, a gente já pensa no problema, a gente já pensa na inteligência artificial para o mal. A gente não pensa em como fazer inteligência artificial para o bem. A gente já pensa necessariamente nos riscos, nos problemas e a gente não percebe uma coisa muito importante: em relação à inteligência artificial, se nós não desenvolvermos a nossa, nós vamos sofrer com os vieses da inteligência artificial dos outros. E isso é algo que não é uma questão - desculpe o termo - jurídica, a questão jurídica é consequência de um conjunto de coisas que o ambiente social traz com que nós precisamos aprender a lidar. Numa perspectiva bastante objetiva, eu acho que o que a gente gostaria, acho que, se a lei pudesse traduzir em algumas palavras o que a gente quer, é: que a inteligência artificial seja centrada no homem, para os propósitos da humanidade; que ela esteja dentro de limites éticos razoáveis; que ela seja sustentável e eficiente para os propósitos para os quais ela procura ser; e que, acima de tudo, ela respeite os valores das culturas dos locais onde é aplicada. E para que isso aconteça, a gente não vai conseguir - eu quero ser bastante sincero e direto aqui - fazer tudo isso numa lei diretamente e que essa lei garanta que tudo isso aconteça, porque um diploma legal, para algo dessa completude, precisa ser muito mais principiológico e habilitador do que prescritivo e restritivo. Infelizmente, quando a gente entra nesses debates, a gente vê muito mais gente pensando nos riscos e na prescritividade das coisas... Eu vi uma conversa recentemente de uma pessoa que é uma autoridade - não vou citar o nome - e que falou: "Não, mas ano que vem nós vamos ter as eleições, e a gente não pode correr o risco do deep fake, de todas as coisas...". Eu posso dizer o seguinte: o tratamento dessas questões, que são complexas e que são arriscadas, depende de uma ação institucional do Estado cujos organismos, existentes no Estado, já estão devidamente empoderados para tratar. Até porque você não vai criar um organismo em um ano que seja capaz de fazer tudo isso, fiscalizar e acompanhar. |
| R | Eu posso dizer a você o seguinte: a Anatel tem 25 anos de existência - eu acho que o Banco Central tem muito mais do que isso -, e com certeza, nesse período todo que a gente viveu, a evolução de uma instituição, o amadurecimento institucional e a criação de uma cultura organizacional é algo que demora muito, muito tempo, até porque cultura organizacional, de acordo com o que aprendi nos cursos de gestão que eu fiz, é aquilo que a gente faz, que dá certo e que a gente quer que fique. Então, para que haja uma cultura regulatória de inteligência artificial, você primeiro tem que ter um conjunto de práticas que aos poucos vão dando certo. E esse conjunto de práticas você não vai conseguir... Desculpe, e não é uma presunção, mas você não vai conseguir estabelecer numa lei algo que garanta essa existência, que despreze a cultura regulatória setorial de cada área, de cada ecossistema e que seja feito de forma produtiva. E por isso eu diria o seguinte: um organismo regulador que tem essa cultura - que seja capaz de fiscalizar, acompanhar, estabelecer uma regulamentação, um debate público equilibrado e que seja indutor do desenvolvimento - precisa essencialmente de: autonomia, tempo, fortalecimento institucional, capacidade técnica dos funcionários, do corpo técnico, para as funções objetivas com que eles estão lidando. Senador, e eu gostei muito do seu exemplo, quando você falou da energia nuclear: há quantos anos nós estamos falando deste assunto no mundo, quão complexo é isso e quanto essa tecnologia amadureceu, a despeito dos riscos que se colocavam e que sempre existiram? Agora, nós não podemos querer ter a presunção de limitar esse desenvolvimento aqui, até porque é como eu falei: se nós limitarmos o desenvolvimento nacional disso, nós vamos consumir produtos com muito mais viés e com muito mais problema. O que nós temos que pensar é como habilitar o desenvolvimento de soluções de inteligência artificial, como eu falei no início, com foco na nossa cultura e com os nossos valores locais. E aí todo mundo diz "ah, mas os sistemas de inteligência artificial atuais contêm viés", mas é porque a sociedade contém viés, porque os dados contêm viés. A inteligência artificial simplesmente reproduz o que nós, como sociedade, reproduzimos. Então, não adianta a gente querer limitar os sistemas per si sem uma discussão a respeito daquilo que a gente quer de útil para o nosso uso, para o nosso desenvolvimento. E é importante observar que as iniciativas... Como eu falei no início, aquela Plataforma AI for Good, que a União Internacional de Telecomunicações desenvolve, tem um repositório global de iniciativas que serve para uma reflexão em que é muito melhor, antes de você criar uma regra prescritiva, você criar regras de transparência que permitam principalmente entender como os algoritmos são construídos, como os dados são utilizados. Antes de você proibir a utilização de dados, você precisa entender muito bem como a tecnologia está evoluindo. Então, se a gente está discutindo uma lei, acima de tudo essa lei tem que buscar gerar regras de transparência. Então, antes de você querer, de uma maneira top-down, estabelecer quem faz e o que faz, é muito mais fácil criar algo botton up, que estabelece princípios e um quadro geral que permita que seja fiscalizável, auditável, acompanhado e, ao mesmo tempo, que empodere os agentes da existência a trabalhar. (Soa a campainha.) O SR. ABRAÃO BALBINO E SILVA - A Anatel está trabalhando muito forte nisso, porque a gente entende que, como o mundo digital está evoluindo, a Anatel tem que evoluir. E nós temos buscado isso já desde a edição do último planejamento estratégico, que já tem um tempo. Nós estamos evoluindo, cada vez mais, as nossas capacidades para poder responder aos desafios que o mundo digital traz. |
| R | Mas uma coisa eu posso dizer: a nossa mentalidade para inteligência artificial não pode ser focada em evitar a inteligência artificial para o mal. Ela tem que ser focada em desenvolver a inteligência artificial para o bem. É por isso que a minha mensagem final, aqui, para todos nós é termos em mente que a discussão regulatória aqui tem que ser focada nesses pilares que eu mencionei: como fazer a inteligência artificial do Brasil ser centrada no brasileiro, focada em princípios éticos existentes na sociedade brasileira... (Soa a campainha.) O SR. ABRAÃO BALBINO E SILVA - ... e que seja essencialmente sustentável para nossa economia, trazendo mais competitividade e produtividade? Muito obrigado. O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Obrigado, Abraão, Superintendente da nossa Agência Nacional de Telecomunicações, que eu tive a honra de ter junto no ministério. Parabéns pelo trabalho que vocês fazem e continuam fazendo; e, aqui, pela colaboração, para que nós tenhamos o melhor nessa legislação. Passamos, então, ao próximo debatedor, ao próximo apresentador, Hélio Ferreira Moraes, Coordenador da Comissão de Tecnologia da Câmara de Comércio Brasil-Canadá. Hélio, por favor, você tem dez minutos. Peço para controlar o tempo por aí. Obrigado. O SR. HÉLIO FERREIRA MORAES (Para expor. Por videoconferência.) - Agradeço a V. Exa., Senador Marcos Pontes, e aos demais componentes da mesa.Boa tarde a todos. Eu tenho a honra de representar aqui a Câmara de Comércio Brasil-Canadá (CCBC), que é uma instituição criada em 1973 - fez 50 anos este ano -, sem fins lucrativos, mantida pelo setor privado e cuja missão é reunir as empresas brasileiras e canadenses para promover comércio, investimentos, intercâmbio cultural e tecnológico entre os dois países. Além disso, ela possui o Centro de Arbitragem e Mediação da entidade, que é o CAM-CCBC, que foi fundado em 1979, que oferece serviços de resolução de conflitos e reconhecimento internacional. Eu gostaria de ressaltar que eu não falo em nome Governo do Canadá. A CCBC visa fomentar os negócios entre os dois países em um ambiente mais favorável e inovador. Assim, vou trazer alguns elementos comparativos da abordagem canadense sobre a questão de regulamentação em IA. Neste breve histórico em inovação no Canadá, o Canadá enxerga a inteligência artificial, como alguns membros aqui falaram, como uma oportunidade para transformar a economia e ser utilizada para enfrentar desafios diversos - luta contra o câncer, melhoria de produção alimentar, redução de consumo de energia, automação de tarefas complexas, tomada de decisões de previsão pelas pessoas, inclusive em benefício de comunidades marginalizadas. Ele se tornou um player importante, o Canadá, em inteligência artificial, especialmente em Toronto, que é repleto de universidades, centros de pesquisa e inovação e incubadoras, o que ajudou o Canadá a tornar-se referência no assunto. Ele vem investindo muito nessas questões de inteligência artificial, desde 2018. A Primeira Ministra lançou investimentos na ordem de US$230 milhões para criar um supercluster de IA em Quebec, para colocar o país como um líder exportador no assunto; também criou uma estratégia pan-canadense de IA com ações da comunidade científica para pesquisa e inovação e para atrair e reter os principais talentos de IA no mundo. Fomentou, ainda, as empresas, instituiu centros de pesquisas, aceleradoras e incubadoras, em várias províncias, sendo um dos mais destacados o Montreal's Institute for Learning Algorithms (MILA), em Montreal, Quebec - que é bastante conhecido; foi ampliado em 2017; e é resultado de uma parceria da Universidade de Montreal com diversas outras universidades -, que interage com a indústria e estimula o surgimento de startups para causar impacto social e tecnologia nos seus projetos. Ele foi fundado pelo destacado Prof. Yoshua Bengio, em 1993, e reúne milhares de pesquisadores em deep learning, modelos de linguagem, tradução automática, reconhecimento de objetos, modelos generativos, e também está envolvido em diversas discussões éticas relacionadas à inteligência artificial, inclusive em parceria com projetos europeus como o Confiance.ai. |
| R | No Brasil, a gente também precisa ter essa mentalidade, como alguns aqui destacaram, fomentando a instalação de empresas inovadoras e a criação dos centros de pesquisa e inovação em IA. O Brasil é um polo de desenvolvimento de tecnologia da informação, como: no setor financeiro - o Pix é um exemplo mundial -; no eleitoral; no fiscal - Imposto de Renda online é um exemplo mundial. E a gente também precisa ter esses centros na questão da inteligência artificial. Em termos regulatórios, atualmente, no Canadá, existem apenas alguns regulamentos em áreas específicas, como saúde e finanças, mas existe uma proposta de lei de inteligência artificial de dados, a chamada AIDA, que introduziu uma parte da Lei de Implementação da Carta Digital de 2022, como parte do Projeto de Lei C-27. Ele estabelece as bases para o design, desenvolvimento e implantação responsáveis dos sistemas de IA que impactam a vida dos canadenses. O objetivo dessa lei foi a concepção, o desenvolvimento e a implantação responsável dos sistemas de IA. As empresas serão responsabilizadas pela atividade de IA sob seu controle, devendo implementar mecanismos e políticas de governança que considerem e abordem os riscos dos seus sistemas de IA e forneçam aos usuários informações suficientes para tomarem as decisões informadas; ou seja, partem de conceitos de transparência e autodeterminação informativa dos usuários dos sistemas de IA que também estão presentes aqui no nosso PL 2.338. A concepção da AIDA é ter uma política flexível, em que as obrigações de segurança sejam adaptadas aos tipos dos sistemas de IA. Quanto mais riscos estiverem associados ao sistema, mais obrigações haverá. Embora ela seja baseada em riscos, o que é conceitualmente similar ao que a gente tem aqui no 2.338, a gente tem que ficar atento para calibrar adequadamente a nossa regulação, pois, como mencionado aqui por alguns dos outros membros, esse controle excessivo de riscos pode dificultar, ou atrasar a inovação e o desenvolvimento tecnológico. Outro ponto que eu gostaria de chamar a atenção é que a AIDA foi criada como um quadro geral de regulamentação e, depois, terá regulamentos detalhados que vão especificar determinados segmentos, alinhados inclusive com o que a gente tem aqui, também, no 2.338, mas, mais uma vez, aqui a gente tem que tomar cuidado com a dose do remédio, pois esse sistema todo é muito novo - mundialmente, é muito novo -, então, se a gente for excessivo nessa regra, a gente pode causar esse efeito adverso de inibir a inovação. |
| R | O exemplo do Canadá é de um desenvolvimento regulatório aberto, transparente, mediante amplas consultas inclusivas com o público e as principais partes interessadas, incluindo aí os líderes da indústria de IA, acadêmicos e a sociedade civil. Aqui a gente também tem que fazer uma coisa similar - então, louvo o trabalho desta Comissão - para a gente não ter uma visão unilateral, pois o tema requer uma multidisciplinaridade muito grande, nunca vista antes. Em relação à autoridade encarregada de implementar e fiscalizar a lei, no caso do Canadá, o Ministro da Inovação, Ciência e Tecnologia vai ser apoiado por um novo comissário de IA e dados, que terá poderes para monitorar a conformidade e intervir, se necessário, para garantir que os sistemas de IA sejam seguros e não discriminatórios. O Brasil, assim como o Canadá, está adotando o que a gente chama de uma abordagem horizontal, que vai estabelecer soluções de IA e classificá-las como "alto risco", "sem risco", ou "proibidas", em um conjunto de obrigações associadas para as implantações de alto risco, o que é diferente um pouco da União Europeia, que adotou uma abordagem vertical. Então, ela trabalha indústria por indústria, departamento por departamento, e isso é uma diferença a que a gente tem que estar atento aqui na nossa regulação. Essa estratégia centralizada cria duas questões regulatórias: uma primeira que seria a fragmentação regulatória, diversos assuntos muito diferentes, estruturados embaixo de uma única organização, então, os sistemas de inteligência de saúde, seguro, serviços financeiros numa régua única, subordinados a uma mesma autoridade - isso pode ser um problema -; e a questão do risco de sobreposição de competências - a gente já viu algumas autoridades avocando competências em relação à IA aqui no Brasil. Embora a gente ainda não tenha um consenso em relação à melhor solução - até porque cada país pode requerer uma solução diversa, dependendo da organização estatal, da sociedade -, a gente precisa ter um sistema razoavelmente flexível para que essa autoridade tenha competência geral de regulamentar e fiscalizar as questões transversais e temas muito específicos de IA. Ao mesmo tempo, a gente tem que ter a multidisciplinaridade dos membros, experiências pessoais diversas, incluindo acadêmicos, filósofos, juristas, tecnólogos, reguladores, membros da indústria, entre outros, para ter uma capacidade de interoperabilidade em diferentes competências setoriais e poder fazer esse alinhamento com as diversas agências reguladoras em cada setor, que podem fazer com profundidade as avaliações de risco em cada segmento, em vez de uma régua única transversal para todos os setores. Indo agora um pouquinho para a parte final da minha fala, eu destaco uma recente manifestação do Ministro de Inovação, Ciência e Indústria canadense, agora em setembro de 2023, muito recente, que criou um código de conduta voluntário sobre o desenvolvimento responsável e gestão de sistemas avançados de IA generativa. Então, essa é uma resposta de governança antecipando um pouco a lei para poder dar uma regulação em cima dos sistemas de ChatGPT, o DALL-E ou Midjourney, que chamaram muito a atenção do mundo. Respeitando os limites e depois abrindo a palavra para outras discussões, eu espero ter contribuído, trazendo um pouco a experiência canadense, para que a gente possa enriquecer o nosso sistema legislativo aqui no Brasil. |
| R | O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Obrigado, Hélio. Parabéns pela apresentação! Sem dúvida nenhuma, o Canadá tem se destacado bastante nesse tema de inteligência artificial, assim como robótica. Eu lembro que, na época da NASA, o Canadá era o país responsável, na Estação Espacial Internacional, por toda a área de robótica daquele complexo no espaço. Realmente, o Canadá tem se destacado bastante com relação a isso. Na sequência, então, eu passo a palavra para a Susana Maria Aires de Sousa, Professora da Faculdade de Direito da Universidade de Coimbra, que vai participar remotamente. A senhora tem dez minutos. Por favor, controle o tempo. A SRA. SUSANA MARIA AIRES DE SOUSA (Para expor. Por videoconferência.) - Muito obrigada, Exmo. Sr. Presidente Senador Marcos Pontes. Sras. e Srs. Senadores, senhoras e senhores convidados, demais audiência, em primeiro lugar, gostaria de apresentar as minhas cordiais saudações neste sotaque um pouco diferente e de agradecer também à Comissão o convite para estar presente nesta audiência. É com muito gosto que o faço. O trabalho de pesquisa e de reflexão que eu tenho vindo a desenvolver em matéria de direito e de inteligência artificial desenvolve-se em dois grandes blocos: o primeiro bloco eu diria que é o impacto da inteligência artificial na realização da Justiça criminal - eu sou Professora de Direito Penal e de Processo Penal -; o outro é o estudo e o acompanhamento da abordagem regulatória da inteligência artificial no contexto europeu. Se bem interpreto o convite que me foi dirigido, esta minha apresentação deve situar-se neste segundo bloco e, portanto, nas experiências regulatórias nacionais e internacionais. Por isso, nos minutos que se seguem, eu vou centrar-me sobre aquilo que está a ser feito e discutido na Europa, em particular, na proposta de regulamento do Parlamento Europeu e do Conselho sobre a Inteligência Artificial. Naturalmente, há uma questão prévia que aqui já foi abordada anteriormente: a regulação. A questão é saber se ela é necessária, se precisamos de uma regulação. O impacto que também já foi referido da inteligência artificial, nas nossas vidas quotidianas, é um impacto real e presente, não é futuro, mas promete ser muito maior do que aquilo que já é, oscilando entre coisas muito boas, muito positivas e efeitos negativos. Do lado do bem, nós podemos pensar que a enorme aptidão que a inteligência artificial tem para corrigir e padronizar enormes quantidades de informação é um instrumento extraordinário para ampliar a nossa limitada capacidade humana. Nós somos seres limitados. Portanto, é um poderoso instrumento no auxílio de uma decisão informada, por exemplo, no contexto médico, com juízos de diagnóstico; no contexto da segurança, identificando padrões de fraude. Por exemplo, a IA é muito melhor do que nós para fazer esse tipo de juízo em um contexto científico ou biológico. Pensem na investigação molecular. As descobertas científicas da IA são, de fato, muito mais céleres do que as nossas na descoberta de novas vacinas, por exemplo. |
| R | Do lado do mal, a inteligência artificial é um poderoso instrumento de influência, de orientação, de manipulação de comportamentos e de escolhas em diversos contextos: político, eleitoral, econômico, social, até pessoal - até nos nossos gostos, até na escolha pessoal que nós vamos fazendo nós vamos recebendo sempre informação. Não porque a IA seja má, a IA não é má nem é boa, nós é que somos frágeis, não é? É por causa da nossa fragilidade humana, porque somos seres muito permeáveis, muito influenciáveis e vivemos literalmente ligados às máquinas, ao celular, ao computador. Como é que podemos impedir esses efeitos negativos? Eu diria que o primeiro passo, essencial e básico, para minimizar, por exemplo, este risco de manipulação é a educação e a literacia digital dos cidadãos, ou seja, antes da regulação nós temos que nos preparar, temos que preparar os nossos cidadãos para saberem com o que é que estão a lidar, o que é inteligência artificial. O segundo passo, pois, com certeza, será a regulação, que é necessária, mas, como também já foi dito, sempre num equilíbrio, que é muito difícil de alcançar, entre precaução e inovação. Quais é que estão a ser os passos dados na Europa nesta tentativa difícil de equilibrar proteção dos direitos fundamentais com inovação? O esforço mais visível é, de facto, esta proposta de regulamento à inteligência artificial, que foi apresentada pela Comissão Europeia em abril de 2021 e que, como também já foi dito, é um resultado, não é um princípio; ou seja, esta proposta resulta já de muita coisa que foi feita antes, de vários documentos que foram discutidos e que eu não tenho tempo sequer para estar aqui a referi-los, mas que vem de muitos anos, e é uma estratégia claramente definida pela União Europeia de promover a inteligência artificial dentro de uma ética dos direitos fundamentais. Esta foi uma escolha clara da União Europeia de dar relevo aos direitos fundamentais. Eu dizia, é o resultado de uma estratégia definida pela União Europeia e é um resultado que é uma etapa, porque não chegamos ao fim; ela está em discussão desde 21 de abril de 2021, portanto, reparem, há mais de dois anos que esta proposta de regulamento à inteligência artificial está em discussão, já teve alterações, já teve emendas, já teve ajustes, resultantes precisamente de debates que foram sendo realizados sobre essa proposta. Eu vou, nos minutos que me faltam, tentar dar conta dos traços gerais e fundamentais dessa proposta. Eu disse aqui que é um regulamento, e o regulamento tem um significado técnico, jurídico-técnico, porque um regulamento não carece de transposição pelos Estados, ele é de aplicação automática em todos os Estados-membros. Isto é propositado, porque aquilo que se pretende é criar um quadro jurídico uniforme em todo o espaço europeu, e, portanto, os Estados terão que implementar esta proposta sem grande discricionariedade, as obrigações serão iguais em todos os países que fazem parte da União Europeia. Portanto, é um regulamento, é de aplicação geral, não carece de transposição dos Estados-membros, assemelha-se, aliás, ao que foi feito com o Regulamento Geral sobre a Proteção de Dados, que também é um regulamento. |
| R | Segunda nota, como eu disse, é uma proposta que procura equilibrar o desenvolvimento tecnológico com a proteção de interesses públicos e fundamentais, como a saúde, a segurança, e há uma grande preocupação também com a transparência e com o esclarecimento das pessoas. Como é que isso se faz? O regulamento faz também, como já foi aqui dito, uma abordagem dos sistemas de IA segundo uma classificação a partir do grau de risco para os direitos fundamentais. E, portanto, podemos ter sistemas que têm um risco inaceitável e, por isso, são banidos, são totalmente proibidos, já vou dizer quais são. Temos os sistemas de risco elevado, e são esses que ocupam grande parte do regulamento com as obrigações e com os deveres que são impostos quando estejam em causa esse tipo de sistemas. Temos sistemas de risco limitado, que basicamente só têm deveres de transparência e depois sistemas de risco mínimo, que não têm nenhuma obrigação. Há sistemas que, independentemente do seu grau de risco, ficam fora do âmbito de aplicação do regulamento. É o caso dos sistemas para fins militares, de defesa ou de segurança nacional, que não estão abrangidos por este regulamento. É também o caso de sistemas desenvolvidos e colocados em serviço exclusivamente para fins de investigação e desenvolvimento científico. Portanto, esses sistemas para fins de desenvolvimento científico e de investigação, precisamente procurando assegurar que também se promove a investigação, ficam fora do regulamento. Quais são, então, os que são proibidos no espaço europeu? Por exemplo, sistemas de ranking, de pontuação ou de classificação social que explorem vulnerabilidades de um grupo específico de pessoas, quer pela sua idade, quer pela fragilidade física ou mental, portanto, estes sistemas estão proibidos. Há uma grande discussão, mas também para já estão proibidos os sistemas de identificação biométrica em espaços públicos e em tempo real. Podem vir a ser admitidos para determinados fins criminais e para determinado tipo de criminalidade mais grave. Como disse, e estou um bocadinho preocupada com o tempo, grande parte do regulamento é sobre sistemas de risco elevado. Esses sistemas de risco elevado fazem parte do título terceiro do regulamento. Esse título terceiro prevê todos os requisitos e todos os deveres a que estão sujeitos este tipo de sistemas, designadamente gestão de risco, governação do risco. É preciso documentação técnica, é preciso registro, é preciso certificação e, com certeza, também autoridades que procedam à avaliação da conformidade e à certificação. Que tipo de sistemas são esses? São sistemas em que há risco de ofensa à saúde e à segurança, portanto, sistemas que sejam usados em contexto médico ou terapêutico, sistemas em que há uma forte probabilidade de pôr em perigo direitos fundamentais. Esses sistemas são depois listados e identificados no anexo terceiro. Só para lhes dar um exemplo, para ser um bocadinho concreta, então: a identificação biométrica, sistemas que sejam usados para a gestão e funcionamento de infraestruturas críticas, hospitais, por exemplo, educação, manutenção da ordem pública, por exemplo, sistemas... O meu tempo está a terminar, já tive aqui a indicação de que só tenho 15 segundos. |
| R | Portanto, vou terminar dizendo só onde é que estamos neste momento. As últimas notícias dizem-nos que nós estamos no final do processo legislativo. A ideia ou a perspectiva é que este regulamento, as negociações terminem até o final do ano. Como eu disse, foi apresentado pela Comissão, em 2021; já foi aprovado no Parlamento Europeu, em 14 de junho deste ano; e estamos agora em discussões trilaterais entre o Parlamento, a Comissão e o Conselho da União Europeia, e esta discussão está marcada justamente para hoje, para o dia 24 de outubro. E, portanto, vamos ver o que o dia de hoje nos traz em matéria desta proposta que, como digo, se espera que esteja finalizada até o fim de 2023. Muito obrigada. O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Obrigado, Profa. Susana. Parabéns pela apresentação! Sem dúvida nenhuma, acho que essas discussões vão dar resultados muito interessantes no final. Muito obrigado. Eu passo a palavra, então, na sequência, para a Sra. Loren Spíndola, que está aqui comigo. Ela é líder do Grupo de Trabalho de Inteligência Artificial da Associação Brasileira de Empresas de Software (Abes). Obrigado. A SRA. LOREN SPÍNDOLA (Para expor.) - Obrigada, Senador. Boa tarde a todos. Bom, eu pedi para ser a última, e, nesse caso aqui, é uma grande vantagem porque todos falamos basicamente a mesma coisa e facilita bastante a discussão quando é assim. Primeiro, quero agradecer, em nome da Abes, pelo convite. Senador, é uma honra estar aqui. Estamos participando desde o início de todos os debates, desde quando estava na Câmara dos Deputados. É muito importante que haja esse espaço, convidando não só o setor privado, mas a academia, o Governo e todos os setores envolvidos. É muito interessante a fala da Profa. Susana. Um dos pontos que a gente traz é que o Brasil não pode pensar em inteligência artificial sozinho, é uma discussão global. Então, é muito importante ter esses aspectos aqui para a gente entender também onde está a discussão no mundo, mas lembrando que o mundo não é apenas a União Europeia, a gente tem vários outros países, e é muito importante a gente ver o que outros países estão fazendo também. A gente tem o Reino Unido como exemplo, Japão, Singapura, Coreia do Sul; enfim, são tantos outros países com diferentes aspectos jurídicos, regionais e culturais, como o Abraão falou muito bem, que a gente precisa também usá-los como modelo, como exemplo. Eu vou roubar um pouquinho a fala do Rodrigo, que foi muito boa. O Brasil não precisa estar numa corrida para regulação, a gente precisa estar numa corrida para inovação - isso é fato - e capacitação, como a Profa. Susana falou. Desde o início a gente fala: sem educação, a gente não chega a lugar nenhum, e a inteligência artificial já está nos nossos dias. Então, vamos pensar um pouquinho aqui antes como é que eu regulo. Perguntaram: "Como regular a inteligência artificial?". Como se regula uma tecnologia que amanhã a gente não sabe como ela vai ser? É praticamente impossível, ninguém tem bola de cristal aqui. Faz sentido a gente pensar em princípios, e aqui eu abro um grande parêntese para dizer que o Brasil já é signatário dos princípios da OCDE, o Brasil já é signatário das recomendações de uso ético da IA para a Unesco, o Brasil já participa de todos os fóruns internacionais sobre o tema. A gente não está alijado da discussão no mundo. Então, eu não consigo regular a tecnologia, eu posso regular o uso da tecnologia - o Rodrigo falou. A gente pode pensar: "Ah estamos na discussão avançada de carros autônomos". Pois bem, vamos chamar todos os atores envolvidos, e aí, sim, uma cadeia específica que eu consigo imaginar, os agentes reguladores que já existem, e a gente tem uma discussão específica. Agora, eu não consigo aqui ter uma lei tão ampla e genérica que fale sobre absolutamente todos os tipos de sistema de inteligência artificial. É impossível. E, olha, a gente nem conhece ainda todos os sistemas de inteligência artificial. |
| R | Se a lei - ainda bem que é um projeto de lei ainda - já estivesse em vigor, a gente não teria o ChatGPT. Basta a gente citar esse exemplo porque, quando ela foi proposta, não tinha, a gente não sabia que viria o ChatGPT e tudo que veio depois. Quando se fala em tecnologia, de regulamentação de tecnologia, a gente precisa ter as mesmas caraterísticas. A gente precisa pensar numa regulação flexível. Ela precisa ser adaptável. A gente precisa ter um olhar no futuro. E o Abraão trouxe muito bem aqui, a gente precisa parar de ter o viés negativo. Com todo o respeito, o PL 2.338 tem um viés totalmente negativo, pensando e focando somente o risco. E as oportunidades para o desenvolvimento econômico que a IA tem? A discussão global, e eu foco muito isso, a gente precisa estar olhando para ela para não tirar o Brasil da corrida para inovação. Se a gente... Desculpa, me perdi aqui. Falando de inovação, pensando no desenvolvimento econômico, a gente tem que ter em mente que a tecnologia é uma ferramenta focada para o desenvolvimento, não apenas no que diz respeito a empresas de tecnologia. Outro viés também. O tanto de oportunidade... A própria Profa. Susana disse, a gente já vive a IA no nosso dia a dia e muito mais tem por vir. O Estado precisa fomentar as empresas, as startups, as pequenas, as médias para desenvolverem os seus sistemas de inteligência artificial focando o brasileiro. Hoje, do jeito que está, a gente vai só consumir. A gente não tem pesquisa. O Senador sabe bem. A gente não tem centro de pesquisa e desenvolvimento em inteligência artificial. A gente tem, são poucos. (Intervenção fora do microfone.) A SRA. LOREN SPÍNDOLA - Sim, tem oito. Precisamos de muito mais. Precisamos de muito mais verba. A gente precisa de muito mais computador. Coisa básica, a gente não tem computador que consiga rodar a pesquisa em inteligência artificial. Então, a gente precisa tirar o viés do risco da tecnologia e pensar nas oportunidades. Se a gente olhar pensando nas oportunidades, a gente vai ver ganhos. A gente vai ver que há um mundo de oportunidades. Junta capacitação, vamos pensar nas nossas escolas. E aqui alguém falou, acho que foi você também, Abraão, da importância de a gente ver tudo como um sistema. A gente precisa estar integrado. O novo currículo do ensino médio focando para robótica, pensando estatística, tecnologia matemática. O Rodrigo falou isso. É muito claro. A gente precisa ensinar os nossos jovens a ter esse olhar na matemática para eles terem o interesse em tecnologia. E aí a gente vai... Capacitação da nossa força de trabalho sim, porque a tecnologia vai mudar. O que a gente conhece hoje de emprego vai ser transformado, assim como toda revolução faz isso, mas a gente não pode fechar os olhos e virar as costas. A gente tem que abraçar o que é novo. A gente precisa estar pronto. A gente precisa de apoio de todos os envolvidos, desta Casa, do Governo, das empresas, da academia, da sociedade civil. Todo mundo precisa estar junto para a gente conseguir passar por essa revolução junto, como a gente já passou por tantas outras. A regulação é importante porque traz segurança jurídica, isso é fato, mas a regulação pode estar fragmentada e ela tem que fazer sentido. Mais uma vez, regulação de tecnologia precisa, sim, ser baseada em princípios. Porque, se eu parto do princípio de que, ao desenvolver uma tecnologia, um sistema de inteligência artificial, eu tenho que estar centrada no humano, eu vou ter que ser transparente e explicável. E aí, com todas as ressalvas que isso traz, eu vou ter que fazer um sistema de inteligência artificial robusto. Se isso já está by design desde o início, é muito mais fácil pensar o depois. E aí, quando e se necessário, a gente trata os riscos daquele sistema de inteligência artificial. |
| R | A gente fala muito de regulação, de regulação, como se fosse a resposta para tudo. A própria Profa. Susana trouxe: "Será mesmo que é disso que a gente precisa?". Várias vezes, repetimos: "Não há um vazio legislativo aqui". Se alguém se sentir prejudicado por um sistema de inteligência artificial, você vai ter uma resposta da Justiça. A gente tem o Código do Consumidor, tem o Código Civil, tem até o Código Penal, tem a nossa LGPD, que já traz bastantes situações quando se fala de dados pessoais. Então a gente tem mecanismos que dão resposta para várias situações. Quando não, a gente trata isso depois especificamente. Mas não dá para uma regulação de inteligência artificial ser tão abrangente ou imaginar ter uma bola de cristal que consiga prever todos os possíveis riscos que um sistema pode causar. Isso é praticamente impossível. A gente precisa, sim, olhar com um olhar positivo. Mais uma vez, é uma oportunidade imensa que a gente tem aqui. E um outro ponto - até trazendo, Rodrigo, desculpa, a sua fala, falando da parte de governança -, o 2.338 traz a parte de governança, o que a gente vê com muito bons olhos. Não da forma como está, porque está prescritivo demais. Mas a governança de IA é uma das formas de trazer confiança. A questão do uso responsável, focando o ético, a gente consegue garantir tendo governança. Não precisa ser uma governança estrita como está ali. A gente tem vários estudos, inclusive a FGV tem um estudo recente falando de governança orgânica, quer dizer, não precisa ter um encarregado para IA ética dentro da empresa, porque isso vai gerar custo. A gente precisa pensar nas nossas startups e pequenas empresas. Então vamos otimizar recurso. Mas a gente pode ter, dentro da empresa, dentro do organismo, pessoas que são capazes de olhar o uso responsável, o uso centrado no humano, capazes de mitigar potenciais riscos e vieses. A gente consegue ter isso, e tem várias ferramentas já elaboradas, diversos frameworks que são capazes de apoiar as empresas na mitigação de vieses. Alguém fez um comentário aqui de como é possível a gente garantir o uso ético da tecnologia. É com a governança. Mas a governança não precisa ser... (Soa a campainha.) A SRA. LOREN SPÍNDOLA - ... prescritiva como está proposta; ela pode ser uma coisa fluida e orgânica. Se a gente pensa, de novo, um dos princípios, se a gente pensa, desde o início, na concepção do sistema de inteligência artificial, que o meu foco, que aquele meu sistema que eu estou desempenhando tem um objetivo que é centrado no humano, que é para o bem, fica tudo muito mais fácil. E usar os mecanismos que tanto ONU, OCDE, várias empresas privadas já desenvolveram para apoiar as pequenas, médias e outras empresas no desenvolvimento desse sistema de IA fica muito mais fácil. O Rodrigo falou também da importância dos dados. A gente tem vários outros problemas. Antes de falar de regulação de inteligência artificial, um deles é de onde vêm os nossos dados. Enfim, é tudo sistêmico, mais uma vez. Então é um debate importante. A gente está feliz e precisa participar desse debate, mas eu acho que a pergunta que a gente está fazendo é errada. (Soa a campainha.) A SRA. LOREN SPÍNDOLA - A gente precisa pensar antes quais são todos os outros caminhos, o que nos leva até aqui. E aí, depois a gente pensa em regular, se e quando necessário. Mas o que a gente precisa pensar hoje é no desenvolvimento, é na inovação, apoiar o nosso sistema de startups e não criar dificuldades e barreiras para ele. Então é uma discussão, da qual a gente é feliz em participar, a gente está à disposição para apoiar. Então contem conosco. Obrigada, mais uma vez, pela oportunidade. |
| R | O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Obrigado, Loren, pela participação, pela apresentação. Neste momento a gente abre para discussões e debates, eu gostaria novamente de trazer as perguntas do e-Cidadania para os nossos debatedores poderem reavivar a memória sobre isso - e aqueles que estão aqui também. Então, as perguntas que nós recebemos aqui do e-Cidadania. Primeiro, da Maria Clara, de Minas Gerais: "Quais são os desafios-chave na regulamentação da IA para garantir a proteção de dados pessoais?". Giseli Borges, do Rio Grande do Sul: "Até que ponto o Governo pode intervir ou regular o desenvolvimento de tecnologias que tenham [...] [inteligência artificial] embutida sem frear a evolução tecnológica?". Melissa Westphal - acho que é isso -, de Santa Catarina: "A inteligência artificial já está integrada aos dias atuais, [...] ela pode desempenhar um papel significativo [na área de educação?]". Carla Alessandra, de São Paulo: "Quais os mecanismos [...] de controle elaborados para [...] [fiscalizar e punir eventuais desvios do uso de inteligência artificial]?". Oziel Ribeiro, de Goiás: "Como a regulação da IA pode equilibrar a inovação tecnológica com preocupações éticas e de segurança?". Perguntas novas. Viviane Tavares, de Minas Gerais: "Como a regulamentação da IA será harmonizada com as normas internacionais?". A gente acabou de ver isso, aliás, através da apresentação da Profa. Susana também. Vanderson Pereira, do Distrito Federal: "Qual o impacto [...] de uma ética algorítmica [...] [aplicada a] projetos centrados em dados de cidadãos?". Interessante essa pergunta. Laura Tschiedel, do Rio Grande do Sul: "Como será tratada a proteção de dados do usuário com a regulação da IA?". E dois comentários. Marcus Lopes, do Rio de Janeiro: "Até o momento, todos os modelos de IA [...] [apresentam] desvios de comportamento. É necessária a supervisão/revisão do trabalho por humanos [...]". Jeremias Brandão - mais um comentário da Bahia -: "É importante além de criar mecanismos para regulamentar [...] [seu uso] que também se criem [...] [meios] para identificar quando algo foi manipulado por [...] [inteligência artificial]". Então, nesse momento, sabidas as perguntas, eu abro, então, a palavra para os nossos debatedores. Quem quiser comentar alguma das perguntas ou responder a algumas das perguntas, por favor, se manifeste. Portanto, aqui vou começar pelo Rodrigo, se manifestando. E quem estiver lá no remoto também pode usar a mão, essa mãozinha que tem no sistema também. De qualquer maneira, eu enxergo aqui. Obrigado. O SR. RODRIGO DA SILVA FERREIRA (Para expor.) - Da Viviane Tarares: "Como a regulamentação da IA será harmonizada com as normas internacionais?". E olha que interessante. Se a gente pegar hoje os próprios normalizadores, a ISO tem um conceito de inteligência artificial que é diferente de outro, do NIST. A IAPP (Associação Internacional de Profissionais de Privacidade) compilou uma lista com mais de 50 conceitos diferentes de inteligência artificial. Então, nem entre normalizadores, nem na academia existe consenso acerca do que seja inteligência artificial. A gente já começa por aí. Se a gente pegar, por exemplo, o Artificial Intelligence: A Modern Approach, que talvez seja hoje o livro mais fundamental nesse campo, do Stuart Russell e Peter Norvig, eles tratam isso como uma segregação quadripartite. Eles mesmos não conceituam o que seria inteligência artificial. É nesse nível que tem hoje a nuvem em torno do que seja a tecnologia, isso para só conceituar - olha o nível da dificuldade. |
| R | E cada país hoje está adotando uma abordagem diferente. Então é dificílima essa harmonização com as normas internacionais, porque a gente não tem um parâmetro único com o qual nós vamos nos harmonizar. Olha que dificuldade! Os próprios europeus têm lá o AI Act, mas ainda existe uma série de divergências, que a gente chama de trílogo, ou triálogo. Então, você tem diferentes tomadores de decisão - são três, que precisam chegar num consenso para a aprovação de um regulamento europeu -, e entre eles existe divergência no texto, inclusive no conceito. Olha que interessante, Senador. E os Estados Unidos têm uma outra abordagem; o Japão está tendo uma outra abordagem; países asiáticos diferentes têm outras abordagens... E, se a gente pega, por exemplo, o relatório de Stanford, que tem lá um índice de como está a questão da IA no mundo, a gente vê que hoje os grandes agentes são os Estados Unidos e China. E a gente está copiando a Europa. A Europa, se a gente pegar pelo menos Stanford, está na segunda divisão desse campeonato, não está na primeira divisão. Será que o Brasil, se quer ser um agente de primeira divisão, deveria focar mais a regulação europeia? Ou a gente deveria ir nesse viés, que o Abraão colocou muito bem: vamos focar o lado positivo, vamos olhar para os vencedores? Quem está na primeira divisão está fazendo o quê? Então a gente tem que olhar para os Estados Unidos e China, não é verdade? (Soa a campainha.) O SR. RODRIGO DA SILVA FERREIRA - Então, seria essa a minha ponderação. É muito difícil harmonizar com a regulamentação da IA internacional, porque a gente não tem um padrão internacional. A verdade é essa. O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Obrigado, Rodrigo. Eu sei que a Miriam ali está na sequência também. Logo na sequência, eu passo aqui para o Abraão. Então, Miriam, você tem a palavra. A SRA. MIRIAM WIMMER (Para expor. Por videoconferência.) - Pois não, Senador. Eu queria fazer referência a algumas das perguntas que, de um lado, buscam questionar a relação entre inteligência artificial e a proteção de dados pessoais e, de outro lado, chamam a atenção para os desafios de conciliar regulação, ética, segurança e inovação, que são aspectos importantes. Com relação a esse ponto, eu queria trazer a ponderação de que a Lei Geral de Proteção de Dados é uma norma que, ao mesmo tempo que busca estabelecer condições de contorno, de tratamento de dados pessoais, não é uma norma que proíbe o uso desses dados. Muito pelo contrário, ela busca incentivar o uso responsável desses dados. Parece-me que uma legislação que se volte para a inteligência artificial tem também o importante desafio de buscar conciliar esses diferentes vetores, esses diferentes bens jurídicos: a promoção do desenvolvimento tecnológico, da inovação, da competitividade, dos modelos de negócios, junto com a proteção dos direitos dos indivíduos. E aqui a gente vê novamente uma confluência entre os dois regimes, uma vez que justamente os ambientes em que nós verificamos maiores riscos para os indivíduos são também os ambientes em que há o tratamento intensivo de dados pessoais. Eu queria também deixar aqui um registro de que, atenta a essa necessidade de compatibilização de objetivos, de inovação e de proteção de direitos, a NPD tem buscado avançar na discussão de IA, inclusive com o recente lançamento de uma consulta pública sobre um sandbox regulatório no campo da inteligência artificial. Os sandboxes, Excelência, como o senhor sabe, são ambientes experimentais, regulatórios, em que a gente tem uma certa liberdade - uma caixinha de areia -, para testar soluções inovadoras e avaliar de que ambiente, de que maneira o ambiente regulatório pode influir sobre essas soluções. Eu me recordo de um dos palestrantes ter mencionado que, se a lei estivesse em vigor, não teríamos tal e tal aplicação. Parece-me que mecanismos, como o sandbox... Foi a Loren, não é? Foi a Dra. Loren. Parece-me que mecanismos como o sandbox regulatório e esse tipo de abordagem, como essa que a NPD vem adotando, são justamente ferramentas que nós temos para buscar conciliar esses valores distintos. Nesse sentido, parece-me muito importante que, quando o projeto de lei vier a ser aprovado, traga também essas referências, como de fato já o faz, e que experiências como essa da NPD sejam consideradas como uma boa prática ao se estabelecer regulamentação complementar sobre o assunto. Muito obrigada, Senador. O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Obrigado, Miriam. Na sequência aqui das intervenções, eu tenho o Abraão, depois a Loren, depois o Hélio, que eu vi ali também. Abraão, tem a palavra. |
| R | O SR. ABRAÃO BALBINO E SILVA (Para expor.) - Obrigado, Senador. Acho que está muito claro para todos nós que este debate é muito complexo, necessário, não dá para você dizer que o debate é inócuo. Não, ele é necessário, relevante, precisa continuar, precisa evoluir. E uma das coisas interessantes a gente precisa observar: não existe, em nenhum país ocidental, nenhum marco regulatório de inteligência artificial, nenhum. A Europa ainda não aprovou, a gente está tentando fazer o Efeito Bruxelas, que o pessoal fala, mas nem lá se aprovou ainda. Então a gente tem que ter em mente que, quanto mais rápido a gente tentar aprovar, talvez a chance de cometer situações complicadas de que a gente pode se arrepender aumenta. Olhando objetivamente, eu só vou dar um exemplo para vocês. Nós estamos agora na Anatel debatendo a visão de futuro do 6G. A gente está começando a implantar o 5G no Brasil, mas a gente já está discutindo a visão de futuro do 6G, que deve entrar no mercado daqui a dez, doze anos. Por padrão, a próxima geração de conectividade será uma grande rede de inteligência artificial. Será que, quando a gente faz uma regra muito restritiva, a gente não vai estar limitando a evolução tecnológica que nós mesmos queremos que aconteça no nosso país? Até porque nós estamos discutindo por padrão, por padrão a rede será uma grande aplicação de inteligência artificial, que é muito interessante, cujo conceito não existe. Por quê? Porque inteligência artificial não é uma ciência exata; é a confluência empírica de várias ciências existentes que têm produzido... (Soa a campainha.) O SR. ABRAÃO BALBINO E SILVA - ... soluções que têm um grau de cognição e autonomia elevado, mas que, na prática, não são nada inteligentes e nada artificiais, porque os dados não são artificiais e a inteligência é completamente limitada. Então a gente precisa ter em mente que nós estamos falando de um processo que, um ano atrás, era completamente diferente, dois anos atrás, mais diferente ainda, três anos atrás, mais diferente, e certamente daqui a um ano será muito mais diferente ainda. Então, assim, antes de a gente pensar em um arcabouço normativo, uma análise institucional e tentar favorecer organismos A ou B, a gente precisa primeiro ter a humildade de reconhecer que esse processo ainda vai demorar muito até que a gente conheça. Eu posso até... Para concluir a minha fala, vamos pensar na questão dos remédios. Hoje nós temos um modelo muito restrito... (Soa a campainha.) O SR. ABRAÃO BALBINO E SILVA - ... de como acessar a questão médica, porque o processo de construção de fármacos é regulado há muitos anos, tem uma avaliação muito precisa de causas, consequências e riscos, e, a partir disso, eu consigo dizer que um remédio é tarja preta, tarja vermelha, exige uma prescrição médica ou não exige uma prescrição médica. O modelo de IA muito possivelmente exigirá um nível de avaliação dessa natureza, existem sistemas que necessariamente precisarão ser homologados e eventualmente até certificados por algum organismo, só que nós não sabemos o tipo de sistema que exige isso, o tipo de tecnologia que vai evoluir para exigir isso, e, antes de ter essa compreensão, a gente já quer dizer quem é que vai certificar. Então, de certa forma, dá a impressão - desculpa o termo - que a gente está querendo fazer o rabo abanar o cachorro, e não o cachorro abanar o rabo. |
| R | (Soa a campainha.) O SR. ABRAÃO BALBINO E SILVA - Então, essa é a minha conclusão. O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Obrigado, Abraão. Na sequência, eu passo a palavra para a Loren. A SRA. LOREN SPÍNDOLA (Para expor.) - Obrigada, Senador. Apenas complementando, Rodrigo, na OCDE, que é a definição de IA que a gente globalmente aceita, foram mais de oito meses para se chegar a um consenso e, mesmo assim, não se chegou, mas oito meses apenas para o consenso de definição de inteligência artificial. Então, isso mostra um pouquinho quão complexo é. Queria só trazer que, a respeito da ISO, a gente conseguiu - a gente, a Abes -, na ABNT, a nossa agência nacional de normas brasileiras, instalar um grupo de comissão de estudos de inteligência artificial. Então, o Brasil está participando das discussões que falam sobre as normas ISO de IA. Isso é um grande avanço; isso, sim, coloca o Brasil na corrida da inovação. São ações como essas que são concretas, que colocam e mostram a importância do Brasil nessa discussão. E, por fim, queria só complementar a fala da Miriam, falando do sandbox, a proposta de sandbox. Queria parabenizá-la publicamente aqui, também são ações como essa que fazem a diferença quando a gente fala de desenvolvimento de inteligência artificial no Brasil. O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Obrigado, obrigado, Loren. Na sequência, eu tenho o Hélio e, depois, a Susana. Hélio, tem a palavra. (Pausa.) O seu microfone está em mudo. O SR. HÉLIO FERREIRA MORAES (Para expor. Por videoconferência.) - É o que a gente mais ouve nesses tempos de videoconferência. Eu queria só destacar, Senador, que muitas das falas que foram colocadas aqui estão muito alinhadas com o que a gente vê no exemplo canadense que eu trouxe para tentar enriquecer aqui a nossa conversa. Então, quando a gente fala que o Canadá está em processo de desenvolvimento de uma regulamentação, ela não está pronta, eles estão fazendo consultas, inclusive interações com diversos outros diplomas legais dentro do sistema canadense, mas, se a gente olha para trás, o MILA, que é esse principal instituto de inovação em tecnologia, já foi modernizado em 2017 e existe muito antes. Esse foi só apenas um exemplo que eu trouxe aqui. Então, existe toda uma estratégia pan-canadense de investimento no segmento, em vários centros de pesquisa, em várias províncias, a inovação veio antes e agora eles estão pensando em regulação. Claro, eles estão envolvidos nas discussões éticas, todo mundo tem essa preocupação, mas é tudo feito muito passo a passo e muito com o viés educacional para entender em que momento a gente está e não perder essa oportunidade. Eu acho que o Brasil tem que tomar um pouco esse cuidado. Só fazendo um paralelo, em alguns segmentos em que eu já militei também, como em blockchain, a gente vê que a Suíça se jogou na frente disso como uma nação cripto, a crypto nation, e está avocando vários investimentos para isso. E a gente demorou muito aqui para poder prever isso de uma maneira legal. E outros exemplos que a gente viu ao longo do tempo, de quem tramita nessa área de tecnologia e direito, como telefonia IP, como os pagers, em que todos sofreram com uma regulação que atrapalhou muito o desenvolvimento do serviço. Então, a gente tem que tomar um pouco de cuidado com a regulação. Claro, a regulação é importante, a regulação traz segurança jurídica, mas, como eu destaquei um pouco ali na minha fala, a gente tem que tomar um pouco de cuidado com a dose do remédio. |
| R | Então, o exemplo canadense traz muito dessa situação, de a gente trabalhar a inovação e a regulação em paralelo, mas numa medida controlada. Então, era isso que eu queria trazer de fala aqui para auxiliar na discussão. O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Obrigado, Hélio. Na sequência, eu passo a palavra para a Susana. Profa. Susana, tem a palavra. A SRA. SUSANA MARIA AIRES DE SOUSA (Para expor. Por videoconferência.) - Muito obrigada. Eu precisava só de tocar aqui em dois pontos, que também são inerentes a algumas das perguntas que foram colocadas. Uma primeira só para, enfim, prestar um esclarecimento. De fato, nas várias discussões que foi sofrendo, a proposta de regulamento da inteligência artificial europeia já tem e já trabalha com uma definição, com um conceito, não de inteligência artificial, porque a inteligência artificial não é possível de ser definida - já foi aqui dito, e concordo com isso -, mas com uma definição do que seja sistema de inteligência artificial para fins do regulamento proposto, e esse conceito aproxima-se do conceito da OCDE. Portanto, estamos a falar muito concretamente de um sistema de aprendizagem concebido para atuar com diversos níveis de autonomia, que é capaz de gerar, para determinados fins que podem ser explícitos ou implícitos, resultados como previsões, recomendações ou decisões aptas a influenciar ambientes físicos ou ambientes virtuais. É esta a definição que está posta no regulamento. A segunda nota: é evidente que não há riscos de inteligência artificial, porque cada sistema tem os seus riscos e tem os seus riscos consoante a aplicação que lhe seja dada, consoante o fim que lhe seja dado. Portanto, nós podemos em abstrato falar nos riscos de discriminação ou de enviesamento, mas que são superáveis, a tecnologia vai conseguir superar; podemos falar no risco da opacidade da black box, mas também já estamos a trabalhar na white box; podemos falar no risco da invasão da privacidade, mas também me parece que é muito importante não cairmos numa certa ingenuidade sobre os riscos. É preciso ter consciência e ir acompanhando esta tecnologia tão disruptiva, porque há um risco transformativo da nossa sociedade. Há, de fato, aqui, um impacto enorme, sobretudo em determinados setores. Por exemplo: no contexto em que eu trabalho, que é o contexto criminal, a aplicação de sistemas de inteligência artificial para efeitos, por exemplo, de prever onde é que o crime vai acontecer e quem é que vai cometer esse crime é algo que traz riscos que nós não podemos ignorar. Portanto, dizer também que a inteligência artificial só é boa, é cairmos num discurso que nos desresponsabiliza, quando devemos também estar preocupados e conscientes do caminho que estamos a percorrer e, eventualmente, que somos nós responsáveis pelas gerações futuras, não é? Portanto, ter essa capacidade de prever aquilo que, em bom rigor, não é previsível, mas tentar estar consciente de que a inteligência artificial tem essa autonomia que a torna, num certo sentido, imprevisível. Portanto, certo, há riscos? É só esta ideia e termino. Tem riscos, com certeza, muitos deles superáveis. Há muito tempo que venho defendendo a sandbox approach como uma técnica que faz muito sentido na regulação da inteligência artificial para percebermos os sistemas e para os tornarmos em alguma medida previsíveis. |
| R | O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Obrigado, Profa. Susana. Com isso, nós temos aqui basicamente o nosso tempo chegando ao final também. Eu pergunto se alguém aqui na plateia tem alguma pergunta, alguma colocação. (Pausa.) Não havendo, eu passo então, vou retornar a palavra aos nossos debatedores para as suas considerações finais. Cada um deles, por favor, restringir em dois minutos, começando com o Rodrigo aqui. O SR. RODRIGO DA SILVA FERREIRA (Para expor.) - Queria só parabenizar essa iniciativa. Achei fantástico esse debate. Inclusive, quanto mais multidisciplinar, quanto mais heterogêneo ele for, acho que melhor para o país. Acho que é importante, e aí de novo, focar uma estratégia do Brasil que promova a inovação, não ignorando os riscos. Então, acho que as duas questões são importantes. Só me parece que o foco na inovação é o que de fato vai fazer diferença para o país. E óbvio, a gente não descuida do risco, mas aí talvez com uma regulação um pouco mais pensada, um pouco mais discutida, sem pressa. Acho que essa é a grande questão. Talvez uma regulação apressada acabe sacrificando aquilo que é mais importante, que é justamente esse processo de inovação. Então, de novo, quero parabenizar a iniciativa e me colocar à disposição e os demais técnicos da Casa da Moeda nesse debate, que é tão importante. Obrigado. O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Obrigado. Foram as considerações do Rodrigo da Silva Ferreira. Ele é encarregado de proteção de dados da Casa da Moeda do Brasil. Eu passo a palavra, para as considerações finais, para a Miriam Wimmer, Diretora da Autoridade Nacional de Proteção de Dados. A SRA. MIRIAM WIMMER (Para expor. Por videoconferência.) - Muito obrigada, Senador. Queria agradecer a oportunidade de a ANPD participar deste debate. Quero dizer que continuamos à disposição da Comissão a qualquer momento. E eu queria deixar aqui duas mensagens finais. Uma é uma preocupação de que estamos neste momento com diversas propostas legislativas sobre a mesa no que toca a tecnologia, não apenas a IA. A IA é um dos aspectos, mas também temos propostas sobre regulação de plataformas, sobre regulação de desinformação. E um alerta que eu faria, uma preocupação que eu trago à mesa é que essas propostas sejam compreendidas de maneira sistemática para que sejam coerentes também, para que nós não tenhamos o risco de abordagens desencontradas, de conflitos de competências ou de desconsideração de competências já existentes em órgãos já instituídos que podem contribuir para o enfrentamento do problema. O segundo ponto é apenas um lembrete de que a nota técnica que eu mencionei, que traz uma avaliação preliminar da ANPD sobre o tema, a proposta para consideração do Congresso Nacional, dos demais interlocutores, estará disponível no nosso site ainda hoje, se tudo der certo, e também será encaminhada aos gabinetes dos Senadores integrantes da Comissão. E, mais uma vez, a gente se coloca à disposição para continuar contribuindo aí na troca de ideias, com vistas a encontrar uma solução que seja boa para o país. Muito obrigada, Senador. O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Obrigado à Diretora Miriam Wimmer, Diretora da Autoridade Nacional de Proteção de Dados. Eu passo então a palavra, para as suas considerações finais, ao Abraão Balbino e Silva, Superintendente-Executivo da Agência Nacional de Telecomunicações, a Anatel. O SR. ABRAÃO BALBINO E SILVA (Para expor.) - Obrigado, Senador. Muito obrigado a todos pela oportunidade. Eu gostaria, em primeiro lugar, de agradecer a oportunidade de a agência estar aqui presente. É fundamental reconhecer que o Congresso Nacional é o ambiente mais legítimo para esse tipo de discussão. E é fundamental que essa discussão ocorra. Nós, como órgão regulador que já passou por várias revoluções e revoluções ao longo dos últimos 25 anos, entendemos uma coisa: regular de forma benfeita. Independentemente de qual seja o modelo que o Estado brasileiro decida, ele vai requerer maturidade institucional, independência, autonomia e capacidade suficiente para enfrentar os problemas com serenidade e seriedade. |
| R | E eu entendo que isso é uma questão em que, muitas vezes, a gente não pensa. A gente precisa pensar não só na criação de um modelo, mas em como esse modelo vai rodar, porque muitas vezes, a gente cria uma determinada regra e a gente não percebe que ela só vai começar a ser aplicada cinco, dez anos depois, até o organismo que eu designei ou que eu criei ter evolução suficiente para acompanhar. E nesse meio tempo, na verdade, a gente, muitas vezes, perde. E nós nos colocamos numa posição em que hoje vemos a tecnologia evoluindo muito rapidamente. Existem várias outras tecnologias que estão evoluindo também. No campo da inteligência artificial especificamente, a Anatel está fechando agora um acordo de cooperação com a Unesco, para fazer a análise de como o modelo ético, a recomendação ética de IA feita pela Unesco está sendo realizada no Brasil. Então a Anatel vai, juntamente com a Unesco, fazer essa análise de como esse processo está acontecendo no Brasil. Nós estamos inclusive numa discussão com o Ministério das Relações Exteriores... (Soa a campainha.) O SR. ABRAÃO BALBINO E SILVA - ... para justamente, no âmbito do Mercosul, também fazer essa discussão. Então, assim, a gente se coloca disponível para esse debate, a gente agradece esta oportunidade e a gente quer justamente dizer, e aí eu faço coro com a Miriam, que tem várias discussões aqui no Congresso, do ponto de vista desse ambiente digital, e é importante que a gente faça isso de maneira estruturada, coordenada, para que a gente consiga ter um arranjo institucional apropriado para toda a revolução digital que a gente está vivendo. Muito obrigado. O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Obrigado. Obrigado, Abraão Balbino e Silva. Ele é Superintendente-Executivo da Agência Nacional de Telecomunicações. E eu passo a palavra então para o Sr. Hélio Ferreira Moraes, Coordenador da Comissão de Tecnologia da Câmara de Comércio Brasil-Canadá. O SR. HÉLIO FERREIRA MORAES (Para expor. Por videoconferência.) - Obrigado, Senador. Eu gostaria de agradecer pela oportunidade de a Câmara de Comércio estar aqui representada, participando desta discussão. Fico muito feliz de ver que o Brasil está antenado nas proposições de inovação, em equilíbrio do risco, que são muitos dos princípios que foram adotados pelo Canadá. Então eu me coloco à disposição, a Câmara, à disposição, para a gente eventualmente auxiliar nesse processo de fazer esse compartilhamento de experiências, para o que é importante no desenvolvimento da tecnologia aqui no país. E a Câmara também pode ter um papel muito importante e relevante para auxiliar nesse processo. Então, mais uma vez, agradeço pela oportunidade e desejo que a gente consiga fazer uma regulamentação que leve o país para frente. O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Obrigado. Obrigado, Hélio Ferreira Moraes, Coordenador da Comissão de Tecnologia da Câmara de Comércio Brasil-Canadá. Neste momento, eu passo a palavra para a Profa. Susana Maria Aires de Sousa, Professora da Faculdade de Direito da Universidade de Coimbra, para as suas considerações finais. A SRA. SUSANA MARIA AIRES DE SOUSA (Para expor. Por videoconferência.) - Muito obrigada. Vou ser muito breve. Queria apenas agradecer por me receberem, sobretudo por terem a paciência de me ouvir. E queria, se calhar, concluir dizendo que é evidente para mim, e creio que para todos nós, que a ciência e a tecnologia nos levam mais longe. Basta olharmos para o passado para percebermos que a ciência e a tecnologia, de fato, nos levam mais longe. Mas devemos estar atentos para que não nos levem longe demais. O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Está certo. Muito obrigado. Obrigado, Profa. Susana Maria Aires de Sousa, Professora da Faculdade de Direito da Universidade de Coimbra. |
| R | Eu passo a palavra para a Loren Spíndola, líder do Grupo de Trabalho de Inteligência Artificial da Associação Brasileira de Empresas de Software. A SRA. LOREN SPÍNDOLA (Para expor.) - Obrigada, Senador. Agradeço, em nome da Abes, pelo convite, mais uma vez, para estar aqui participando do debate. Parabenizo pela organização da mesa. É um prazer enorme ter a discussão com vocês, discussão riquíssima e importante, que só prova quão multilateral é esse assunto e que a gente precisa cada vez mais ter olhares diversos ao se falar sobre regulamentação de uma tecnologia. Lembro, então, que eu acho que o principal ponto em que a gente precisa pensar, o objeto de uma regulação é aonde a gente quer chegar. Eu acho que aqui a gente deixou claro que é inovação. A gente precisa pensar nas nossas pequenas e médias empresas e apoiá-las no desenvolvimento, para que elas prosperem, e também criar um ambiente propício para receber investimentos, e não dificultar, mirando apenas em algumas grandes empresas, mas, sim, pensar no todo, pensar no Brasil. Contem conosco nesse debate. Esperamos ter mais oportunidades como esta. Obrigada, mais uma vez, pelo convite. O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Obrigado, Loren. A Loren Spíndola é líder do Grupo de Trabalho de Inteligência Artificial da Associação Brasileira de Empresas de Software (Abes). Finalmente, eu gostaria de agradecer a cada um dos nossos debatedores pela paciência e pela presença aqui conosco, presencial e remotamente. Também agradeço a todos aqueles que nos acompanharam, através da TV Senado e das redes sociais, e àqueles que presencialmente também estiveram conosco aqui no Senado, na Sala 7 de audiências do Senado. E quero dizer o seguinte: quando a gente vê toda essa preocupação - e ela é meritória e precisa ter -, eu concordo muito que nós não podemos ter pressa no desenvolvimento de algo tão importante para o país. Eu vejo isso, para colocar - estou olhando a Miriam, tem uma plantinha ali do lado -, mais ou menos como uma planta que está começando a crescer. Nós não sabemos ainda o que ela precisa para se nutrir corretamente e quais os tipos de frutos. Supõe-se que seja uma planta diferente que pode dar muitos tipos de frutos diferentes, flores diferentes. Lógico que a gente quer que só coisas boas venham dali, mas a gente tem que estar preparado para receber isso. Eu acho que a nossa preocupação tem que ser justamente com essa interface de fazer com que esse sistema se desenvolva e que nos dê bons resultados e estarmos preparados para resultados não esperados, vamos dizer assim, ou resultados que possam trazer algum tipo de risco, mas não tolher o crescimento dessa planta. Sem dúvida nenhuma, essa conexão aí vai ser importante para o nosso país e para o planeta. As fronteiras são utilizadas para muitas coisas, mas, quando se trata de ciência, quando se trata de desenvolvimento de tecnologia, todo mundo acompanhou durante a pandemia a necessidade de trabalharmos juntos no nosso planeta como um todo. Eu tenho certeza de que, com trabalho, com paciência e com foco nesse trabalho, nós vamos conseguir os melhores resultados. Eu, novamente, agradeço a presença e a participação de todos. Estaremos aqui trabalhando no tema, e eu conto com a ajuda de cada um de vocês, os nossos debatedores, e daqueles que queiram participar também, para que nós tenhamos o melhor resultado no Senado para representar o nosso país. Muito obrigado a todos. |
| R | Não havendo mais nada a tratar, eu declaro encerrada a presente reunião. Obrigado a todos. Boa tarde. (Iniciada às 14 horas e 07 minutos, a reunião é encerrada às 16 horas e 04 minutos.) |

