Notas Taquigráficas
01/12/2022 - 10ª - Comissão de Juristas responsável por subsidiar elaboração de substitutivo sobre inteligência artificial no Brasil
| Horário | Texto com revisão |
|---|---|
| R | O SR. PRESIDENTE (Ricardo Villas Bôas Cueva. Fala da Presidência.) - Bom dia a todos e a todas! |
| R | Havendo número regimental, declaro aberta a 10ª Reunião da Comissão Temporária Interna, destinada a subsidiar a elaboração de minuta de substitutivo para instruir a apreciação dos Projetos de Lei 5.051, de 2019; 21, de 2020; e 872, de 2021, que tem como objetivo estabelecer princípios, regras, diretrizes e fundamentos para regular o desenvolvimento e aplicação da inteligência artificial no Brasil. A presente reunião destina-se à deliberação do relatório final. Após um trabalho exaustivo de vários meses e de uma colaboração inestimável de todos os integrantes desta Comissão, sem exceção, não apenas da Relatora, mas de todos aqueles que, nos diversos grupos de trabalho, se dedicaram com denodo, com competência, com o sentido de urgência e de interesse público para produzir um texto que, ao final, pelo que nós temos percebido nas reuniões preliminares, reflete bem o consenso ou pelo menos a média das opiniões que foram colhidas nas várias audiências públicas, no seminário internacional, na produção acadêmica, eu não posso deixar de registrar que o Prof. Danilo Doneda, que, como sempre, tem tido uma participação destacada no desenvolvimento desse novo ramo de direito e tecnologia, direito de proteção de dados pessoais, ao longo de tantos anos tem colaborado na própria elaboração da LGPD e agora também com uma colaboração inestimável aqui para o sucesso desse trabalho, não pôde estar presente em razão de problemas temporários - esperamos - de saúde, mas que teve, como sempre, uma participação destacada e certamente nos acompanha aqui. Eu, sem mais delongas, passo, então, a palavra à Relatora, Profa. Laura Schertel Ferreira Mendes, para a apresentação do relatório. Profa. Laura. A SRA. LAURA SCHERTEL FERREIRA MENDES (Como Relatora. Por videoconferência.) - Muito obrigada, Ministro Cueva, Presidente da Comissão. Os senhores me escutam bem? (Pausa.) Obrigada. Bom, primeiro, muito bom dia a todas e a todos. Eu queria, em primeiro lugar, Ministro, me somar aqui às palavras do senhor e fazer um agradecimento especial, em nome de todos os membros da Comissão, ao nosso amigo e mestre Danilo Doneda, que, por motivos de saúde, não pôde estar aqui conosco. Danilo, esta Comissão e os debates de direito e tecnologia no Brasil devem muito a você. Obrigada por ter nos ensinado a sempre colocar o ser humano em primeiro lugar. Obrigada pelos seus livros que inspiraram tanto as pesquisas de jovens talentosos. Obrigada por ter ajudado a construir essa comunidade de direito e tecnologia tão pujante no Brasil. Se hoje o Brasil é reconhecido internacionalmente pelo trabalho em proteção de dados e regulação de tecnologia, certamente devemos isso ao seu engajamento, à sua rede tão robusta e à generosidade com que sempre compartilhou o seu conhecimento. Com o seu compromisso e sabedoria, você transformou não somente a minha vida, mas a de toda uma comunidade e, porque não dizer, a de todo um país. Por tudo isso, o nosso muito obrigada. Eu queria, então, Ministro, já começar os agradecimentos e, em seguida, já passar, então, para a nossa apresentação rápida. Eu vejo que alguém aqui levantou a mão. (Pausa.) Perfeito. Está ótimo. Acho que não, Ministro. Então, eu queria aqui, em primeiro lugar, agradecer a todos aqueles que permitiram a criação da Comissão e confiaram no nosso trabalho. |
| R | Em seguida, passo à apresentação das minúcias e dos detalhes deste projeto. Em primeiro lugar, um agradecimento ao Presidente do Senado, Rodrigo Pacheco, e ao Senador Eduardo Gomes, Relator dos projetos de lei que tratam de inteligência artificial no Senado, idealizadores desta Comissão que propiciaram todo o apoio necessário para que pudéssemos aprofundar esses debates e termos uma discussão plural e técnica nesta área. Agradeço também a toda a assessoria do Senador na pessoa de Adriana Nunes. Um agradecimento muito especial ao nosso Presidente, Ministro Ricardo Villas Bôas Cueva, que soube liderar esse processo sempre com muita serenidade e com muita firmeza, e à sua chefe de gabinete, Maria Rosa Loula, e a todo o seu gabinete também, que nos apoiou. Um agradecimento especial à Secretaria-Geral da Mesa do Senado, na pessoa do Secretário-Geral Gustavo Sabóia bem como a toda a sua equipe, na pessoa do Reinilson, que realizou a Secretaria da Comissão e que deu todo o apoio necessário para os nossos trabalhos. Eu vou explicar um pouco qual foi a metodologia que a gente usou. Nós nos dividimos em subgrupos temáticos exatamente para que pudéssemos aprofundar, porque os temas são muito amplos e bastante complexos, como todos sabem. Aos coordenadores dos grupos, eu queria também fazer um agradecimento muito sincero porque tiveram um trabalho ainda mais intenso, porque produziram diversos capítulos do anteprojeto que nós apresentaremos. Refiro-me a Danilo Doneda, Miram Wimmer, Clara Iglesias Keller, Bruno Bioni e Mariana Valente. Em seguida, eu vou explicar um pouco qual foi a nossa metodologia. Um agradecimento também ao Frederico D'Almeida, consultor do Senado que nos apoiou todo o tempo na Comissão, com inúmeras notas técnicas e análises valiosas. Um agradecimento muito especial a todos os membros que participaram muito ativamente das discussões, da redação dos textos e de inúmeros comentários e análises que trouxeram, em especial a Profa. Claudia Lima Marques, o Fabrício da Mota Alves, a Estela Aranha, a Ana Frazão, o Victor Marcel, o Juliano Maranhão e o Thiago Luís Santos Sombra. Bom, agora, então, rapidamente, vou fazer um resumo do nosso relatório. Em seguida, já passo a explicar com mais detalhes os dispositivos do anteprojeto que estamos propondo. A Comissão foi instituída em 17 de fevereiro de 2022, por meio do ato do Presidente do Senado, com a finalidade de subsidiar a elaboração de minuta de substitutivo para instruir a apreciação dos Projetos de Lei 5.051, de 2019; 21, de 2020; e 872, de 2021, que têm como objetivo, como o Ministro Cueva, já muito bem colocou, estabelecer princípios, regras, diretrizes e fundamentos para regular o desenvolvimento e a aplicação da inteligência artificial no Brasil. Na primeira reunião ordinária, realizada em 30 de março de 2022, deu-se a instalação da Comissão e também a... (Falha no áudio.) Todo esse trabalho foi feito de forma transparente. E todos os atos da Comissão constam no site do Senado Federal para todos os interessados que tenham interesse e que queiram consultar. Todos os documentos, vídeos das audiências e dos seminários constam, então, no site do Senado Federal. Começamos os trabalhos, conforme tínhamos também já anunciado no plano de trabalho, ouvindo a sociedade de forma multissetorial e plural. Por isso, a segunda, a terceira, a quarta e a quinta reuniões ordinárias da Comissão, ocorridas nos meses de abril e maio, foram dedicadas à realização de audiências públicas. |
| R | Os principais temas que debatemos, nessas audiências públicas, foram oito temas. Na verdade, nove temas: inteligência artificial e regulação, objeto a ser regulado e aspecto sociotécnicos; modelos de regulação e abordagens regulatórias; fundamentos e princípios; contexto econômico, social e benefícios; experiências setoriais; inteligência artificial e riscos, gradação de riscos, hipóteses de riscos inaceitáveis e princípios da precaução; vieses e discriminação; atributos do design sociotécnico e direitos e deveres. Esses foram os temas das audiências públicas, lembrando que, nas audiências, foram ouvidos mais de 50 especialistas. Em complementação às audiências públicas, a Comissão abriu prazo para o envio de contribuições escritas. Foram recebidas mais de cem manifestações de entidades representantes da sociedade civil, de órgãos governamentais, da academia, do setor privado, além de contribuições individuais. Todas as contribuições foram sistematizadas, analisadas e consolidadas em um único documento, que também consta no site da Comissão. Na 6ª Reunião, realizada em 18 de maio de 2022, foi realizado um balanço das audiências públicas e foi nesta reunião que decidimos criar esses subgrupos de trabalhos temáticos a que eu já até aludi, no começo, e fiz um agradecimento especial aos coordenadores desses subgrupos temáticos. Essa metodologia foi adotada para aprofundarmos os temas, dada a complexidade e a amplitude dessa temática da regulação de inteligência artificial. Por isso, então, foram criados cinco subgrupos e cada um deles fez propostas, fez estudos, na verdade, uma análise bastante aprofundada e, ao final, propuseram, então, capítulos determinados para este anteprojeto de lei. Os cinco subgrupos eram: conceitos, fundamentos e princípios, o primeiro; o segundo, direitos e regras de governança; o terceiro, categorização de riscos e avaliação de impacto algorítmico; o quarto, medidas para incentivar a inovação; o quinto, supervisão e fiscalização. Agora, eu passo, então, a explicar e a detalhar, um pouco, as normas desse anteprojeto, como está organizado e quais foram os principais fundamentos para essa organização. Apesar de se encontrar em pleno desenvolvimento, o sistema de inteligência artificial já permeia uma série de atividades públicas e privadas, ganhando relevância e escopo de forma célere, tanto no Brasil quanto no mundo. Os atuais movimentos regulatórios, em diversos países, ilustram a importância do tema e o seu espaço estratégico na agenda global de desenvolvimento social e econômico. A valiosa iniciativa da Câmara dos Deputados foi pioneira na busca por uma regulação de IA, tendo enfrentado questões importantes para o avanço regulatório da matéria, como a previsão de princípios reconhecidos internacionalmente e a identificação do papel dos agentes do setor na concretização desses mesmos princípios. Na sua função, designada pelo Senado Federal, esta Comissão buscou avançar nessas e em outras disposições, de forma que contemplasse tanto os imperativos de desenvolvimento econômico quanto a necessária conformação do sistema aos princípios democráticos e direitos fundamentais protegidos pela Constituição brasileira. O que pautou o trabalho desta Comissão - e isso nós reiterávamos sempre, em todas as reuniões públicas que tivemos, no Senado Federal, - foi sempre a garantia de direitos fundamentais, em especial, a liberdade, a igualdade e o livre desenvolvimento da personalidade. Como sabemos que a sociedade brasileira é uma sociedade amplamente desigual, com um racismo estrutural, com uma discriminação estrutural, esse ponto também sempre foi um ponto que cuidamos e para que olhamos com muito detalhe e com muita atenção. E é por isso, também, que o projeto busca espelhar e busca, eu diria, mitigar esses riscos trazidos pelos sistemas de IA, sabendo que, ao mitigar esses riscos, nós ampliamos também a segurança jurídica do uso, do desenvolvimento, da implementação desses sistemas, garantindo um benefício para toda a sociedade, para todos os afetados, para mercado, para o Estado e para as pessoas de uma forma geral. |
| R | Em primeiro lugar, há a sugestão de uma base principiológica bastante ampla que reflete as preocupações apontadas pelos representantes da sociedade brasileira ao longo de todos esses processos de oitiva tanto no seminário quanto também nas audiências públicas, além das contribuições recebidas por escrito, cuja leitura, inclusive, eu recomendo. Essas contribuições estão todas no nosso site, e eu diria que o conteúdo, a amplitude e a profundidade delas são impressionantes. Então, elencamos os seguintes princípios que todos os sistemas deverão seguir: crescimento inclusivo, desenvolvimento sustentável e bem-estar; autodeterminação e liberdade de decisão e escolha; participação humana no ciclo da inteligência artificial e supervisão humana efetiva; não discriminação; justiça, equidade e inclusão; transparência, explicabilidade, inteligibilidade e auditabilidade; confiabilidade e robustez dos sistemas de IA e segurança da informação; devido processo legal, contestabilidade e contraditório; rastreabilidade das decisões durante o ciclo de vida dos sistemas e atribuição de responsabilidades a uma pessoa natural ou jurídica; prestação de contas, responsabilização e reparação integral de danos; prevenção, precaução e mitigação de riscos sistêmicos; não maleficência e proporcionalidade entre os métodos empregados e as finalidades determinadas e legítimas nos sistemas de inteligência artificial. Houve uma grande atenção em relação à parte conceitual do anteprojeto, visto que dela depende, em grande parte, a aplicação da norma. Sendo assim, optamos pelos seguintes conceitos. Aqui eu vou falar rapidamente sobre o conceito de sistema de inteligência artificial e, para tanto, na verdade, nos inspiramos em diversas propostas, em diversas normas, e, inclusive, também, em muitos documentos internacionais. O sistema de IA é um sistema computacional com graus diferentes de autonomia, desenhado para se inferir como atingir um dado conjunto de objetivos, utilizando abordagens baseadas em aprendizagem de máquina e/ou lógica e representação do conhecimento, por meio de dados de entrada provenientes de máquinas ou humanos, com o objetivo de produzir previsões, recomendações ou decisões que possam influenciar o ambiente virtual ou o real. Esse é um conceito central. Como todos sabem, foi muito discutido também no âmbito da Comissão e em todas essas ocasiões em que pudemos ouvir especialistas. Outros dois conceitos centrais também, nos quais, eu diria, toda a norma está amparada, são o conceito de fornecedor de sistemas de IA e o conceito de operador de sistemas de IA. Fornecedor é a pessoa natural ou jurídica, de natureza pública ou privada, que desenvolva um sistema de IA diretamente ou por encomenda, com vistas à sua colocação no mercado ou sua aplicação em serviço por ela fornecida, sob seu próprio nome ou marca, a título oneroso ou gratuito. E o operador do sistema é a pessoa natural ou jurídica, de natureza pública ou privada, que emprega ou utiliza em seu nome ou benefício o sistema de IA, salvo se o sistema for utilizado no âmbito de uma atividade pessoal e de caráter não profissional. |
| R | Ambos são tratados como agentes de IA, tanto o fornecedor quanto o operador. Esses conceitos são importantes porque sobre eles, na verdade, todo o arcabouço normativo do anteprojeto está amparado, e a gente tem percebido na literatura que, de fato, são duas figuras bastante relevantes. Em alguns documentos, o que a gente chamou de "operador" é chamado de "usuário", mas nós consideramos não utilizar a denominação ou conceito de usuário, porque usuário, no Brasil, é sempre visto como o consumidor ou usuário final, e isso poderia gerar confusão. Por isso que optamos por esses conceitos, "fornecedor" e "operador", sendo ambos considerados agentes de IA. E aqui, então, eu quero já chegar nos três pilares centrais do anteprojeto, que são, em primeiro lugar, a garantia de um rol de direitos às pessoas afetadas pelos sistemas de IA; em segundo lugar, a gradação do nível de riscos impostos pelo sistema; e, em terceiro lugar, a previsão de medidas de governança aplicáveis às empresas que forneçam ou operem sistemas de IA. Quanto ao primeiro pilar da proposta, estamos sugerindo, então, a adoção de um rol de direitos das pessoas que sejam afetadas pelos sistemas de IA e que devem ser observados pelos fornecedores e operadoras desses sistemas, e que são ainda oponíveis diante das autoridades administrativas e judiciais competentes. Tais direitos se aplicam de forma independente da gradação de risco do sistema, bastando que a pessoa seja afetada por esse sistema de IA. Entre os direitos que propusemos, estão o direito à informação prévia quanto às suas interações com sistemas de IA; o direito a ter uma explicação sobre a decisão, recomendação ou previsão tomada por esse sistema; o direito de contestar decisões ou previsões de IA que produzam efeitos jurídicos ou que impactam de maneira significativa os interesses do afetado; o direito à determinação e à participação humana em decisões, levando-se em conta o contexto e o estado da arte do desenvolvimento tecnológico; o direito à não discriminação e à correção de vieses discriminatórios, diretos e indiretos, ilegais e abusivos; e o direito à privacidade e à proteção de dados pessoais, nos termos da legislação pertinente. Esse é o primeiro pilar. Como eu comentei, é o pilar de direitos. O segundo pilar é a gradação de riscos. A gente já vem falando, ao longo das últimas reuniões, que essa é uma marca, eu diria, de todos os modelos ou de todas as regulações hoje em curso, de todas as propostas hoje em curso. É uma modelagem baseada em riscos; é a ideia de que, sempre que o sistema colocar mais risco ou gerar mais risco para as pessoas e para a sociedade, esse sistema, então, para funcionar, precisa, digamos, adotar medidas de governança mais rígidas do que aquelas que geram menos riscos. Então, esse é o conceito (Falha no áudio.) ... projeto em que nós explicamos a categorização dos riscos e explicamos, inclusive, quais são, eu diria, as duas categorias centrais. Uma delas é a chamada de "risco excessivo" e a outra é a chamada de "alto risco". A categoria de risco excessivo trata de sistemas que não podem operar, ou seja, cuja utilização e cuja implementação é vedada pela legislação brasileira. E a categoria de alto risco trata de diversos sistemas cujas finalidades, por acarretarem um alto risco aos direitos fundamentais dos cidadãos e à coletividade, de uma forma geral, precisam ter, eu diria, assumir um número de obrigações maior para que eles possam funcionar de forma adequada e de forma legítima. Então, para que esse sistema possa funcionar, cada fornecedor do sistema, previamente à sua colocação no mercado, realiza uma avaliação preliminar para classificação do grau de risco. Isso é feito de uma forma bastante simples, porque basta o fornecedor analisar, ou o agente de IA analisar, se o seu sistema está ou não no rol conforme a classificação de alto risco proposta no anteprojeto. |
| R | Eu queria, em primeiro lugar, talvez citar rapidamente quais são os sistemas de risco excessivo, cuja implementação e uso são vedados. Aqui elencamos somente três, que são: as técnicas subliminares, que têm por objetivo ou por efeito induzir a pessoa natural a se comportar de forma prejudicial ou perigosa à sua saúde ou segurança; os sistemas que explorem quaisquer vulnerabilidades de um grupo específico de pessoas naturais, tais como associadas a sua idade ou deficiência física ou mental, de modo a induzi-las a se comportar de forma prejudicial à sua saúde ou segurança - aqui a gente percebe, inclusive, um paralelo com diversas práticas já vedadas pelo Código de Defesa do Consumidor, então eu diria que talvez nem haja uma inovação tão grande assim, é apenas para deixar explícito que esses sistemas que têm essa finalidade não podem ser implementados -; e, por fim, um outro grande tema muito debatido é a terceira categoria de risco excessivo, que são os sistemas empregados pelo poder público para avaliar, classificar ou ranquear as pessoas naturais com base em seu comportamento social ou em atributos de sua personalidade por meio de uma pontuação universal, o chamado social scoring. Eu queria lembrar que, em relação a essas categorias de risco excessivo, nós recebemos inúmeras sugestões e contribuições por escrito, muitas da sociedade civil, e também de pesquisadores individuais, grupos na academia que nos alertaram para essa importância de que seria necessária, de que seria importante a vedação a determinados usos e implementações. Eu queria lembrar também que, especificamente para a segurança pública, especialmente aquela biometria que é feita em tempo real, como por exemplo o reconhecimento facial, há uma disposição expressa que nós estamos propondo para que haja, como uma condição de utilização desses sistemas, uma lei federal com inúmeros requisitos para que esse tipo de sistema possa ser utilizado. E assim, então, chegamos aos sistemas de alto risco, que eu vou elencar rapidamente. A gente aqui elencou uma lista que na verdade não é exemplificativa. É a ideia de que possamos ter bastante segurança jurídica na identificação do que é alto risco e do que não é alto risco. São elas: gestão e funcionamento de infraestruturas críticas; educação e formação profissional, incluindo sistemas de acesso a instituições de ensino e formação profissional; recrutamento, triagem, filtragem e avaliação de candidatos; serviços privados e públicos que sejam considerados essenciais; avaliação de crédito - acho que não vou conseguir citar todos -; administração da justiça; veículos autônomos, sempre que haja risco às pessoas; áreas da saúde destinadas a auxiliar diagnósticos e procedimentos médicos; sistemas biométricos de identificação, de investigação criminal; e gestão da migração e controle de fronteiras. E assim eu chego, então, ao terceiro pilar deste anteprojeto, que é o composto pelas medidas de governança, que constituem um conjunto de diligências e processos internos a serem adotados pelos agentes que forneçam ou operem sistemas de IA, como, por exemplo, a adoção de medidas de transparência e de gestão de dados. |
| R | Aqui eu queria fazer um destaque. A gente tem poucas, mas algumas medidas que se destinam e que são aplicáveis a todos os sistemas, de uma forma geral, especialmente essas relacionadas à transparência, e a gente tem outras medidas mais específicas, que são aquelas que se destinam aos sistemas de alto risco, que, portanto, requerem, para a sua implementação, a observação dessas medidas específicas. Entre elas, são: documentação, uso de ferramentas de registro automático da operação do sistema, realização de testes para avaliação de níveis apropriados de confiabilidade, medidas de gestão de dados, para mitigar e prevenir vieses discriminatórios, a composição de uma equipe inclusiva responsável pela concepção e desenvolvimento do sistema e também a adoção de medidas técnicas para viabilizar a explicabilidade dos resultados. Então essas são as principais medidas de governança específicas, destinadas apenas a esses sistemas, aos agentes que operam esses sistemas de IA de alto risco. Eu queria destacar que houve um grande debate na Comissão acerca da necessidade de se criar um capítulo específico, com normas para o poder público, e de se criar um capítulo inteiro, já que as normas para alto risco aplicar-se-ão também para os sistemas de alto risco implementados e desenvolvidos pelo poder público. Optou-se, então, por um dispositivo com obrigações adicionais, por se entender que isso seria suficiente para lidar com esses sistemas de alto risco implementados pelo Estado. E aí, então, a gente tem esse dispositivo com essas medidas adicionais. Eu vou citá-las rapidamente: realização de consultas e audiências públicas prévias sobre a utilização planejada desses sistemas; definição de protocolos de acesso, que permitam o registro de quem utilizou; utilização de dados provenientes de fontes seguras; garantia facilitada e efetiva ao cidadão sobre o direito à explicação e revisão humanas; utilização de interfaces de programação de aplicativos, API, que permita a sua utilização por outros sistemas, para fins de interoperabilidade; e a publicização em veículos de fácil acesso sobre as avaliações preliminares e também os relatórios de impacto. Bom, esses são os três pilares centrais. É bastante coisa - não é, Ministro? -, mas eu já estou chegando ao fim. Em relação à responsabilidade civil, optou-se por um regime que abranja o fornecedor e o operador de sistema de IA, deixando claro que sempre que algum desses agentes causar dano patrimonial, moral, individual ou coletivo, ele será obrigado a repará-lo integralmente, independentemente do grau de autonomia do sistema. E aqui nós estamos propondo uma diferenciação importante neste capítulo, que é a de que, quando se tratar de um sistema de IA de alto risco, ou de risco excessivo, o fornecedor ou o operador respondem objetivamente pelos danos causados, na medida da participação de cada um no dano. E quando se tratar de IA que não seja de alto risco, a culpa do agente causador do dano será presumida, aplicando-se a inversão do ônus da prova em favor da vítima. Lembro que, da mesma forma que o PL 2120 já fazia, nós estamos resguardando a responsabilidade objetiva e solidária prevista no Código de Defesa do Consumidor. Essa não se altera, ou seja, sempre que se tratar de relação de consumo, o que se vai aplicar são as regras de responsabilidade do Código de Defesa do Consumidor. |
| R | Há ainda um dispositivo sobre a necessidade de comunicação de incidentes graves, bem como de um capítulo que incentiva a realização de códigos de boas práticas pelos setores ou pelas empresas, podendo esses códigos, a exemplo do que já acontece com a LGPD, serem aprovados e publicizados pela autoridade competente. Só um minutinho. (Pausa.) O SR. PRESIDENTE (Ricardo Villas Bôas Cueva) - A internet alemã causa surpresas recorrentemente, mas tenho certeza de que voltará em breve. A SRA. LAURA SCHERTEL FERREIRA MENDES (Por videoconferência.) - Ah, Ministro, estou um pouco gripada também. O SR. PRESIDENTE (Ricardo Villas Bôas Cueva) - Muito bem. A SRA. LAURA SCHERTEL FERREIRA MENDES (Por videoconferência.) - Perfeito. Vamos lá. Considerando as contribuições recebidas pela Comissão, por escrito e também nas audiências públicas, ficou claro que a questão de se ter ou não governança centralizada era essencial para gerar segurança jurídica para a aplicação da lei. Afinal, os relatórios de impacto precisam ser enviados para uma autoridade para que possam ser examinados. E também a atualização da lista de finalidade de alto risco precisa ser realizada por uma autoridade, assim como o monitoramento da realização das obrigações pelo sistema de alto risco. Por isso, então, optou-se pela indicação... O SR. PRESIDENTE (Ricardo Villas Bôas Cueva) - Profa. Laura, quer fazer um pequeno intervalo, por cinco minutos para que... A SRA. LAURA SCHERTEL FERREIRA MENDES (Por videoconferência.) - Ah, pode ser. Perfeito! Pode ser O SR. PRESIDENTE (Ricardo Villas Bôas Cueva) - ... possa recuperar a voz, não é? Esse resfriado não é fácil. Obrigado. A SRA. LAURA SCHERTEL FERREIRA MENDES (Por videoconferência.) - Obrigada. O SR. PRESIDENTE (Ricardo Villas Bôas Cueva) - Então, uma pequena pausa. Está suspensa, então, por cinco minutos a sessão. (Suspensa às 10 horas e 45 minutos, a reunião é reaberta às 10 horas e 50 minutos.) |
| R | O SR. PRESIDENTE (Ricardo Villas Bôas Cueva) - Declaro reaberta a sessão. Profa. Laura, então, com a palavra. A SRA. LAURA SCHERTEL FERREIRA MENDES (Como Relatora. Por videoconferência.) - Obrigada, Ministro. Vou falar rapidamente para conseguir encerrar o relatório. Então, optamos por uma autoridade competente a ser designada pelo Poder Executivo. A proposta prevê também sanções aplicáveis em caso de descumprimento e uma sanção com medidas para fomentar a inovação na qual constam duas medidas principais, tanto a previsão de que a autoridade competente poderá autorizar o funcionamento de sandboxes, como também prevê direitos, um direito específico relacionado ao uso e à mineração de dados. Bom, eu queria, então, com isso, Ministro, agradecer a atenção de todos, reiterar o agradecimento a todos os membros da Comissão pelo trabalho incansável, em especial pela liderança do senhor, firme, serena, do Ministro Ricardo Villas Bôas Cueva. Essa proposta será apresentada ao Presidente do Senado, Rodrigo Pacheco, e ao Senador Eduardo Gomes na semana que vem, momento em que ela será publicizada. Retorno ao senhor a palavra, Ministro. Muito obrigada. O SR. PRESIDENTE (Ricardo Villas Bôas Cueva) - Muito obrigado, Profa. Laura. Agora, então, depois desse cuidadoso relatório apresentado, que reflete bem o trabalho todo feito pela Comissão, que levou em consideração inúmeras informações e contribuições da sociedade civil de modo geral e de especialistas, eu coloco em discussão o relatório. |
| R | Consulto as senhoras e os senhores membros da Comissão se têm alguma consideração a fazer. (Pausa.) Em votação. As senhoras e os senhores que aprovam permaneçam como se encontram. (Pausa.) Aprovado então o relatório. Eu coloco em votação também as Atas da 9ª e da 10ª Reuniões da Comissão, solicitando a dispensa de suas leituras. Aqueles que as aprovam permaneçam como se encontram. (Pausa.) Aprovadas. Eu reitero então, mais uma vez, o agradecimento a todos os integrantes da Comissão, que se empenharam enormemente para que este relatório acontecesse, que creio ser o reflexo de um trabalho muito cuidadoso e também de todas as contribuições que foram apresentadas, sem exceção, e foram levadas em consideração. Um destaque, claro, à Relatora, pelo enorme zelo ao coordenar o trabalho todo de vários subgrupos, e a todos os integrantes desses grupos, é claro, e mais uma vez o registro especial e a nossa homenagem ao Prof. Danilo. Quero agradecer também aos servidores do Senado, na pessoa do Reinilson, sem os quais não teríamos conseguido fazer avançar esse trabalho tão importante e, ao mesmo tempo, complexo e difícil; à Dra. Maria Rosa, minha chefe de gabinete; aos Senadores Eduardo Gomes e Rodrigo Pacheco. Acho que o Dr. Fabrício quer fazer uma observação. O SR. FABRÍCIO DE MOTA ALVES - Muito obrigado, Ministro, Sr. Presidente. Só quero fazer um registro, nós que acompanhamos toda a construção, a criação e batalhamos pela constituição desta Comissão: quero parabenizar sobretudo V. Exa. pelo brilhantismo da condução magistral dos trabalhos. Acho que não haveria melhor Presidente para nos conduzir do que o senhor, Ministro. Quero parabenizar também a Profa. Laura, pela serenidade, pela diplomacia e pela já testada e reforçada capacidade técnica de conduzir os trabalhos. Um registro especial de agradecimento ao Presidente Pacheco, que nos deu esta grande oportunidade de ponderar o processo legislativo sobre assunto tão complexo e desafiador - o Ministro bem sabe que no início tínhamos a preocupação em função do ineditismo da proposta; de fato, em termos globais, o desafio foi imenso -; e, claro, registrar também ao Senador Eduardo Gomes, Relator da matéria, que foi o nosso condutor de todo esse debate. Quero também, Ministro, fazer um registro muito especial, muito carinhoso ao Prof. Danilo, um grande amigo, uma pessoa por quem tenho estima, um grande parceiro também do Conselho Nacional de Privacidade e Proteção de Dados. Talvez eu não tenha tido melhor oportunidade de expressar a ele quão fácil foi e tem sido o desafio de exercer o meu mandato perante o conselho com essa atuação dele sempre muito equilibrada. Nós dois, que somos representantes das Casas Legislativas, sempre dialogamos muito, representando inclusive o debate democrático que deve permear a nossa participação e a nossa representação no conselho. E esse debate democrático foi facilitado pelos laços de amizade que nós temos, especialmente pela incrível capacidade do Danilo de ouvir e a facilidade de convencer. |
| R | Então, Professor, deixo aqui - sei que você está nos ouvindo - o meu abraço carinhoso e minha torcida, sempre muito engajada, para que tudo corra como é a vontade de Deus e que tudo dê certo. Estamos aqui realmente muito justamente homenageando o nosso querido colega, membro da Comissão e também pilar de todo esse trabalho que nós fazemos. Eu acho que o Danilo, como eu falava agora há pouco com o Filipe, é uma pedra de fundação de tudo isso que a gente está vivendo. Presidente, parabéns! Muito obrigado por todo esse empenho. Era isso. O SR. PRESIDENTE (Ricardo Villas Bôas Cueva) - Mais uma vez, então, agradeço a participação de todos, destacadamente - o Sr. Filipe quer falar - à Profa. Laura, pelo cuidado, pela paciência e pelo zelo - mesmo agora gripada e com uma internet abaixo da crítica, não é, Profa. Laura? Agora o Prof. Filipe vai falar. O SR. FILIPE MEDON - Obrigado, Ministro. Primeiro, bom dia a todas e a todos! Gostaria de agradecer imensamente pela honra e pelo privilégio de ter integrado e aprendido tanto nesta Comissão, não apenas com seus membros, mas também com todos aqueles que foram ouvidos ao longo das audiências públicas e dos seminários. Gostaria de enaltecer a iniciativa do Senado em ter inaugurado esta Comissão para ouvir a sociedade nesse tema de importância tão fundamental. Nessa direção, gostaria de parabenizar o Senador Eduardo Gomes e o Ministro Cueva pela sua liderança e inspiração; a Profa. Laura, pela sua habilidosa condução dessa hercúlea tarefa de relatoria do texto e também pela sensibilidade em acolher sugestões das mais diversas. E não menos importante, como já tão bem ressaltado no dia de hoje, gostaria de deixar a minha homenagem sincera ao querido amigo e Prof. Danilo Doneda, com quem tive o privilégio de dividir as discussões de subgrupo. Danilo, aprender com você é um privilégio e uma honra sem tamanho! Obrigado por ser a nossa grande referência. Ressalto que tivemos a oportunidade de chegar a um texto que efetivamente concretiza direitos, que era uma grande preocupação, e põe o ser humano em primeiro lugar. Buscamos, como foi dito ao longo das audiências, regular não a tecnologia, mas as suas interações com o ser humano, evitando uma irresponsabilidade ou eventuais escudos de imunidade. O consenso interno da Comissão em relação ao texto apenas serve para evidenciar o fruto de grandes discussões que tivemos aqui, que travamos ao longo desses últimos meses. Esse não é um trabalho pronto e acabado, mas é fruto de muito trabalho. E a participação da sociedade, que foi uma marca dos nossos trabalhos, continua agora com o Congresso Nacional. Muito obrigado. O SR. PRESIDENTE (Ricardo Villas Bôas Cueva) - Mais alguém? A SRA. LAURA SCHERTEL FERREIRA MENDES (Por videoconferência.) - Ministro, me permite? O SR. PRESIDENTE (Ricardo Villas Bôas Cueva) - Por favor, Laura. A SRA. LAURA SCHERTEL FERREIRA MENDES (Por videoconferência.) - Eu queria só, na verdade, me somar também aos colegas. Quero destacar que esse foi um texto a que a gente chegou por unanimidade. Então, não teve dissenso. Na verdade, a gente o construiu coletivamente. Acho que isso foi um ganho muito interessante. Acho que a gente nem imaginou que a gente fosse conseguir ter essa unanimidade. Acho que isso foi muito importante. E eu tenho sempre dito que esse relatório, na verdade, não é meu, é um relatório coletivo porque, de fato, absolutamente todos trabalharam por ele e nele. Então, eu queria deixar destacada essa participação coletiva e essa elaboração coletiva, Ministro. Muito obrigada. |
| R | O SR. PRESIDENTE (Ricardo Villas Bôas Cueva) - Eu também não posso deixar de registrar, eu acho que nós temos ouvido isso nos últimos dias, e essa surpresa geral com a qualidade do trabalho, que reflete talvez uma opinião média de todos os membros. Havia o receio de que pudéssemos errar para menos ou errar para mais. Parece que agora chegamos ao consenso quanto a matérias difíceis, complexas. E esse consenso reflete as contribuições que recebemos, tanto da sociedade civil de modo geral, como dos especialistas. Então, eu espero que realmente esse trabalho possa servir de contribuição aos Legisladores para suas ponderações de análise. O Prof. Juliano quer falar também? O SR. JULIANO SOUZA DE ALBUQUERQUE MARANHÃO - Bom, primeiramente gostaria de enaltecer também a brilhante condução do Ministro Ricardo Villas Bôas Cueva, da Profa. Laura Schertel, em relação aos trabalhos, parabenizar a todos que participaram pelas discussões e por todo o aprendizado que foi possível nesse processo. Gostaria só de fazer um destaque em relação ao recorte que nós fizemos, seguindo aquilo que nós pudemos acompanhar e estudar em relação à experiência internacional, em relação às melhores práticas e a toda a discussão e o debate na literatura em torno do tema, que é o fato de que nós fizemos um recorte focado nas relações entre fornecedores, operadores de inteligência artificial, seus usuários e os impactados. Existem outros temas e preocupações ligadas à inteligência artificial e a seus impactos, como o impacto ambiental, o impacto sobre o emprego, as discussões sobre a canalização de investimentos e parcerias público-privadas para o desenvolvimento da inteligência artificial, que certamente serão objeto de mais debates e discussões em termos de políticas públicas e possivelmente de futuras regulações. São temas que obviamente dizem respeito à estratégia brasileira de inteligência artificial e que serão ainda continuamente debatidas na esfera pública. E também gostaria de deixar o último registro aqui com relação ao nosso querido colega Danilo Doneda. Eu me lembro muito de encontrar o Danilo em palestras, na década de 90, ele falando sobre proteção de dados pessoais, eu falando sobre inteligência artificial. Nossas palestras sempre eram deixadas para o final, quando as pessoas já iam embora, não é? E quero destacar o pioneirismo do Danilo em relação a esses temas de direito digital, de informática jurídica, que inspirou, com suas obras, com seus trabalhos, uma série de estudiosos que se dedicaram e vêm desenvolvendo conhecimentos científicos sobre esse tema e influenciou as políticas públicas com uma produção acadêmica de alto impacto. Acho que ele é um grande pioneiro e certamente teve um papel fundamental no desenvolvimento dessa matéria no cenário brasileiro e internacional. O SR. PRESIDENTE (Ricardo Villas Bôas Cueva) - Muito bem. Nada mais havendo, então, a tratar, declaro encerrada a presente reunião, lembrando a todos que na terça-feira, dia 6 de dezembro, teremos a entrega formal do relatório ao Senador Rodrigo Pacheco, Presidente do Senado. |
| R | Esse ato solene e formal será precedido de uma reunião, às 14h30min, aqui no Senado, e só então, só após a entrega formal, é que o documento será divulgado ao público, já que ainda há pequenos ajustes formais a fazer. Muito obrigado a todos. (Iniciada às 10 horas e 15 minutos, a reunião é encerrada às 11 horas e 04 minutos.) |

