Notas Taquigráficas
18/05/2022 - 6ª - Comissão de Juristas responsável por subsidiar elaboração de substitutivo sobre inteligência artificial no Brasil
| Horário | Texto com revisão |
|---|---|
| R | O SR. PRESIDENTE (Ricardo Villas Bôas Cueva) - Bom dia. Havendo número regimental, declaro aberta a reunião da Comissão Temporária Interna que se destina a subsidiar a elaboração de minutas de substitutivo para instruir a apreciação dos Projetos de Lei 5.051, de 2019, 21, de 2020, e 872, de 2021, que têm como objetivo estabelecer princípios, regras, diretrizes e fundamentos para regular o desenvolvimento e a aplicação da inteligência artificial no Brasil. Antes de iniciarmos a reunião, há algumas atas pendentes de aprovação ainda - estão disponíveis nos sites da Comissão -, as Atas da 1ª à 5ª Reunião, que eu submeto à aprovação. |
| R | Aqueles que estiverem de acordo permaneçam como se encontram. (Pausa.) Foram aprovadas, então, as atas. A reunião de hoje se destina à realização de um balanço das audiências públicas realizadas até hoje. E, para isso, eu passo a palavra, então, à Relatora, Profa. Laura Mendes. A SRA. LAURA SCHERTEL FERREIRA MENDES (Como Relatora.) - Obrigada, Ministro. Bom dia a todas e a todos. Eu cumprimento o nosso Presidente da Comissão, Ministro Ricardo Villas Bôas Cueva, todos os colegas e membros desta Comissão e as senhoras e os senhores presentes que nos assistem. Hoje realizamos a sexta reunião ordinária da Comissão de Juristas, que, como muitos dos senhores têm acompanhado, tem trabalhado intensivamente para ouvir a sociedade e obter subsídios de todos os setores sociais para o cumprimento de suas atribuições. Por solicitação do Presidente da nossa Comissão, farei hoje um rápido balanço das audiências públicas realizadas ao longo do último mês. Foram quatro dias intensos de debates plurais e multissetoriais, dos quais participaram cerca de 60 convidados, em 12 painéis que totalizaram mais de 20 horas de audiências públicas, todas realizadas no formato híbrido para permitir a maior participação possível. Todas as audiências foram gravadas e transcritas, e o material está acessível na página da Comissão no site do Senado. Gostaria de agradecer, neste momento, todo o apoio prestado pelo Senado Federal na realização dessas audiências públicas, em especial da Presidência do Senado, do gabinete do Senador Eduardo Gomes, na pessoa do Senador e na pessoa também da sua assessora, Dra. Adriana Nunes; da Secretaria-Geral da Mesa, na pessoa do Dr. Gustavo Sabóia e de toda a sua equipe. Cito aqui Leando, Renilson e todos os demais servidores que apoiaram tecnicamente e operacionalmente a realização das audiências públicas. Gostaria de destacar que a Comissão prorrogou o prazo para o recebimento de contribuições por escrito para o dia 10 de junho. Para fazer esse balanço das audiências públicas me vali de todo o material gravado, transcrito, bem como das anotações e reflexões dos membros da Comissão que me foram enviadas, as quais agradeço imensamente. Então, vamos fazer aqui um balanço a partir de cada um dos quatro dias. No primeiro dia, nós debatemos questões muito interessantes e que nos parece que precisariam ser debatidas no início de qualquer reflexão sobre regulação. Por que e quando regular a inteligência artificial? O que é regular? Como regular? Nesse primeiro ponto de por que e quando regular ficou claro aqui, com as discussões dos nossos primeiros painéis, que todos os participantes destacaram essa necessidade da regulação como forma de mitigação dos seus riscos. Falou-se aqui em alguns dos riscos, como o Prof. Virgilio Almeida: vigilantismo, perda de autonomia, riscos de discriminação e risco à participação democrática. E cito aqui também o Prof. Edson Prestes, que, numa afirmação muito interessante, colocou que todos os direitos humanos podem ser afetados pela inteligência artificial e que estamos falando, então, no fim do nosso futuro, e é por isso que precisamos ter a máxima cautela nessa regulação e também buscar uma discussão multissetorial, plural e diversa - exatamente em relação a esses efeitos. Então, parece haver um grande consenso sobre o timing e sobre a necessidade de regulação. E o que regular? Também houve um consenso em relação a isso, de que é preciso observar a diversidade de aplicações de inteligência artificial e de contextos e os contextos de sua aplicação, e não elaborar uma única regra para todas as situações. É preciso uma regra diferenciada de acordo com as suas aplicações, os seus riscos e diferentes contextos. |
| R | Também se falou sobre quais setores deveriam ser regulados e muito se discutiu. E eu diria que também houve um consenso em relação a esse ponto, de que tanto o setor público quanto o setor privado precisam ser regulados. Inclusive aqui eu queria dizer que alguns dos painelistas citaram expressamente a importância da área criminal. E a área criminal em segurança pública tem um aspecto talvez ainda mais sensível não só pelos efeitos na liberdade individual das pessoas, mas também pelo fato de que ela é, eu diria... Há uma grande lacuna no nosso ordenamento porque a Lei Geral de Proteção de Dados aplica-se apenas em termos gerais, genéricos a essa área. Então, nós não temos ainda uma LGPD penal, nós não temos uma regulação específica, o que torna essa área ainda mais sensível. E talvez a última pergunta do dia e talvez a mais sensível e interessante: como regular? E aqui me parece também ter havido um certo consenso não só desse primeiro dia, mas - e é algo que eu vou retomar depois, ao final deste balanço - em todos os quatro dias, em todos os doze painéis: houve, de certa forma, um consenso sobre a necessidade de que tenhamos princípios, normas gerais, mas também a concretização desses princípios por meio de procedimentos e normas concretas. Foi muito interessante como esse ponto foi levantado ao longo de todos os painéis, ao longo de todos os temas. Então, esse também é um ponto importante. A discussão sobre responsabilidade civil, que sempre vem à tona seja nas matérias de jornais, seja nos debates acadêmicos, também é um tema importante, mas os painelistas deixaram claro que precisamos, sim, discutir um sistema ex-post de reparação, mas também toda a sistemática de proteção não pode se resumir a isso. Nós precisamos também de instrumentos ex-ante amparados em uma gradação de riscos. É preciso, inclusive - e isso também foi falado ao longo de muitos dos painéis, eu diria do começo ao fim -, decidir também sobre o que não pode ser implementado ou nem sequer desenvolvido. Falou-se da necessidade de eventualmente se banirem alguns usos de tecnologias com riscos inaceitáveis, especialmente quando pensamos em manipulação da democracia, de crianças ou quando se trata de sistemas de vida ou morte. O SR. EDUARDO GOMES (Bloco Parlamentar Vanguarda/PL - TO) - Bom dia a todos. Bom dia, Dra. Laura, bom dia, Ministro Cueva. O objetivo da minha passagem por aqui hoje é não atrapalhar, por isso que eu não vou falar nada. Mas quero dizer que, ainda amanhã, teremos reunião de Líderes com o Presidente Rodrigo Pacheco na intenção de discutir alguns temas que devem ser debatidos antes das eleições e toda a dificuldade de calendário da Casa. |
| R | Então, serve também, além de cumprimentá-los, Ministro, para me colocar à disposição. Se houver alguma deliberação que precise de entendimento na Casa, estou à disposição para levar amanhã na reunião de Líderes. Nós temos um almoço lá na reunião com todos os Líderes. Quero dizer da minha satisfação de ver aqui a Comissão em funcionamento. E, no dia a dia que a gente vive no Brasil, entendo que cada vez mais é preciso o entendimento desta Comissão para balizar esses temas todos que nós estamos discutindo sobre inteligência artificial e sobre a vida moderna, a vida nas redes. Participei agora, minutos atrás, de um evento da Meta falando sobre a segurança na internet 50 mais. Fui muito à vontade para esse evento, porque eu estou com 56 anos e estou com toda dificuldade. E lá nós levantamos uma curiosidade interessante. Eu vou só comentar aqui, mas já vou sair. Todos os instrumentos da rede foram construídos, propagados e defendidos por pessoas muito jovens, muito jovens, todos conhecidos aí. Mas, curiosamente, eu fiz uma lista por vontade própria, aí que vem um pouquinho da... eu disse que eu sou especialista digital de ouvido. Os maiores influenciadores do mundo têm acima de 60 anos. A rede hoje é feita pelos jovens para dar influência aos maduros. Então, a gente tem que buscar uma coisa aí nesse centro. Então, muito obrigado por essa passagem, bem-vindos. E quero dizer que eu me coloco à disposição. Se amanhã tiver algum encaminhamento da Comissão que precise de deliberação ou qualquer coisa assim... Amanhã é um dia importante, mas, a qualquer momento, todas as vezes em que for convocado para ajudar no andamento dos trabalhos, podem contar comigo. Muito obrigado. A SRA. LAURA SCHERTEL FERREIRA MENDES (Como Relatora.) - Queria então registrar mais uma vez - não é, Ministro? - o nosso agradecimento aqui ao gabinete do Senador Eduardo Gomes por todo apoio e por todo incentivo, inclusive, à criação da Comissão. Então, prosseguindo, ao terminar esse balanço do nosso primeiro dia, ficou claro que nós precisamos de um sistema de reparação civil, de discutir a responsabilidade civil, mas também precisamos pensar em regras ex ante, inclusive discutir e debater se há tecnologias, quais delas, em quais usos e em quais contextos precisariam ser banidas. Como eu comentei, isso foi algo que foi falado desde o começo até o fim dos painéis nas audiências públicas. E, ao lado de princípios, falou-se muito que a futura norma precisa também contar com obrigações concretas e procedimentos que orientem concretamente os desenvolvedores e toda a cadeia de desenvolvimento e de aplicação. Princípios podem ser muito eficientes para orientar o Poder Judiciário, mas nem sempre são igualmente eficientes para orientar o setor privado, desenvolvedores etc. Então, essa regulação tem a responsabilidade de concretizar os direitos fundamentais na área de tecnologia, pensando inclusive em normas de incidência específica diante de riscos tão concretos e atuais. Passando agora então para o nosso segundo dia, nós discutimos aqui painéis relacionados a contextos econômicos e sociais e também se iniciou a discussão sobre algumas experiências setoriais além da discussão sobre riscos e o princípio da precaução. |
| R | No painel sobre o contexto econômico-social e mineração de dados, discutiu-se a importância da mineração de dados especialmente para a pesquisa e como isso está crescentemente presente nas legislações recentes sobre o tema, sem que a fruição das obras e remuneração de autores e artistas seja afetada. Eu cito aqui o Alan dos Santos, Professor, que disse: há um paralelo entre os países que permitem a mineração de dados e o grau de inovação tecnológica. Quem faz essa mineração de dados no Brasil muitas vezes está no limite da legalidade. Possibilitar essa mineração de textos e de dados é essencial para a pesquisa científica contemporânea. E agora, passando para o... Nesse painel, a gente também discutiu outros temas como, por exemplo, o tema da saúde. E eu cito aqui a Dra. Rogéria Cruz, que tratou especificamente da inteligência artificial na área de saúde. Ela destacou seis princípios da OMS, da Organização Mundial da Saúde, quanto ao desenvolvimento de inteligência artificial: que ela proteja a autonomia humana; que promova o bem-estar, a segurança e o interesse público; que garanta transparência, inteligibilidade e explanabilidade; que promova a responsabilidade identificada, a inclusão e a equidade; e também uma inteligência artificial responsiva e sustentável. Nesse painel, a gente ainda teve a presença do Dr. Pedro Hartung, que falou sobre a necessidade da proteção das crianças no contexto de aplicações de inteligência artificial. Ao afirmar que temos uma geração de crianças cuja infância já foi registrada na internet, é necessário evitar que as escolhas que elas fizeram impactem o futuro e modelem o comportamento delas. Afirmou também que crianças e adolescentes precisam estar no centro de discussões de regulação de tecnologia, não somente por serem uma população particularmente vulnerável a seus efeitos, mas também pela representatividade em números: consistem em um terço dos usuários de internet no mundo. No painel dedicado a riscos, nós tivemos inúmeras discussões, mas eu queria citar aqui a pesquisadora Maria Cecília Oliveira, que fez uma importante contribuição ao indicar que os três projetos de lei ora analisados carecem de uma procedimentalização da avaliação de risco. Então, embora se discuta muito que a avaliação de riscos e que a própria análise de riscos deva e deve ser talvez o principal norte, o principal guia de todos os projetos ou da regulação de uma forma geral, a procedimentalização dessa avaliação ainda precisa ser feita ou construída. É preciso também considerar a adoção de avaliações de impacto orientada a princípios e a direitos, a fim de que se tenha uma prevenção de riscos aos direitos humanos de forma efetiva, tendo como eixo central de análise o ser humano e a obrigatoriedade de essa análise ser realizada em momento anterior à colocação da tecnologia no mercado. Ao final desse debate, os painelistas concordaram com a necessidade de que certos usos precisam ou poderiam ser banidos, a exemplo de máquinas com decisão de vida ou morte, reconhecimento facial para fins de segurança pública, entre outros. Chegamos então ao nosso terceiro dia de audiências públicas, em que debatemos o risco das aplicações de IA, ou seja, continuamos debatendo esses riscos, em especial sob o ponto de vista da discriminação algorítmica e dos vieses dos algoritmos. Debatemos o risco de que essas aplicações possam exacerbar e consolidar as desigualdades estruturais presentes na nossa sociedade. |
| R | Discutimos também a necessidade de a regulação levar em conta o princípio da igualdade substancial para corrigir eventuais vieses. Um importante alerta foi feito para o risco de discriminação nas aplicações pelo setor público, que podem ser ainda mais danosas para o cidadão se sistemas de autuação, fiscalização ou de implementação de políticas públicas passem a selecionar e a classificar os indivíduos no âmbito das competências privativas do Estado. Ao reconhecermos o preconceito e o racismo estrutural no país, não é possível aceitar que técnicas de machine learning, que são extremamente hábeis para aprender sobre o nosso passado por meio de exemplos, simplesmente reproduzam, codifiquem e consolidem para o futuro essa discriminação pretérita e atual da sociedade. A solução justa nesses casos é exatamente a abertura para um futuro diferente, mais igualitário, e não a reprodução de estruturas discriminatórias e racistas. Como conclusão das Mesas de Risco e Discriminação, neste terceiro dia de audiências, destaco que elas reforçaram ainda mais a necessidade de buscarmos soluções concretas e eficazes para além de normas gerais e princípios, garantindo a igualdade formal e material estabelecida na nossa Constituição Federal. Conforme a fala do Prof. Tarcizio Silva, existe a necessidade de vermos a regulação da inteligência artificial, não só de uma perspectiva principialista, mas também dos mecanismos de enforcement necessários e o compromisso considerando todo o histórico que temos já registrado de discriminação e racismo algorítmico sobre a inclusão explícita de antirracismo e discriminações negativas e interseccionais. Afinal, em muitas áreas vitais para o indivíduo e a sociedade, aprender com o passado significa exatamente não repeti-lo, e, para que isso se torne realidade no contexto das tecnologias de inteligência artificial, precisamos de padrões, obrigações, procedimentos, auditorias e orientações concretas e eficazes para toda a cadeia de desenvolvimento e aplicação. Chegamos, enfim, Ministro, ao nosso quarto dia e último das audiências públicas. Discutiu-se muito tanto responsabilidade civil quanto todo um sistema de enforcement, de governança e de fiscalização. Em relação à responsabilidade civil, eu acho que, neste último ponto, é importante dizer que há temas talvez com maior consenso e temas também com maiores controvérsias. Em relação à responsabilidade civil, houve uma crítica firme dos especialistas ao regime adotado pelo PL 21, de 2020, que estabelece a responsabilidade subjetiva como regime principal. Debateu-se sobre a real necessidade da futura lei de criar um regime específico de responsabilidade civil ou se bastaria aplicar o regime de responsabilidade atualmente vigente. Foi mencionada também a proposta do Parlamento europeu - e aqui menciona, inclusive, uma fala da Profa. Dora Kaufman nos primeiros painéis mas que também dialoga muito bem com esse painel de responsabilidade civil. Ela trouxe, inclusive, o exemplo da proposta do Parlamento europeu que estabelece a responsabilidade objetiva para as aplicações de alto risco e a subjetiva com presunção de culpa para as demais aplicações. Em relação ao sistema de enforcement, houve um debate importante sobre o regime de governança a ser adotado: se descentralizado pelas agências reguladoras ou centralizado eventualmente por uma agência central. Debateu-se também que, mesmo num regime descentralizado, haveria necessidade de se criar um mecanismo de coordenação, o que não foi estabelecido ainda nas propostas normativas em análise. Houve um grande debate sobre a natureza desse órgão ou entidade, bem como sobre as suas competências. |
| R | Para conclusão, de modo geral, nós vimos em todos os dias das audiências a necessidade de irmos além dos projetos atuais, de modo a trazer mais concretude, uma maior concretude na aplicação de direitos, normas e obrigações. Estamos numa fase de maior maturidade sobre os riscos reais da inteligência artificial e podemos dar um passo adiante em relação às declarações de princípios éticos que marcaram toda essa última década. A complexidade do fenômeno exige uma combinação de instrumentos regulatórios: normas concretas, normas gerais, instrumentos ex ante mais instrumentos ex post, sempre respeitando a diversidade de aplicações e de riscos de inteligência artificial. Eu agradeço, aqui, Ministro, mais uma vez, a todos os membros da Comissão, que se engajaram tanto em todos os debates, que encaminharam as suas reflexões, e espero ter feito um balanço que esteja aí, digamos, de alguma forma de acordo com o que a maioria da Comissão pensa. Passo a palavra para o senhor, caso também queira fazer algum tipo de complementação. Muito obrigada. O SR. PRESIDENTE (Ricardo Villas Bôas Cueva) - Gostaria apenas de cumprimentar a Profa. Laura pela completude, precisão, clareza e objetividade do relatório, que será colocado à disposição no site da Comissão para o público em geral e para que os integrantes da Comissão que eventualmente queiram fazer sugestões ou acréscimos possam diretamente encaminhá-las à Relatora, Profa. Laura, para que eventualmente haja alguma modificação no texto. O texto realmente é muito preciso e consegue em poucas palavras sintetizar muito bem todo esse esforço que se fez aqui. Eu cumprimento a todos os integrantes da Comissão pela participação, pelo empenho que tiveram ao longo das audiências públicas e, com isso, acho que podemos, então, encerrar esta reunião, que foi muito bem-sucedida para dar um retrato dos trabalhos até agora realizados com as audiências públicas. Muito obrigado a todos. Declaro encerrada, então, esta sessão. (Iniciada às 10 horas e 11 minutos, a reunião é encerrada às 10 horas e 34 minutos.) |

