Discurso durante a 101ª Sessão Deliberativa Ordinária, no Senado Federal

Prestação de contas à sociedade de S. Exa., Vice-Presidente da Comissão Temporária de Inteligência Artificial, sobre a regulamentação do uso da inteligência artificial e as perspectivas no país para essa área.

Autor
Astronauta Marcos Pontes (PL - Partido Liberal/SP)
Nome completo: Marcos Cesar Pontes
Casa
Senado Federal
Tipo
Discurso
Resumo por assunto
Segurança Digital:
  • Prestação de contas à sociedade de S. Exa., Vice-Presidente da Comissão Temporária de Inteligência Artificial, sobre a regulamentação do uso da inteligência artificial e as perspectivas no país para essa área.
Publicação
Publicação no DSF de 11/07/2024 - Página 46
Assunto
Economia e Desenvolvimento > Ciência, Tecnologia e Informática > Segurança Digital
Indexação
  • PRESTAÇÃO DE CONTAS, SOCIEDADE, COMISSÃO TEMPORARIA, INTELIGENCIA ARTIFICIAL, REGULAMENTAÇÃO, LEGISLAÇÃO, REALIZAÇÃO, AUDIENCIA PUBLICA.

    O SR. ASTRONAUTA MARCOS PONTES (Bloco Parlamentar Vanguarda/PL - SP. Para discursar.) – Boa tarde, boa tarde a todos, Presidente, a todos aqueles que nos acompanham presencialmente e pelas redes do Senado e pela TV Senado.

    Hoje eu gostaria de falar a respeito de inteligência artificial.

    Eu sou Vice-Presidente da Comissão Temporária de Inteligência Artificial e provavelmente o membro daqui com maior experiência no setor, nessa tecnologia. Seja por trabalhos anteriores, de algumas décadas nesse setor, mas também como Ministro de Ciência, Tecnologia e Inovações. A inteligência artificial era um dos nossos eixos estratégicos.

    Inclusive, durante aquele período como Ministro, nós criamos oito centros de inteligência artificial, focados em cidades inteligentes, como o Saúde 4.0 e o Indústria 4.0. Hoje em dia, já são dez centros.

    Mas a ideia deste pronunciamento é, basicamente, uma prestação de contas à sociedade do que está sendo feito com a regulamentação da inteligência artificial e quais são as perspectivas, agora, dessa regulamentação, em termos de tempo, e como o conteúdo tem sido tratado e será abordado nos próximos passos.

    Como primeiro ponto, aqui, eu gostaria de parabenizar o nosso Presidente da Comissão Temporária de Inteligência Artificial, o Senador Carlos Viana, de Minas Gerais, que, ontem, teve uma decisão bastante sábia de adiar a votação, porque o texto ainda precisa de algumas melhorias que eu vou citar aqui. Também gostaria de parabenizar o nosso Relator, o Senador Eduardo Gomes, do Tocantins, que também teve uma paciência muito grande e muito importante de ouvir os diversos setores.

    Logicamente, com isso, existem muitos interesses, lembrando que a inteligência artificial é algo que afeta todos os setores, basicamente, no país e no mundo, e vai afetar, cada vez mais, positivamente, em 98% dos casos – hipoteticamente falando um número aqui –, e há algum risco aí no restante desse percentual. Portanto, ela precisa ser tratada com seriedade, porque isso envolve muitos setores, envolve a economia do país, envolve a competitividade do país e nos envolve, logicamente, como usuários, também. Há alguns riscos relacionados a isso.

    Então, eu gostaria de começar, colocando o que, idealmente, uma legislação para regulação de inteligência artificial deve ter. Lembrando que, quando nós falamos de regulação de inteligência artificial, existe um pequeno erro aí. Na verdade, é a regulação do uso da inteligência artificial, porque não há possibilidade de você regular uma tecnologia, que é o caso da inteligência artificial.

    Então, o primeiro ponto é que, idealmente, essa legislação precisa ser principiológica e precisa se atentar – e muito – à questão de obsolescência. O que eu quero dizer com isso? Uma legislação como essa deve conter, no seu texto, itens que, daqui a cinco anos ou dez anos, estejam ainda válidos, para que nós não tenhamos que ficar modificando essa legislação, atualizando-a, à medida que a tecnologia evolui. Ela evolui, eu diria, a minuto. Portanto, esse é um primeiro cuidado que, idealmente, uma legislação como essa precisa ter.

    O segundo ponto é que ela precisa ser baseada em riscos, ou seja, precisa ver os resultados da inteligência artificial e como isso representa riscos. Há dois tipos de riscos. O primeiro risco é o risco à competitividade do país, então, nós não podemos criar uma legislação que restrinja tanto a pesquisa e o desenvolvimento desse setor quanto também a competitividade, ou seja, as nossas empresas a utilizarem para melhorar a sua eficiência e para a atração de empresas, negócios, no Brasil, gerando, logicamente, novos produtos, novos serviços, nota fiscal ao país e mais empregos no país. O primeiro risco que nós não podemos correr é prejudicar o desenvolvimento e a competitividade do país.

    O segundo risco é com relação ao uso e como isso pode afetar a privacidade, a ética, a discriminação, por exemplo. Então, isso é outro risco, é o segundo risco de que nós temos que cuidar, de uma forma bastante intensa, numa legislação como essa.

    O terceiro ponto importante de uma legislação como essa é ter o incentivo ou o fomento ao desenvolvimento do país. A gente não pode esquecer isso. Portanto, ela tem que prever e trazer ferramentas para que isso seja feito, através do Executivo, nos diversos setores, nas diversas instâncias também. E que nós tenhamos mais eficiência na utilização de recursos para o desenvolvimento dessa tecnologia no país.

    O quarto ponto é com relação ao incentivo à aplicação, no setor privado, no setor público, no terceiro setor, a aplicação ampla, principalmente, não só, vamos dizer assim, nos níveis mais altos, mas principalmente ali onde a sociedade acontece, dentro das cidades, nas pequenas lojas, dentro do comércio ou nas cooperativas, por exemplo, ou seja, a utilização ampla dessa tecnologia e a retirada de restrições muito grandes, para não impedir que isso seja feito.

    Outra parte importante é com relação à objetividade no tratamento de riscos. Eu trabalhei muito tempo da minha vida fazendo investigação e prevenção de acidentes aeronáuticos, e nós temos uma metodologia bastante ampla, utilizada em engenharia de forma geral, que trata da situação, em que aquela situação de perigo, vamos dizer assim, acontece, e como o risco é tratado, através da probabilidade de ocorrência de um evento negativo e também o impacto da ocorrência desse evento. Então, probabilidade e impacto são utilizados de forma ampla, são tabelas que tratam disso, com fatores contribuintes, geralmente espalhados nas suas colunas. Então, essa é uma das metodologias utilizadas, que pode ser utilizada também nesse caso, e isso traz um tratamento objetivo dos riscos.

    Isso evita insegurança jurídica. Isso é muito importante para evitar processos e disputas jurídicas, que certamente atrasam o desenvolvimento do país no setor.

    O próximo item a ser cuidado numa legislação como essa é que ela sirva como guia para as regulações setoriais. Você não pode, com uma legislação de inteligência artificial, que é algo transversal, que está presente basicamente em todos os setores, como saúde, telecomunicações, todos os setores, setores de cinema, ou qualquer... qualquer área usa hoje inteligência artificial. Portanto, uma legislação como essa não pode interferir na regulação própria ali. Isso é um ponto muito importante para evitar também problemas de desenvolvimento nas diversas áreas.

    É também importante garantir o conhecimento para mitigar os riscos. Deixe-me explicar essa parte, que é importante para entender. Se você restringe muito o desenvolvimento e a utilização de inteligência artificial no país, você também restringe o conhecimento dessa área, ou seja, nós vamos utilizar sistemas importados, e o conhecimento vai estar fora do país. Como é que a gente vai mitigar os riscos ou reduzir – vamos chamar outra palavra: reduzir – os riscos para o cidadão, em termos de ética, discriminação etc., se a gente não conhece o sistema de uma forma precisa, de uma forma frequente, porque isso muda com o tempo muito rapidamente, ou seja, não utilizar inteligência artificial é mais arriscado do que usar a inteligência artificial, porque, usando, você aprende; aprendendo, você utiliza para reduzir os riscos ao cidadão também.

    Apesar de todo o esforço da Comissão, representada ali pelo Carlos Viana, eu e o nosso Relator Eduardo Gomes, nós ainda não chegamos a um texto que nós podemos considerar pronto para votação.

    Portanto, o texto ainda apresenta problemas e, como eu falei no começo, eu estou aqui para fazer uma prestação de contas de como anda esse setor, essa tramitação nesse setor.

    Ontem foi decidido pelo Presidente dar continuidade nas discussões. Nós abrimos – esse é um ponto importante – à participação ampla da sociedade. Eu presidi a maior parte das audiências públicas que nós tivemos, acho que foi talvez o assunto com o maior número de audiências públicas. Não tenho certeza dessa afirmação, mas nós tivemos muitas audiências públicas, com todos os setores: setores produtivos, toda a parte da academia, comunidade científica, Governo, terceiro setor etc. Nós abrimos a todas as pessoas para conversarem e nos darem informações a respeito do que eles acham dessa legislação e, com isso, nós estamos construindo esse texto, que ainda precisa de algumas melhorias.

    É importante citar que a emoção básica do medo – que todo ser humano tem; é a emoção mais básica do ser humano – interfere bastante nesse caso, porque as pessoas têm medo da inteligência artificial.

    Há duas razões pelas quais esse assunto tem dificuldade em prosseguir: a primeira é a complexidade natural do assunto, que participa de diversos setores; a segunda é o medo. E o medo, a gente... Com medo, as pessoas tendem a levar para o lado pessoal: "Porque certa coisa aconteceu comigo, teve deepfake usando a minha imagem e a minha voz; portanto, a gente precisa colocar nessa legislação algo que proíba isso.". Não é assim que funciona, a gente tem que trabalhar com lógica, e eu já vou explicar isso.

    O medo... O que ele faz? Ele interfere... Primeiro, ele faz com que se inclua dentro de uma legislação como essa uma distinção de risco, uma descrição de alto risco, um risco inconcebível ou inaceitável, de uma forma dentro do texto. Isso aí, estando dentro do texto, vai se tornar obsoleto em alguns dias ou algumas semanas depois que o texto sai. Portanto, isso tem que ser destacado do texto, e serem trabalhados esses riscos de forma objetiva e de uma forma frequente – analisados frequentemente. Por isso é que nós temos a previsão de um conselho para tratar disso. A gente ainda tem o problema desses riscos estarem escritos no texto. Isso causa uma obsolescência muito rápida.

    O segundo ponto que a gente precisa corrigir nesse texto é a questão de deixar a classificação de risco ainda de forma subjetiva. Isso precisa ser colocado de uma forma mais objetiva dentro desse texto.

    São quatro pontos, que nós vamos trabalhar nas próximas discussões que vão acontecer neste semestre, no finalzinho agora, e no semestre que vem também, para resolver esse texto. Então, são esses quatro pontos. Por isso que é importante e vou ressaltar aqui.

    O primeiro é tirar a inclusão de riscos da descrição de riscos do texto e colocar de forma destacada. O segundo é a classificação de risco ser mais objetiva. O terceiro é sobre a inclusão de elementos que não fazem parte de inteligência artificial dentro do texto. Por causa do medo, a gente tem essa tendência de querer incluir tudo ali. E como é uma tecnologia que afeta muitos setores, imagina se a gente tiver que colocar todos esses setores dentro desse texto? Então, vão ser milhares de páginas e, mesmo assim, não vai ser completo e vai ser completamente ineficiente.

    Portanto, o mais eficiente é fazer da forma correta, ou seja, tem que estar dentro desse texto o que é princípio, o que afeta a inteligência artificial. O que a inteligência artificial afeta em outras áreas, onde já existe uma legislação própria, precisa ser tratado nessa legislação própria, e não na legislação de inteligência artificial. Acho que deu para entender essa colocação.

    Por exemplo, o que você coloca... O que trata, por exemplo, de fake news, isso não tem que estar na legislação de inteligência artificial, tem que estar na legislação de fake news. O que trata, por exemplo, de direitos autorais, como a inteligência artificial afeta direitos autorais, tem que estar lá na Lei de Direitos Autorais (Lei 9.610, de 1998), tem que estar lá e não dentro da lei de inteligência artificial. E assim por diante. Dessa forma, a gente tem uma legislação que é mais eficiente no seu contexto, sem ferir outra legislação, ou interferir em outra legislação, como a de proteção de dados e assim por diante, que tem que estar na Lei de Proteção de Dados.

    O quarto ponto é a questão das definições de alto risco serem muito abrangentes. Como é isso aí? Se a gente coloca de uma forma muito abrangente, tudo passa a ser, praticamente, de alto risco. Obviamente, com isso aí a gente restringe o desenvolvimento da inteligência artificial no Brasil, reduzindo pesquisa e desenvolvimento no país, reduzindo os investimentos no país, reduzindo a competitividade, reduzindo os empregos. Portanto, com isso tem que se tomar muito cuidado para não ferir a competitividade da inteligência artificial. Se a gente fizer isso aí, a competitividade do Brasil, através dessa regulação dos usos de inteligência artificial, ou seja, se a gente utilizar muita restrição dentro dessa área, isso vai atrasar o desenvolvimento do Brasil, vai aumentar o risco para as pessoas também, que é justamente o que a gente não quer. A gente tem que tratar para que se proteja a privacidade, a ética, para que se proteja de discriminação. Tudo isso aí tem que ser tratado de forma muito enérgica e dentro da lei, mas, sem dúvida nenhuma, sem causar restrições ao desenvolvimento dessa atividade, tanto de pesquisa quanto a utilização dessa tecnologia no Brasil.

    Nossas perspectivas – nesse momento final que eu tenho – agora no segundo semestre. Nós vamos tratar focando nesses quatro pontos. Nós ainda vamos continuar. Nós vamos ouvir as pessoas, os setores, com audiências públicas. O Relator tem uma paciência muito grande, e é muito importante isso. Ele é muito...

(Soa a campainha.)

    O SR. ASTRONAUTA MARCOS PONTES (Bloco Parlamentar Vanguarda/PL - SP) – ... aberto para ouvir todos os setores. Dentro desses quatro pontos de melhoria, nós vamos trabalhar para ajustar esse texto para que ele esteja pronto para a votação. Sem dúvida nenhuma, isso vai ser muito importante para o país.

    Relembrando que não existe uma pressa para que nós tenhamos uma legislação desse tipo no Brasil. O que nós precisamos é de qualidade nessa legislação, e não de pressa. E essa observação do que tem sido feito no exterior, em outros países, também nos dá certas diretrizes ou certas dicas do que funcionou em outros países que nós podemos adaptar para as nossas condições, obviamente, e do que não funcionou, para que a gente possa evitar aqui.

    Portanto, é um tipo de prestação de contas do que nós estamos fazendo e de como está o desenvolvimento da regulação de inteligência artificial no Brasil. Podem ter certeza de que nós temos trabalho muito, mas muito mesmo, para que nós tenhamos uma das mais avançadas legislações...

(Soa a campainha.)

    O SR. ASTRONAUTA MARCOS PONTES (Bloco Parlamentar Vanguarda/PL - SP) – ...tratando de inteligência artificial e para que o país tenha competitividade, tenha pesquisa e desenvolvimento, tenha geração de empregos, melhorias, geração de empresas, atração de negócios, ao mesmo tempo protegendo o cidadão.

    Obrigado, Presidente.


Este texto não substitui o publicado no DSF de 11/07/2024 - Página 46