Discussão durante a 179ª Sessão Deliberativa Ordinária, no Senado Federal

Discussão sobre o Projeto de Lei (PL) n° 2338, de 2023, que "Dispõe sobre o uso da Inteligência Artificial".

Autor
Astronauta Marcos Pontes (PL - Partido Liberal/SP)
Nome completo: Marcos Cesar Pontes
Casa
Senado Federal
Tipo
Discussão
Resumo por assunto
Ciência, Tecnologia e Informática, Direitos Individuais e Coletivos, Responsabilidade Civil:
  • Discussão sobre o Projeto de Lei (PL) n° 2338, de 2023, que "Dispõe sobre o uso da Inteligência Artificial".
Publicação
Publicação no DSF de 11/12/2024 - Página 124
Assuntos
Economia e Desenvolvimento > Ciência, Tecnologia e Informática
Jurídico > Direitos e Garantias > Direitos Individuais e Coletivos
Jurídico > Direito Civil > Responsabilidade Civil
Matérias referenciadas
Indexação
  • DISCUSSÃO, PROJETO DE LEI, CRIAÇÃO, LEI FEDERAL, NORMAS GERAIS, INTELIGENCIA ARTIFICIAL, RESPONSABILIDADE, IMPLEMENTAÇÃO, SISTEMA, OBJETIVO, SEGURANÇA, CONFIANÇA, RESPEITO, DIREITOS E GARANTIAS FUNDAMENTAIS, DIREITOS HUMANOS, DEMOCRACIA, DESENVOLVIMENTO CIENTIFICO, DESENVOLVIMENTO TECNOLOGICO, PROTEÇÃO, MEIO AMBIENTE, DESENVOLVIMENTO SUSTENTAVEL, PRINCIPIO JURIDICO, DIREITOS, CLASSIFICAÇÃO, RISCOS, GOVERNANÇA CORPORATIVA, GOVERNANÇA PUBLICA, AVALIAÇÃO, EFEITO, RESPONSABILIDADE CIVIL, SUPERVISÃO, FISCALIZAÇÃO, PENA DISCIPLINAR.

    O SR. ASTRONAUTA MARCOS PONTES (Bloco Parlamentar Vanguarda/PL - SP. Para discutir.) – Sr. Presidente, Srs. Senadores e Senadoras, público que nos assiste neste momento importante para o país, é uma matéria ampla e importante que foi aprovada. Fico feliz que esse marco de inteligência artificial tenha sido aprovado. Ele é muito importante. A inteligência artificial já está no nosso dia a dia e vai estar cada vez mais. É um caminho sem retorno. Nós vamos continuar com a inteligência artificial, e o caminho que o país tem a seguir é se desenvolver nesse setor.

    Eu tive a honra de ter sido o Vice-Presidente da Comissão Temporária sobre Inteligência Artificial, acompanhando o Presidente Carlos Viana, acompanhando o nosso Relator, Eduardo Gomes, e, sem dúvida nenhuma, esse é um tema pelo qual eu tenho um carinho muito grande. Eu tenho trabalhado com o desenvolvimento de inteligência artificial desde a década de 90. Portanto, é algo de que eu tenho algum conhecimento. Eu também tive a honra de presidir a maior parte das audiências públicas realizadas. E foram muitas as audiências públicas, diga-se de passagem, realizadas, para que nós determinássemos ou evoluíssemos o texto original recebido do PL 2.338.

    A boa notícia é que nós realmente temos agora um projeto que evoluiu, a partir do texto original, a partir do conhecimento obtido durante todas essas audiências públicas, e isso significa um avanço muito grande. Idealmente, esse projeto de lei visa apoiar o desenvolvimento da tecnologia no Brasil, o desenvolvimento da inovação, melhorar a competitividade do Brasil e, certamente, a proteção do ser humano, que está no centro desse projeto de lei, em termos de ética da utilização, evitar discriminação, proteção de dados, etc.

    A má notícia sobre isso é que certamente ainda existem pontos a serem melhorados. Tem que ser ético e transparente para apresentar esses pontos que vão ser – eu espero e certamente serão – discutidos e tratados, ao longo da tramitação desse projeto de lei que segue. Então, eu gostaria de colocar aqui esses pontos como Vice-Presidente dessa Comissão e apresentar mais ou menos alguns alertas que precisam ser observados na tramitação e nas discussões posteriores.

    Primeiro, é importante notar que do que nós estamos tratando é de uma regulamentação não da inteligência artificial, mas da sua utilização em si e que a inteligência artificial é uma tecnologia em evolução. Eu diria que, a minuto, a segundo, nós temos novas inovações incrementais dentro da inteligência artificial ou no mundo da inteligência artificial. Isso significa que os seus efeitos também evoluem com o tempo, ou seja, a utilização da inteligência artificial também evolui no tempo, o que traz uma dificuldade grande para qualquer tipo de legislação. Então, o primeiro desafio é justamente a evolução da utilização da inteligência artificial e o risco que se tem de se fixar parâmetros dentro de um texto que torne a legislação rapidamente defasada ou obsoleta. Então, esse é o primeiro risco que tem que ser levado em conta no restante da tramitação do texto desse projeto de lei.

    O segundo desafio é com relação à análise de riscos. A legislação é baseada em análise de riscos, e isso tem que ser feito de uma forma muito criteriosa e de uma forma muito objetiva para evitar confrontos jurídicos e insegurança jurídica ao longo da utilização dessa legislação. Lembro que, se você considerar utilizações de inteligência artificial que são de menor risco – e quero lembrar que, quanto ao risco, a gente sempre trabalha com probabilidade e com impacto para que se tenha uma análise de risco mais técnica –, se você considerar de alto risco ou de risco excessivo certos elementos que não são, você vai penalizar, principalmente, as pequenas empresas no Brasil ou as startups no Brasil, lembrando que as big techs trabalham em muitos países. O fato de se restringir a utilização ou a operação em um país significa simplesmente que elas vão operar em outro país, e o nosso país perde capacidade de competitividade, perde empregos, perde capacidade de gerar recursos dentro do país. Então, é muito importante ajustar de uma forma muito clara essa análise de riscos e que a legislação consiga também evoluir com o tempo. Já que é uma legislação que precisa acompanhar essa evolução, ela precisa acompanhar com a maior velocidade – e é difícil dentro de um processo de tramitação ficar mudando a lei o tempo todo – essas mudanças na tecnologia.

    Outro desafio é que essa é uma tecnologia transversal. O fato de ela ser uma tecnologia transversal, o que significa? Ela afeta de alguma forma todas as áreas, todos os setores. Quando ela faz isso, certamente existe uma tendência de se colocar dentro do texto de uma lei tudo aquilo que é afetado por ela. É aí onde podem aparecer certamente conflitos, e conflitos em áreas, como na Anatel, que cuida da área de telecomunicações, na Anvisa, que cuida da área da saúde, e assim por diante. Se você colocar todos esses dados dentro de uma só lei, você vai causar uma série de conflitos e vai prejudicar, vamos dizer assim, a harmonia de tudo isso que pode acontecer no Brasil. Então, é importante o conselho que possa tratar disso com representantes das diversas áreas. Quando se fala nisso, então a gente vem nessa, vamos chamar, agência central de controle, e aí também tem que se evitar o risco de superposição de competências de forma que a gente possa prejudicar novamente a harmonia. Então, mais um desafio: o risco de conflito de legislação e superposição de Poderes.

    Há o risco do treinamento, não é? O treinamento que eu digo é o treinamento da inteligência artificial. Para isso, você precisa de dados, muitos dados. E aqui a discussão fica bastante complexa. Nós sentimos isso durante as discussões na Comissão, com relação a direitos autorais. Por um lado, existe, sim, a preocupação em se proteger o conhecimento, os direitos autorais dos autores que produziram aquele conhecimento; e, por outro lado, existe o risco, se for feita uma restrição muito excessiva com relação a isso, de nós perdermos competitividade, porque, não havendo isso em outros países, o treinamento vai ser feito com bancos de dados de outros lugares, e isso tudo vai causar uma defasagem, pelo menos na utilização e operacionalização de inteligências artificiais adequadas ao uso no país, ou mesmo a perda de empresas aqui, no país, que possam fazer esse treinamento e utilizar essas inteligências artificiais aqui. Uma possível solução que nós discutimos também é a de que cada autor possa colocar ali a sua opção de que o seu trabalho pode ser utilizado gratuitamente, para treinamento ou não, e vai haver uma cobrança. Dessa forma, naturalmente, os trabalhos que são livres vão ter uma propagação muito maior.

    Outro desafio é a questão do uso ético da inteligência artificial. Diferentemente de um programa comum de computador, no Excel, etc., a inteligência artificial interage com o seu usuário e aprende, inclusive, com as respostas do seu usuário àquelas respostas que a inteligência artificial deu, ou seja, se o usuário começar a utilizar, de forma antiética, a inteligência artificial, a gente vai ter problemas, sim, de discriminação e com outras coisas, com relação à utilização da inteligência artificial.

    Finalmente, isso significa também o treinamento do ser humano...

(Soa a campainha.)

    O SR. ASTRONAUTA MARCOS PONTES (Bloco Parlamentar Vanguarda/PL - SP) – ... com relação à inteligência artificial. A inteligência artificial é uma ferramenta e tem que ser vista como uma ferramenta o tempo todo. Ela é um assistente. Ela não pode assumir o lugar do ser humano na tomada de decisões. É daí que vêm os problemas principais da utilização da inteligência artificial.

    Portanto, o treinamento das pessoas para utilização de como têm que encarar a inteligência artificial é também um problema sério que a gente vai ter que enfrentar ao longo do tempo. Não dá para se colocar isso no texto, mas a utilização da própria inteligência artificial vai provar a necessidade desse ponto que eu estou trazendo aqui, que nós levantamos ao longo da Comissão.

    Portanto, nós temos um desafio ainda grande pela frente. Comemoramos, sim, o texto inicial, que nós temos aprovado aqui, hoje, mas nós temos aí um trabalho muito grande pela frente, para que nós tenhamos, no Brasil, realmente, um texto competitivo e adequado.

    Obrigado.


Este texto não substitui o publicado no DSF de 11/12/2024 - Página 124