Discurso durante a 76ª Sessão de Debates Temáticos, no Senado Federal

Em fase de revisão e indexação
Autor
Astronauta Marcos Pontes (PL - Partido Liberal/SP)
Nome completo: Marcos Cesar Pontes
Casa
Senado Federal
Tipo
Discurso

    O SR. ASTRONAUTA MARCOS PONTES (Bloco Parlamentar Vanguarda/PL - SP. Para discursar.) – Obrigado, Presidente.

    Gostaria de cumprimentar a todos que participam desta audiência e aqueles que nos acompanham também.

    Sem dúvida nenhuma, esse tipo de encontro em que nós podemos discutir a inteligência artificial vista de vários aspectos é extremamente importante.

    Como foi falado pelo Senador Eduardo Gomes, nosso Relator, eu tive a oportunidade de presidir a maior parte das audiências públicas conduzidas dentro das Comissões e, sem dúvida nenhuma, dali nós tiramos muitas informações importantes.

    E um ponto que precisa ser ressaltado é que a inteligência artificial tem que ser vista de várias perspectivas diferentes. Uma delas é o desenvolvimento, o fomento da inteligência artificial, o desenvolvimento no Brasil. Nós não podemos ficar para trás com relação a outros países, porque, de uma forma ou de outra, nós vamos usar a inteligência artificial, seja ela feita aqui, seja ela feita lá fora. E, se ela for feita lá fora, a gente vai ter muito menos condições de saber como mitigar os riscos da utilização da inteligência artificial também.

    O segundo ponto tem a ver com a aplicação da inteligência artificial, de forma que o risco que nós temos, nesse ponto de vista, é o de não ter as aplicações com toda a sua amplitude dentro do país, que podem e devem e precisam render divisas para o Brasil, aumentar a competitividade do país, aumentar o desenvolvimento econômico e social com o uso da inteligência artificial. Então, qualquer coisa que a gente faça não pode restringir essa utilização aqui no Brasil.

    O terceiro ponto, logicamente, são os riscos envolvidos pela utilização da inteligência artificial.

    Uma frase que eu gosto de repetir, que eu ouvi nos Estados Unidos quando eu estive lá discutindo a respeito de legislação de inteligência artificial, é a seguinte: é mais arriscado não utilizar inteligência artificial do que utilizar a inteligência artificial.

    Você só vai conseguir mitigar os riscos da utilização se você conhecer muito bem o que você está trabalhando. E quem trabalha com gerenciamento de risco sabe muito bem dessa afirmação e do porquê dessa afirmação.

    Um ponto que sempre me preocupa, quando a gente fala de legislação de inteligência artificial e quando se trata de uma tecnologia disruptiva, que evolui literalmente a minuto ou a segundo no mundo, é que ela corre o risco muito grande de se tornar completamente obsoleta no dia seguinte do seu lançamento. A partir do momento em que você tem definições muito intensas ou muito detalhadas dentro da legislação, isso coloca a gente na zona de risco de ter uma legislação de inteligência artificial obsoleta de partida, o que é terrível para o país, porque o processo legislativo demora. E, durante o período de mudança de uma lei, a gente fica completamente a mercê do que pode acontecer de forma aleatória. Então, é importantíssimo que a gente preste muita atenção para não criar uma legislação que tenha a capacidade de ser obsoleta logo de cara.

    Isso envolve também um outro ponto importante que é a utilização da análise de risco. E essa análise de risco é o que traz para a gente mais segurança na utilização sem comprometer o fomento e a utilização no país; ou seja, você não quer controlar essa parte, mas, sim, os resultados da inteligência artificial.

     E essa análise de riscos, no meu ponto de vista, tem que ser extremamente objetiva, para reduzir interpretações diferentes, para reduzir a insegurança jurídica tanto no desenvolvimento da inteligência artificial quanto na sua aplicação. Portanto, essa é uma preocupação primária que eu tenho.

    Eu vou dar um exemplo aqui, que foi falado por um dos nossos apresentadores, com relação aos riscos éticos ou de discriminação da utilização de inteligência artificial, mais especificamente com relação à parte de reconhecimento facial. Esse é um fato. Eu vou dar o exemplo para ver como a classificação de risco de pequeno, médio ou alto risco pode mudar efetivamente de um dia para outro com isso.

    A inteligência artificial, no nível que nós temos hoje de tecnologia para reconhecimento facial, pode cometer erros. Existe sempre a possibilidade de erros. E esses erros são maiores se as pessoas forem negras. Por quê? Quando você tira uma foto, você nota isso. Qualquer foto, com uma certa iluminação, se você tem pessoas brancas e pessoas negras, você vai sentir mais dificuldade de identificar o rosto ou as características do rosto de uma pessoa negra do que de uma pessoa branca na foto. Então, naturalmente, o sistema vai ter mais dificuldade de reconhecer uma pessoa negra num reconhecimento facial. Se isso for utilizado como ferramenta única para incriminar a pessoa ou trazer a pessoa para uma situação constrangedora, seria muito, muito ruim se utilizar isso aí; ou seja, hoje em dia, reconhecimento facial poderia ser classificado como alto risco, porque corre o risco de trazer uma discriminação séria.

    Lembro que, nos bancos de dados para onde está olhando a inteligência artificial para procurar algum criminoso, alguma coisa, infelizmente, a população negra carcerária é muito maior do que a população branca; ou seja, naturalmente, o banco de dados tem mais pessoas negras do que pessoas brancas. Portanto, você não só vai estar olhando, procurando mais pessoas negras, como você tem mais probabilidade de erro. Então, a gente vê aí como isso pode causar um problema seriíssimo logo de cara.

    O segundo ponto é que a inteligência artificial vai sendo aperfeiçoada com o tempo. Pode ser que isso que seja de alto risco hoje, com o aperfeiçoamento das técnicas de reconhecimento facial, passe a ser de médio ou baixo risco, num futuro próximo. Portanto, você precisa ter meios de modificar essas classificações de risco de uma forma dinâmica, periódica, rápida e usando todo o conhecimento na base de todos os setores de regulamentação, ou seja, as agências regulatórias e tudo o mais. Então, essas são algumas das considerações que a gente tem que levar em conta, agora, nesse sistema.

    Então, eu queria, novamente, me colocar aqui à disposição – faço parte da Comissão também – para que a gente possa trabalhar nessa lei para que se tenha o melhor desenvolvimento aqui. Ela vai passar, ainda, por um processo legislativo, mas já vai sair da melhor forma possível daqui do Senado.

    Muito obrigado. (Palmas.)


Este texto não substitui o publicado no DSF de 12/06/2024 - Página 48