Notas Taquigráficas
| Horário | Texto com revisão |
|---|---|
| R | O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP. Fala da Presidência.) - Declaro aberta a 6ª Reunião da Comissão Temporária Interna sobre Inteligência Artificial no Brasil, criada pelo Requerimento nº 722, de 2023, com a finalidade de, no máximo em até 120 dias, examinar os projetos concernentes ao relatório final aprovado pela Comissão de Juristas responsável por subsidiar elaboração de substitutivo sobre inteligência artificial no Brasil, criada pelo Ato do Presidente do Senado Federal nº 4, de 2022, bem como eventuais novos projetos que disciplinem a matéria. |
| R | Antes de iniciarmos os nossos trabalhos, proponho a dispensa da leitura e aprovação da ata da reunião anterior. As Sras. e os Srs. Senadores que concordam permaneçam como se encontram. (Pausa.) A ata está aprovada e será publicada no Diário do Senado Federal. Pauta. Informo que esta reunião se destina à realização de audiência pública com a finalidade de debater os impactos da inteligência artificial no setor acadêmico, universidades e instituições de ciência, tecnologia e inovação, em cumprimento do Requerimento nº 1, de 2023, da Comissão Temporária sobre Inteligência Artificial, requerimento esse da minha autoria. O público interessado em participar desta audiência pública poderá enviar perguntas ou comentários pelo endereço: www.senado.leg.br/ecidadania ou ligar para 0800 0612211 - de novo, 0800 0612211. Encontra-se presente no plenário da Comissão o Dr. Fábio Borges de Oliveira, Diretor do Laboratório Nacional de Computação Científica (LNCC), que é uma das instituições de pesquisa do Ministério de Ciência, Tecnologia e Inovação. Encontram-se também presentes, por meio do sistema de videoconferência, André Carlos Ponce de Leon Ferreira de Carvalho, Diretor do Instituto de Ciências Matemáticas e de Computação da Universidade de São Paulo; Antonio Augusto de Aragão Rocha, Professor da Universidade Federal Fluminense; e Lisandro Zambenedetti Granville, Professor titular do Instituto de Informática da Universidade Federal do Rio Grande do Sul. Também gostaria de registrar a presença do nosso Senador Marcos Rogério aqui conosco, sempre muito parceiro no setor de ciência, tecnologia e inovação. Aliás, recentemente, estivemos em Auckland, Nova Zelândia, verificando uma tecnologia que tem o potencial de transformar o sistema de transmissão de energia elétrica, um sistema sem fio, um sistema wireless de transmissão de energia elétrica. Senador, com a palavra, por favor. O SR. MARCOS ROGÉRIO (Bloco Parlamentar Vanguarda/PL - RO. Pela ordem.) - Senador Astronauta Marcos Pontes, eu, na verdade, vim aqui, primeiro, pela importância desse debate sobre os impactos da inteligência artificial no setor acadêmico em ambiente de universidades e instituições de ciência, tecnologia e inovação, mas obviamente que um tema dessa grandeza, tendo V. Exa. na condução de um debate como esse, nos dá a tranquilidade de que o tema está em excelentes mãos. Então, eu cumprimento V. Exa. pela iniciativa, cumprimento os expositores que estarão participando. E quero agradecer, nessa missão que nós tivemos na Nova Zelândia, acompanhando uma apresentação... E lá, do Senado Federal, estivemos eu e V. Exa., mas tinha outras autoridades de diversos países participando daquele momento, que é um momento absolutamente inovador. |
| R | O Nikola Tesla já tinha, há muito tempo, pensado isso e avançado, em certa medida, nesse tema, mas ele pensou muita coisa, algumas evoluíram e essa ainda não entrou em atividade. E, hoje, no setor elétrico, eu tive a oportunidade, no Senado Federal, de ser o Relator do novo marco legal do setor elétrico, um tema que nós debatemos à exaustão aqui em toda a cadeia - geração, transmissão, distribuição, comercialização, consumidor -, todos foram ouvidos no momento em que nós avançamos com essa legislação, que hoje está na Câmara dos deputados para deliberação lá. Esse tema da transmissão é um tema que é desafiador. Nós estamos discutindo offshore no Brasil, e o grande desafio é construir a infraestrutura de transmissão. De repente, um grupo de pesquisadores apresenta, lá em Auckland, justamente uma transmissão sem fio. E participar daquele momento, na condição de alguém que relatou esse tema aqui, para mim foi muito prazeroso - não é ? -, porque eu conheço os problemas que o Brasil tem nesse campo, mas ter V. Exa. ao meu lado naquela apresentação eu confesso que foi um conforto, porque eu sei dos problemas que eu tenho lá na Amazônia, com as regiões isoladas, de difícil acesso, mas tem comunidades que precisam de energia, e, para você fazer por cabeamento rede de transmissão, abrindo florestas, é muito difícil. E aí você opta por modelos de geração local à base de diesel, energia cara e com alto impacto ambiental. Então, quando V. Exa. esteve naquele evento ali, ao meu lado, sendo alguém que tem o conhecimento que tem na área de ciência, tecnologia e inovação, foi o nosso Ministro de Ciência e Tecnologia no Governo do Presidente Bolsonaro, para mim foi um conforto, porque, ao passo que eu conhecia os problemas reais da população lá na base, V. Exa. tinha ali a luz do conhecimento justamente desse campo de pesquisa, da ciência, da tecnologia. Então, eu quero aproveitar este momento para agradecer a V. Exa. por participar daquele momento e testemunhar se é uma tecnologia que realmente tem possibilidades, se ela realmente, avançando nas próximas etapas, vai ser solução para parte dos problemas que nós temos no mundo. Então, V. Exa. ali, para mim, foi um ponto de segurança naquilo que nós estávamos verificando. Saí de lá impactado. Fizemos a transmissão numa extensão de 36m e, do outro lado, a energia chegou quase sem oscilação. Ainda acompanhamos lá uma apresentação musical com energia transmitida sem fio. Então, foi um dos grandes momentos que eu vivi no campo justamente da inovação, e tive a honra de tê-lo junto naquela missão. Parabéns a V. Exa. Não quero me alongar, apenas o cumprimento pela iniciativa deste debate importante no dia. O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Obrigado, Senador Marcos Rogério. Foi um prazer muito grande participar daquela missão. E com certeza é uma tecnologia que vai ajudar e muito, muito mesmo. Bom, eu quero aproveitar e convidar o nosso primeiro palestrante também, que é o Dr. Fábio. (Pausa.) |
| R | Inicialmente, eu gostaria de agradecer a presença do Fábio aqui conosco - eu já o conheço há bastante tempo, lá da época do Ministério, lembrando que o LNCC é um dos órgãos ligados, em administração direta, com o Ministério da Ciência, Tecnologia e Inovação -; agradecer a todos aqueles que estão aqui nos acompanhando presencialmente e aqueles que nos acompanham também pela TV Senado e pelas redes sociais, lembrando que vocês podem mandar perguntas para cá, através do www.senado.leg.br/ecidadania ou ligar para 0800 061221, e participar, porque esse é um tema de extrema importância. A inteligência artificial já está na nossa vida em muitos setores e vai estar cada vez mais, é uma tecnologia que, vamos dizer assim, não tem retorno, é uma tecnologia disruptiva que vai poder trazer muitas vantagens para a qualidade de vida das pessoas, vai salvar muitas vidas, vai produzir muitos empregos, mas também necessita de certos cuidados. Como toda tecnologia disruptiva, ela também tem os seus riscos, e a nossa legislação tem que ser flexível o suficiente para que possa permitir o desenvolvimento da tecnologia. E isso vai ser um dos tópicos tratados hoje, já que nós estamos falando da academia e da utilização da ciência dentro disso, do desenvolvimento de conhecimento. E, por outro lado, ela precisa ser tratada com flexibilidade para que as empresas possam desenvolver seus negócios, para que o Brasil não fique atrás na competitividade, na utilização e no desenvolvimento de inteligência artificial, e também deve haver o respeito e o cuidado com as pessoas, como o centro de tudo isso, na sua privacidade, na sua ética, no tratamento ético de tudo. Então, é um balanço que essa nossa legislação tem que ter de ser flexível o suficiente e não restritiva, mas também firme o suficiente para proteger as pessoas. Eu quero aproveitar, neste momento também, e já colocar algumas perguntas que já foram recebidas aqui pelo e-Cidadania para os nossos apresentadores ficarem já pensando sobre as respostas. A primeira é do Edson Jorge, de Minas Gerais, que coloca: "Hoje podemos falar que [inteligência artificial] é uma necessidade, mas o [...] Legislativo está apto a formular novas leis [nessa área]?". Essa aqui eu já posso responder neste momento. Sim, Edson, o Legislativo está apto. Aqui, como representantes da população, é nessa arena, vamos dizer, que nós discutimos as leis e criamos as leis que vão regular, que vão colocar o contorno legal de toda essa atividade. E o Legislativo está apto. Nós temos não só, obviamente, os Senadores e os Deputados, mas também uma Consultoria - aliás, eu quero até agradecer a presença dos consultores aqui também - extremamente capaz, que trabalha intensamente para nos dar respostas técnicas sobre o assunto. |
| R | E essas reuniões, essas audiências, como a audiência pública que nós temos agora, são parte desse processo, onde nós ouvimos especialistas de diversos setores, lembrando que nós estamos analisando isso em quatro perspectivas diferentes: uma delas é a ciência e a tecnologia aplicadas à inteligência artificial; segunda, as aplicações da inteligência artificial no mercado, nas diversas empresas, nos diversos setores, setor público, setor privado e assim por diante; as implicações dessas aplicações, como que isso atinge positivamente e potencialmente negativamente a vida de cada uma das pessoas; e, finalmente, a quarta perspectiva, que é a jurídica, para que tudo isso seja colocado da forma correta juridicamente e para que essa lei aqui no Brasil seja correspondente, vamos dizer assim, ao nível do que tem sido feito no planeta também. Eu era o representante do Brasil no GPAI (Global Partnership on Artificial Intelligence), uma instituição internacional, justamente com essa discussão entre os países mais desenvolvidos no setor. Camila Barreto, de São Paulo: "Quais são as providências que estão sendo tomadas para que a inteligência artificial seja utilizada de forma ética e responsável na educação?". Então, vou deixar aí para o pessoal ir pensando nas respostas. Dyonathan Sheiiji, do Paraná: "Como universidades usam [...] [inteligência artificial] para promover inclusão e diversidade?". Lizandro Mello, do Rio Grande do Sul: "Como proteger o trabalho humano insubstituível na educação [...] do mau uso da [...] [ inteligência artificial]?". Também é uma colocação. Petra Maria, de São Paulo: "Como garantir que os cargos de pesquisa e atuação profissional não serão substituídos pela [...] [inteligência artificial]? Somente seres humanos podem [...] [inovar]". Então, estão aqui colocadas essas perguntas, lembrando que ainda nós temos a possibilidade de receber outras perguntas. Para iniciarmos, deixe-me dar, primeiro, uma estrutura do que vai acontecer e como vai ser conduzido esse trabalho aqui hoje. Nós temos cinco apresentadores aqui. Cada um dos apresentadores terá dez minutos para fazer a sua apresentação. Para o Fábio, que está aqui, é fácil, porque você está vendo o marcador de tempo ali, o relógio, que fica fácil, e você vai ouvir também. Quando faltar um minuto, vai tocar uma campainha aqui, você vai estar acompanhando tudo isso. Para os nossos apresentadores que estão remotamente, vocês não têm esse equipamento. Então eu peço que prestem atenção, em algum cronômetro ou celular do lado, nos dez minutos. E, se precisar de algum tempo extra que não extrapole demais, fiquem à vontade, mas vamos tentar manter dentro do tempo. São cinco apresentadores, então nós estamos falando aí em torno de 50 minutos de apresentações. Eu peço para as pessoas que estiverem aqui para anotarem as suas dúvidas, questões para os apresentadores e, depois, no final das apresentações, nós vamos abrir para perguntas. Então vai estar aberto para comentários e perguntas no final da apresentação. Quero aproveitar para agradecer a nossa mesa aqui também, que nos dá o apoio técnico para que tudo isso aconteça da forma fluida aqui nesta audiência. Para começar, eu vou pedir, então, para o Fábio Borges de Oliveira, nosso Diretor do Laboratório Nacional de Computação Científica (LNCC), onde nós temos o Santos Dumont, que é um supercomputador, para fazer a sua apresentação, por dez minutos. Fábio, você tem a palavra. O SR. FÁBIO BORGES DE OLIVEIRA (Para expor.) - Bom, primeiramente, muito obrigado, Senador Marcos Pontes; muito obrigado a toda a Comissão por estar trabalhando nesse ponto muito importante; obrigado ao Senado. É um assunto realmente muito relevante. Senador, como eu passo os eslaides aqui? O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP. Fora do microfone.) - Eles vão passar. O SR. FÁBIO BORGES DE OLIVEIRA - Ah, eles vão passar? O.k. |
| R | Então, eu pretendo... Eu estava pensando que seria o último a apresentar, então eu queria ser muito contundente. Peço ao Senador Marcos Pontes aqui que me corrija. Caso eu esteja muito contundente, o senhor me corrija. (Risos.) Então, vamos lá. Eu estou no LNCC. Gostaria de convidar todos aqui do Senado a visitar o LNCC. Vale a pena. O Senador Marcos Pontes conhece bem. Como ele falou, há o supercomputador Santos Dumont, que ainda é a máquina acadêmica mais rápida da América Latina. Vamos ter um investimento agora de 100 milhões para atualização dessa máquina - pretendemos atualizar -, o que não é o suficiente para a inteligência artificial, mas isso é uma outra história. Então, vamos lá. Eu fiz uma primeira revisão ali do projeto de lei e dou parabéns. Na primeira leitura, eu fiquei muito feliz. Fico feliz de ter esse trabalho, de as pessoas estarem trabalhando em cima disso, em especial aqui no Senado, mas é claro que, em leituras mais detalhadas, existem muitas coisas a aprimorar, e a minha posição aqui é de fazer críticas contundentes, então vamos lá. Temos pouco tempo para discutir esses assuntos. Bom, logo na definição, a gente tem o uso de palavras pseudológicas, então isso é um problema muito sério. E, assim, falar de LGPD e tal... A LGPD é ótima, tem um monte de coisas boas, mas os meus dados continuam sendo vazados. Eu vou ao hospital, e os meus dados são transmitidos para outros países, não só vazados dentro dos Estados Unidos. Então, eu estou colocando de uma forma dura: olha, a LGPD não está fazendo o papel dela, e essa lei não vai fazer o papel dela da forma em que está. É claro que é importante estarmos discutindo, é claro que temos que melhorar, e, como eu falei, agradeço muito a vocês por estarem trabalhando aqui sobre esse ponto, mas eu tenho que colocar isso dessa forma contundente. O texto cita, por exemplo, melhores práticas em alguns casos. Eu acho que em todos os casos você tem que trabalhar com as melhores práticas, não em alguns casos. Também cita uma autoridade - muito similar também à LGPD -, uma autoridade responsável, que é indicada pelo Governo Federal, mas, no caso, eu indicaria para citar diretamente ou o LNCC ou uma agência ou alguma... Eu cito o LNCC porque o conheço bem, e tem um grupo muito bom de pessoas lá trabalhando com IA. E, além disso, nós vamos ter agora mais 30 vagas - a gente brinca que vai contratar mais 30 Fábios lá para trabalhar com IA, porque quase todo mundo se chama Fábio lá. (Risos.) E existem várias leis que tratam de outros órgãos do mesmo ministério, como, por exemplo, a Lei 8.090, que trata do Inpe, do Inpa, do INT; tem a Lei 7.677, que trata especificamente do Cetem. Quer dizer, não tem nenhum problema indicar claramente qual é a instituição que vai fazer esse papel. E aqui existe uma série de histórias na inteligência artificial, que não vai dar para a gente entrar em cada nome que eu vou listar aqui - só para listar os nomes já precisaríamos falar um dia. Mas, só para exemplificar, no primeiro aqui, ele coloca assim - antes de Cristo -: se nós tivéssemos máquinas que pensam e tomam suas decisões, nós não precisaríamos dos aprendizes para os mestres ou dos escravos para os senhores. Era colocado dessa forma. Ou seja, nós temos um problema muito sério aqui na inteligência artificial, e aí vai um monte de gente... |
| R | Porque um dos problemas é definir matematicamente o que é inteligência, outro problema é definir o que é vida. É um outro problema, não é? Falam assim: "vida inteligente em outro planeta"... É uma coisa complicada. Não existe uma definição formal, matemática disso. E existem vários estudos... Ao longo dos milênios, as pessoas foram trabalhando com isso. E tem uma frase muito perigosa, que é assim: "Os impactos da inteligência artificial são tão importantes para a sociedade que a IA não pode ficar só na mão de profissionais". Eu concordo, em parte. Porque, de uma parte, você fala assim: "Bom, se tem uma máquina que vai lá, lava a roupa suja e passa a minha roupa suja, eu quero ter essa máquina também, então a IA também tem que ficar na minha mão". Mas eu não quero entrar num avião que eu pilote; eu prefiro entrar num avião que o Senador pilote. É simples assim. A gente tem que escolher um profissional para a situação. Então, essa frase tem dois lados, assim como tem detalhes nessa lei, que tem lados excelentes, e tem detalhes nessa lei em que a gente precisa realmente fazer discussões muito mais longas. Bom, eu coloquei ali vários... Coloquei "Fábio". Como eu falei, o LNCC vai ter 30 vagas abertas agora para fábios trabalhando com inteligência artificial. Tem 30 vagas... (Risos.) Porque tem muitos fábios lá. Bom, é claro que a gente não sabe detalhes, mas, se você falar assim: "Olha, eu tenho uma equação matemática, eu sei que essa equação converge, eu tenho um algoritmo aqui... Por exemplo, especificamente, eu tenho um gradiente descendente, que tem uma convergência quadrática...". Eu sei, eu mostro isso, e tudo bem, eu vejo lá e falo: "Ah, isso aqui é um gato". E vai aparecer "gato" escrito na tela. Mas não é isso que eu estou falando. Eu estou falando que aplicações interessantes, como dirigir um carro, aplicações muito importantes, como pilotar um avião, elas têm riscos. Elas têm muitos riscos. E, se nós simplesmente falarmos assim: "Olha só, você só vai poder usar isso aqui quando você mostrar que o gradiente convergente converge em ordem quadrática, nesse tempo, e não vai ter risco, o avião não cai...". Olha, gente, se a gente pudesse mostrar que avião nunca cai, a gente não tinha voado - não é, Senador? -, não tinha conseguido voar. Então, existem várias coisas que a gente precisa ponderar com mais tempo e com mais detalhes. Senador, me corrija se eu estiver sendo muito enfático, por favor. Por exemplo, a revista Nature, que é a revista mais importante na área científica, tem tratado várias coisas sobre inteligência artificial e, desde o final do ano passado, mais especificamente, sobre o ChatGPT - peço também desculpa pela formatação, porque eu fiz para um outro sistema, o do Mac, e aqui ficou bem diferente, mas está tudo funcionando; vamos lá. E ela tem colocado coisas interessantes. Por exemplo, ela falou que um terço dos pós-doctors dizem que usam inteligência artificial para melhorar os textos, a produção científica - um terço das pessoas que já terminaram doutorado estão melhorando os seus trabalhos... A inteligência artificial é melhor, faz melhor do que um terço das pessoas. Eles assumem isso. Eu escrevo um texto e falo assim: "Olha, a inteligência artificial me corrigiu; ela fez melhor que eu" - um terço. Aí, tem aquela piada, que diz que um terço simplesmente está mentindo; e outro terço simplesmente não produz um bom trabalho. (Risos.) Então, é uma situação complicada. Outra questão que é colocada na Nature é que as aplicações... No sistema de fomento, hoje em dia, a gente tem um problema muito sério. Você não pode mais fazer um sistema de fomento, como as pessoas fazem, em que eu submeto um projeto, avalio o projeto e falo assim: "Olha, esse projeto é muito bom, eu vou dar um dinheiro para essa pessoa (para esse grupo). Vou dar um milhão (um bilhão) para esse grupo". Isso já virou um problema, por quê? Porque, simplesmente, as pessoas estão escrevendo projetos com inteligência artificial, e eles são melhores que o de muitos profissionais. Então, academicamente, o sistema de submissão de projetos, o sistema de agência de fomento - o fomento da forma com que nós estamos acostumados - vai ter um problema muito sério. Academicamente, nós vamos encontrar diversos problemas com a inteligência artificial. E aqui, vejam, eu não estou falando num sistema supermoderno, para daqui a 20 anos, 30 anos; eu estou falando de coisas que estão acontecendo. Nós temos um servidor do LNCC que trabalha numa empresa - não vou citar aqui a empresa - que tem uma máquina que é na ordem de mil vezes mais rápida do que a máquina mais rápida da academia na América Latina. E eles fazem coisas surreais. Então, a gente tem que começar a pensar nessas coisas. Ficou bagunçado aqui, mas... Eu escrevi um livro em 2017, sozinho; e depois, em 2020, eu escrevi um livro também com mais dois autores, dois professores muito importantes. E, no meio do caminho, em 2019, uma inteligência artificial chamada Beta Writer escreveu um livro. Este livro vende mais do que a soma dos meus dois livros. Então, gente, eu estou desempregado, estou procurando emprego aqui no Senado, de crítico de lei... (Risos.) |
| R | Falando sério, esse é um problema muito sério. Não tem mais razão de eu escrever um terceiro livro. Não existe mais razão... (Soa a campainha.) O SR. FÁBIO BORGES DE OLIVEIRA - ... se uma IA vai escrever melhor que eu e mais rápido. Bom, para terminar aqui, a IA é como um trator, é uma ferramenta, e tudo depende de como nós vamos usar essa ferramenta. Agora, o trator foi uma onda, e nós tivemos várias ondas. Tudo vai ser feito em cima da IA. Então, se nós perdermos essa onda, nós vamos perder todas as ondas. De certa forma, esta é a última onda tecnológica porque todas as ondas tecnológicas vão passar por IA daqui para frente. Spasibo, gracias, thank you, merci, danke. Muito obrigado a todos vocês. (Palmas.) O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - O.k. Obrigado, Fábio. Obrigado pela apresentação. Essa é a ideia, justamente. A gente tem que ver que esses trabalhos aqui, dessas audiências a respeito, são críticas que têm que ser feitas, para a gente coordenar essas críticas todas e para que a gente tenha o melhor texto possível dentro disso. E, quando se trata de tecnologia, as coisas acontecem de uma forma tão rápida, e há tantas mudanças, em tantos setores, quando se fala desse tipo de tecnologia, que, como eu falei no início, isso precisa ser analisado sob várias perspectivas diferentes. Sem mais tempo, eu vou passar a palavra, então, agora, para o Dr. André Carlos Ponce de Leon Ferreira de Carvalho, Diretor do Instituto de Ciências Matemáticas e de Computação da Universidade de São Paulo. Já está a apresentação dele preparada? (Pausa.) Então, Dr. André, a palavra é sua. Tem que liberar o microfone aí, está o.k.? E lembre-se de controlar o tempo, porque a gente não tem como avisar aqui. Obrigado. O SR. ANDRÉ CARLOS PONCE DE LEON FERREIRA DE CARVALHO (Para expor. Por videoconferência.) - Senador, muito obrigado. Boa tarde a todos. Eu estou vendo se consigo compartilhar aqui a apresentação. Eu acho que vou conseguir agora. Vocês conseguem ver a apresentação? (Pausa.) Está disponível para todos terem acesso à apresentação? Vocês conseguem ler? O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Isso, está no visual aqui. Pode decolar! (Risos.) O SR. ANDRÉ CARLOS PONCE DE LEON FERREIRA DE CARVALHO (Por videoconferência.) - Muito obrigado, Senador. Bom, eu vou fazer alguns comentários sobre a regulação e vou tentar ligar com a estratégia para a IA... Inclusive, o Senador, quando Ministro, também teve uma participação ativa na formulação da estratégia nacional. |
| R | Primeiro, eu quero manifestar meu respeito pela atividade dos legisladores, trazendo aqui de volta uma frase muito importante, que diz: "Não existe ação mais legítima de um legislador do que proteger aqueles cujas vidas serão prejudicadas pelas máquinas". Chamo a atenção para o fato de que não é de hoje essa frase: ela vem da Revolução Industrial, por John Stuart Mill, em 1800. Então, isso vale até hoje. Como o Prof. Fábio já mencionou, a IA (inteligência artificial) atrai e assusta muita gente hoje, o que é natural e muito frequente com qualquer tecnologia. No mundo, nós tivemos uma surpresa grande com a IA gerativa ou geradora, que está tendo um impacto muito forte na educação - é o que aparece mais -, mas também na sociedade, nos governos e nas empresas. E muito antes disso, já existia uma IA gerativa. Antes do ChatGPT, já tinha ferramentas que pintavam quadros, compunham músicas e assim por diante. Só que a magnitude do ChatGPT foi tão grande que chamou mais atenção. E novas surpresas vão vir nos próximos anos, não tenho dúvidas sobre isso. Por exemplo, tem a IA da IA, que é a IA automatizada, que também já está aparecendo em várias aplicações no mundo. Eu queria só tranquilizar as pessoas para que não se preocupassem tanto com os danos ou os malefícios que essa tecnologia pode trazer. Como já mencionei, isso aconteceu várias vezes. E, se a gente produzir uma legislação correta e agir de forma a evitar esses malefícios, nós vamos conseguir extrair muito mais benefícios do que malefícios. Por conta disso, a Unesco aprovou recentemente recomendações para uma IA ética, para direcionar esse uso e evitar efeitos danosos da IA. E vários países discutem tanto estratégias como legislações para a IA. Essas recomendações foram aprovadas em 2021 e referendadas por 193 países, inclusive o Brasil. Ela reconhece claramente os efeitos que a IA pode ter nas várias áreas, nas ciências humanas, exatas e da vida, particularmente. Ela reconhece os impactos positivos e negativos da IA nas sociedades, no meio ambiente e ecossistemas e na vida humana, tanto física como mental. Para isso, ela propõe dez princípios, quatro valores e onze áreas de ações políticas. E ela fala que é importante que haja o monitoramento dos programas e mecanismos relacionados com a ética da IA nos diferentes países do mundo. Então, ela tem como objetivo utilizar a IA, mas evitar efeitos danosos, como, por exemplo, discriminação, desigualdade, divisão digital e exclusão, que podem acontecer, se não tivermos cuidado, e podem, inclusive, aprofundar divisões dentro de um país e entre países. Existe uma colaboração da Unesco com a IFIP - IFIP é a federação das sociedades internacionais de computação - para apoiar a implementação dessa resolução da Unesco nos vários países do mundo. Queria chamar a atenção para o fato de que a Sociedade Brasileira de Computação, que faz parte da IFIP, que é essa federação de sociedades de computação, tem várias comissões e comitês de IA, com várias abordagens diferentes que podem também ajudar nas nossas políticas nacionais. E como está a situação dos países com relação a estratégias e regulação da IA no mundo? Tem muito mais estratégia do que regulação, o que é natural: primeiro, vem a estratégia; depois, vem a regulação. Então, 62 países no mundo já lançaram estratégias nacionais para a IA, e 14 as estão desenvolvendo. Com relação à regulação, 31 países já aprovaram, e 13 estão debatendo as suas regulações, a sua legislação para a IA. |
| R | No quadro da direita, eu tenho a situação, em ordem cronológica, dos países que foram implementando as suas estratégias de IA. As estratégias estão avançando tanto que alguns países, como os Estados Unidos, já estão inclusive atualizando-as. Nos Estados Unidos, recentemente - agora em maio -, foi publicado um plano estratégico para atualizar a estratégia americana para a inteligência artificial. Esse mapa mostra, mais ou menos, como estão distribuídas globalmente as estratégias nacionais: países que já lançaram; países que estão desenvolvendo suas estratégias; e países que não têm ainda, que são os que estão marcados em branco. E esse quadro mostra como é que está a regulação da IA no mundo: alguns países já têm regulação em vigor - notadamente, a China é o único que tem regulação em vigor -; vários outros têm planos de regulação; alguns não têm regulação nem plano; e outros não têm a informação. Eu gostaria de observar que, embora o Peru esteja marcado como se lá não existisse, nós estamos conversando com alguns países da América Latina, com o Peru inclusive, e o Peru está avançando também nesse tema. É preciso observar também que o único país que tem uma regulação da IA menciona em sua regulação que os algoritmos de IA devem ser previamente revisados pelo Estado e devem aderir aos principais valores socialistas. A regulação deve ser feita com muito cuidado para evitar extremos. Existem também publicações recentes que defendem que cada país deve ter sua regulação, assim como algumas uniões, como a União Europeia também, mas é importante ter um corpo internacional que uniformize, que harmonize essas legislações e permita evitar abusos, porque, por exemplo, se um país tiver uma política, uma regulação mais permissiva, ela pode acabar atraindo investimentos, atraindo pesquisas e cérebros, e depois exportar o que ela fez de forma danosa. Então, tem que ter algum corpo internacional, semelhante ao IPCC, que é para mudanças climáticas, que procure evitar esses problemas. O IPCC, que trata de mudanças climáticas, é um exemplo, mas tem outros também, como a Agência Internacional de Energia Atômica. Mais recentemente, agora em 2023, as Nações Unidas publicaram um chamado para a contribuição de artigos sobre a governança global da inteligência artificial. Existe uma iniciativa, que é chamada "IA para o Sul Global", que inclusive mandou um trabalho para essa chamada, uma contribuição. Esse material vai ser publicado pelas Nações Unidas, assim como estudos que podem contribuir para uma governança global, não que exerça o papel dos países, mas que balize e que evite abusos de um país que comprometam ou prejudiquem outros países. Bom, eu queria pedir permissão no final para chamar a atenção porque precisamos ser muito cuidadosos nos termos que são usados na legislação para não termos os termos que, embora gramaticalmente estejam corretos, quando nós pensamos na terminologia da inteligência artificial, podem gerar mal-entendidos e podem levar talvez até a contestações judiciais. Por exemplo, na área da IA no Brasil, nós usamos mais o termo "aprendizado" que "aprendizagem", e essa confusão "previsão" com "predição" é muito comum. Geralmente "previsão" nós usamos quando queremos prever alguma coisa que vai acontecer no futuro, se vai chover daqui a dois dias, uma coisa assim. Predição, que é a aplicação mais comum da IA, em particular da aprendizagem de máquinas, seria outra coisa: predição é uma coisa imediata, como um diagnóstico médico, por exemplo. Bom, com isso, eu agradeço a oportunidade dada pelo Senado e já me disponibilizo a ajudar no que for necessário. Muito obrigado. O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Obrigado, Dr. André Carlos Ponce de Leon Ferreira de Carvalho, Diretor do Instituto de Ciências Matemáticas e de Computação da Universidade de São Paulo. Parabéns pela apresentação! |
| R | E agora, sem demora, passo a palavra ao Prof. Antonio Augusto de Aragão Rocha, Professor da Universidade Federal Fluminense. Prof. Antonio, o senhor tem a palavra, lembrando-se de controlar o tempo por aí, os dez minutos. Obrigado. O SR. ANTONIO AUGUSTO DE ARAGÃO ROCHA (Para expor. Por videoconferência.) - Olá. Obrigado a todos. Obrigado ao Senador Marcos Pontes pela apresentação e muito obrigado ao Senado pelo convite. Eu sou Professor da UFF (Universidade Federal Fluminense) e também estou atualmente como Coordenador do Comitê Técnico de Ciência de Dados e Inteligência Artificial, da Rede Nacional de Ensino e Pesquisa. No entanto, tudo o que eu vou passar aqui é uma opinião muito mais pessoal, como um acadêmico, como um pesquisador, do que necessariamente dessas instituições. Durante esses dez minutos, eu vou falar algumas coisas que são importantes de serem levantadas. A primeira é sobre a quantidade de dados que são gerados: estima-se que algo em torno de 20 mil terabytes devem ser gerados nesses próximos dez minutos da minha fala. Isso inclui 4 milhões de stories em redes sociais, 2 milhões de pessoas em videoconferências, 800 mil aplicações em redes sociais como o LinkedIn, mais de 500 mil mensagens, mais de 7 milhões de horas assistidas, 40 mil buscas feitas no Google. Isso representa o que a gente vive no momento, que é a era da informação. E o que é importante a gente entender é que esses dados todos que vão ser gerados... A gente tem que perguntar o que é que a gente faz com esses dados. Os dados em si não têm muito valor. Os dados em si são um conjunto de "i", e muito pouco a gente pode fazer com ele. A questão é que, quando a gente organiza esses dados e dá tratamento a esses dados, a gente começa a gerar informação. Ainda assim, a informação tem uma limitação do que pode ser aproveitado. A partir dessa informação é que a gente gera conhecimento. E esse conhecimento que é gerado a partir da informação vai nos possibilitar o desenvolvimento de ideias, a criação de ideias, e essas melhores ideias são o que vai fazer ali a nossa sabedoria. Bom, isso não é uma particularidade da era da informação, isso é uma característica de sempre. A questão é que agora, com esses volumes de informação que a gente tem hoje, a pergunta que a gente pode colocar é como é que a gente vai gerar essa sabedoria para a gente saber... (Falha no áudio.) ... a melhor rota a ser alcançada, por exemplo, de um caminho de um ponto A a um ponto B, não é? Isso de forma escalável, que seja rápida, eficiente e de forma inteligente. E não existe uma mágica que a gente possa fazer, não existe uma bola de cristal que a gente possa utilizar. A gente não tem para onde fugir que não seja utilizando inteligência artificial. Essa é a solução para os problemas atuais e certamente para os problemas futuros da humanidade. O que acontece é que muitos veem a inteligência artificial como uma caixa-preta. E, por trás dessa caixa-preta, existe muito mais do que... Existe ali uma série de tratamentos nesses dados, existe uma série de algoritmos, modelos, fases de aplicação. Existe o que é gerado como resultado, mas que requer uma interpretação desses resultados. Os resultados gerados não são a sabedoria necessariamente, mas como você interpreta esses resultados. E, transversalmente a tudo isso, existe uma série de coisas: existe a questão da legalidade, existe a questão ética, a transparência, a questão histórica, a questão de segurança. Então, existe muito por trás da inteligência artificial. |
| R | Se a gente for considerar questões sobre inteligência artificial ou presente e futuro, existe uma série de dúvidas, não é? Mas existem duas certezas que são indiscutíveis. A primeira é que ela é um fato hoje na nossa vida. É indiscutível que a gente esteja convivendo com a inteligência artificial a cada instante. Cada vez que a gente pega o celular, cada vez que a gente liga o computador, cada vez que a gente dirige um carro, cada vez que a gente anda em algum lugar, a gente está convivendo com a inteligência artificial. Uma outra certeza é que ela não tem retorno. Nesse caminho que a gente está seguindo, ela não tem mais retorno. Então é importante a gente considerar que é um caminho sem volta. Como a gente pode se adaptar melhor a isso é o problema mais importante, não é? Bom, se a gente for colocar algumas provocações, que é o que eu trouxe aqui para a gente pensar quanto à legislação, do ponto de vista de pesquisa - este é o ponto de vista que eu resolvi trazer aqui: o ponto de vista de pesquisador -, é fundamental não limitarmos as pesquisas de desenvolvimento das metodologias por conta de legislação sob o risco de não acompanharmos os avanços e sermos atropelados pelos demais países. Se a gente regula demais, se a gente inibe demais a possibilidade do avanço da ciência, a gente vai ser ultrapassado, como já foi em outro momento, não por questões legais, mas por outras questões, a gente vai se tornar, basicamente, mais uma vez, meros usuários de tecnologia desenvolvidas por outros países, e a gente vai continuar pagando royalties, vai continuar pagando por esses serviços que foram desenvolvidos por esses outros países. Então é muito importante o apoio legal e que a legislação traga um apoio e um suporte para o desenvolvimento da pesquisa aqui no nosso país. Outra provocação que eu queria trazer é que uma coisa é o desenvolvimento metodológico e outra é a aplicação dele. É óbvio que existem momentos em que a inteligência artificial pode ser inadequada, pode ser até criminal ou criminosa, pode ser ainda antiética, mas haverá também o uso dessa mesma metodologia desenvolvida onde ela é legal, onde ela não é criminosa, onde ela traz benefícios sociais para a humanidade. Então, a aplicação dessa metodologia deve ser inibida através de cenários específicos, em que eu possa aplicar essa metodologia, por exemplo, na medicina, mas não possa aplicar, por exemplo, no comércio, ou vice-versa. Isso deve ser tratado com regulações específicas para aplicação daquela metodologia e não de uma forma geral, porque muitas vezes a metodologia se aplica de forma ética e correta em um cenário, mas não se aplica de forma ética e correta em outro cenário. Então é muito importante que isso seja pensado caso a caso e não de uma forma geral. Uma outra provocação que eu queria trazer é que já existem muitas regulações que protegem a sociedade e a população quanto a questões éticas da IA. Não adianta a gente trazer novas leis que já foram discutidas em outras situações, como, por exemplo, no caso da LGPD. Quando a gente fala de regular a IA porque ela pode estar usando dados da sociedade ou dados de um cidadão, vai invadir a privacidade ou violar a privacidade daquela pessoa, essa informação ou essa questão já é regulada pela LGPD. A gente não tem que trazer, como alguns pontos da lei questionam, isso para a lei do uso ou da regulação da IA. Ainda que a IA esteja usando esses dados, eles estão protegidos pela LGPD e não podem ser utilizados. Não adianta a gente imaginar que vai regular nos dois pontos. Então, a legislação da LGPD vai tratar da questão do acesso aos dados, do uso dos dados e de como esses dados vão ser utilizados. |
| R | Essa regulação e a inibição impedem, por exemplo, que soluções que permitam o avanço tecnológico com o uso adequado, sob a perspectiva da LGPD, possam ser utilizadas. Existe uma área agora que está muito em voga que é chamada de desaprendizado de máquina, em que você tenta adequar o aprendizado de máquina à legislação da LGPD: quando a pessoa quiser retirar os seus dados ou que os seus dados não sejam mais utilizados por algoritmos, que não só eles sejam removidos das bases de dados, mas que o algoritmo também desaprenda quanto a isso e seja provado que o algoritmo está rodando sob essas condições. Por fim, assim, além de não inibir o desenvolvimento, a lei deve ir além dessa não inibição. Na minha opinião, a lei deve incentivar o desenvolvimento do fomento à pesquisa, muito na linha do que o Fábio tinha falado, através da criação de centros de pesquisa especializados ou a transformação de centros de pesquisa que já existem em centros de pesquisas especializados e também da internalização do conhecimento, com incentivo à colaboração internacional do Brasil com outros países que vão estar nesse avanço tecnológico, para que a gente cresça junto. A gente não pode imaginar que o Brasil sozinho vai conseguir se manter na vanguarda do conhecimento da inteligência artificial. Então, a lei também deveria prever essa questão. Para não passar do tempo, a minha mensagem final aqui é que a inibição do desenvolvimento da inteligência artificial no Brasil não só tira o Brasil da vanguarda do avanço científico, mas também trará um preço alto ao país no futuro. Eu me coloco à disposição para perguntas e comentários, e, mais uma vez, agradeço o convite. O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Obrigado, Prof. Antonio Augusto de Aragão Rocha, Professor da Universidade Federal Fluminense. Neste momento, eu passo a palavra para o Prof. Lisandro Zambenedetti Granville, Professor titular do Instituto de Informática da Universidade Federal do Rio Grande do Sul. Prof. Lisandro, tem a palavra por dez minutos. Por favor, controle o tempo por aí também. Obrigado. O SR. LISANDRO ZAMBENEDETTI GRANVILLE (Para expor. Por videoconferência.) - Certo. Muito obrigado. Espero poder também contribuir. Eu só vou ver se os meus eslaides estão aparecendo. O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Estão no visual aqui. O SR. LISANDRO ZAMBENEDETTI GRANVILLE (Por videoconferência.) - Está bem. Muito obrigado. Eu sou professor aqui do Instituto de Informática da UFRGS, eu fui também Presidente da Sociedade Brasileira de Computação, o Prof. André, meu colega, mencionou anteriormente. Eu vou falar algumas coisas relacionadas obviamente ao uso de IA na academia, mas vou tentar fazer também algumas considerações sobre as questões de legislação e, principalmente, de incentivo às pesquisas. Bom, aqui a gente tem uma lista não exaustiva, claro, de desafios de IA e ciência de dados. Talvez tenha sido um termo que não foi mencionado anteriormente, ciência de dados, pelo menos no nosso contexto. Um deles é o déficit de profissionais. Se a gente olhar no mercado o número de profissionais que entendem dessas áreas, certamente é um número aquém das necessidades. Esses profissionais, com frequência, têm algum tipo de imaturidade analítica, porque a gente não aprende isso no colégio e, depois, quando vai para a universidade, isso também não é uma coisa muito enfatizada. Uma outra dificuldade é que a gente não tem uma infraestrutura de apoio que seja bem articulada e conhecida pelos usuários, porque, quando se fala em IA e ciência de dados, a gente pensa nos resultados finais num primeiro raciocínio mais natural, mas esses resultados finais se dão por conta dessa infraestrutura. Então, se a gente não tem uma infraestrutura nacional apropriada, a gente também não consegue avançar com IA, mesmo se a gente tivesse todos os talentos nacionais necessários. |
| R | A outra questão é que os dados são dispersos, e isso envolve também a necessidade de pesquisa para integração dos dados. Antes foram mencionadas também as questões ligadas à adequação da IA à LGPD. A gente não pode obviamente ignorar a LGPD, porque ela tem impactos sobre os avanços. As políticas públicas obviamente também são necessárias nesse contexto e têm efeitos positivos e negativos potencialmente. Eu vou mencionar um pouquinho mais à frente. E, por último, estão as preocupações éticas no desenvolvimento de IA. É uma lista, como eu falei, não exaustiva de desafios que a gente tem pela frente no contexto nacional. Certamente também várias desses são desafios internacionais da mesma forma. Eu vou me ater um pouco na questão do uso de IA no contexto acadêmico, porque é o contexto nosso aqui hoje, mas depois eu faço considerações complementares. Falando sobre IA em publicações científicas, o Prof. Fábio mencionou anteriormente o caso dos mestrandos e doutorandos que são capazes de produzir textos melhores do que os textos que naturalmente eles fariam se eles não tivessem IA disponível. Sobre isso, normalmente, quando a gente procura formar novos mestres e doutores bem capacitados, a gente almeja que esses profissionais tenham habilidades do processo científico, incluindo entender e executar bem o processo de pesquisa seguindo o método científico, promover o avanço do estado da arte através da criação de novos conhecimentos e transmitir esses avanços científicos que os mestrandos e doutorandos alcançam para a sociedade como um todo através dessas publicações científicas. Então, as publicações científicas são o veículo através do qual o conhecimento gerado na academia, através da formação desses recursos humanos, é transmitido para o restante da população, para a sociedade em geral. Nesse processo, normalmente, a gente procura fazer com que os mestrandos e doutorandos sejam capazes, então, de fazer uma boa transmissão desses conhecimentos. Não o conhecimento em si apenas é importante, mas essa transmissão. E isto é um desafio acadêmico de sempre: transmitir bem o conhecimento gerado. Mas, com o advento dessas tecnologias de IA que se popularizaram, especialmente no último ano ou nos últimos dois anos, essa transmissão ficou mais facilitada. Então, a IA é capaz de gerar textos redigidos de forma muito apropriada, com uma leitura fluida, com frases curtas e bem redigidas, com encaminhamento de ideias numa narrativa lógica, que é aquilo que a gente sempre almeja dos nossos alunos de mestrado e doutorado. Se eles conseguem fazer isso, uma boa parte do nosso processo de formação de recursos humanos já vai ter sido cumprida com mérito, mas isso está sendo, hoje em dia, já alcançado através desses mecanismos de IA. Mestrandos e doutorandos nesse processo científico deveriam aprimorar a sua escrita, mas o que a gente faz diante de uma ferramenta que já faz esse aprimoramento no lugar dos mestrandos e doutorandos? Aí será que o nosso papel como formadores de recursos humanos vai ser prejudicado por conta disso? Outros poderiam dizer o contrário: "Não, mas talvez essa ferramenta seja uma ferramenta boa, porque nos insere no contexto internacional de uma forma que a gente não conseguia anteriormente, por exemplo, por conta de barreiras de idioma". A gente naturalmente não tem inglês como língua materna. E, se tem alguém que permite a gente transmitir esse conhecimento em inglês, que é a língua da academia internacional, de uma forma mais apropriada, a gente se insere melhor nesse contexto internacional. Daí fica aquela dúvida do que é melhor: se inserir de forma mais apropriada no contexto internacional, ou os recursos humanos que a gente forma dominarem essa transmissão do conhecimento de forma mais apropriada? De certa forma, é um dilema, não é? Então, será que a gente está diante de uma potencial crise em relação aos valores da pós-graduação, ou pelo menos esses valores de uma boa transmissão de conhecimento? |
| R | Alguns mencionam isso como sendo o dilema do músico virtuoso e do DJ. Antigamente o valor que se dava a quem produzia música era muito associado à capacidade de a pessoa tocar um instrumento musical de forma bastante apropriada. Depois, com a advento de tecnologias, peças musicais puderam ser criadas por pessoas que não eram virtuosas em instrumentos musicais, mas eram bons pilotos de softwares que criavam música. Hoje em dia, se a gente perguntar para uma geração mais nova, possivelmente eles não vão achar que um DJ tem menos valor do que um músico virtuoso desde que a peça musical criada por um DJ seja de qualidade. E, aí, será que a gente não está diante de um processo parecido com esse, só que no caso de produções científicas? Assim, eu estou colocando uma pergunta, eu não tenho resposta para isso. Bom, mencionando um pouco sobre as pesquisas em IA, as pesquisas em IA podem ser aquelas que utilizam IA como ferramenta. Eu, por exemplo, não sou da área de IA, como pesquisador. A minha área é rede de computadores e internet, mas eu uso os avanços de IA para as pesquisas que eu realizo hoje em dia de forma a melhorar, por exemplo, como a gente administra uma rede. Tem aquele caso clássico em que, num ambiente doméstico, a gente pode pedir para um assistente de voz ligar ou desligar as luzes da nossa casa. Pesquisas dessa natureza podem dizer assim: "Ah, o usuário pode dizer para a rede doméstica dele que ele gostaria de priorizar o streaming de um fornecedor ou de outro fornecedor em detrimento, por exemplo, do tráfego de jogos que o filho de uma família possa estar jogando do seu quarto". Hoje, tecnicamente, isso é possível de ser feito, mas só seria realizável se a pessoa tivesse domínio técnico de como programar ou como configurar os seus dispositivos domésticos. Uma IA poderia ajudar nesse processo empoderando a família a dizer qual é o tráfego daquela rede doméstica que deve ser priorizado. Então, isso é uso de IA numa outra área, não é? Existem também aquelas pesquisas sobre IA, em que a IA como área científica evolui. A IA existe como área de pesquisa há décadas, mas só se tornou mainstream mais recentemente. As pesquisas na área de IA também precisam, obviamente, evoluir. E aí o ideal é que a legislação que venha a ser materializada não deveria, a meu ver, pôr em risco a capacidade de fazer pesquisa, a pesquisa de quem usa IA ou a pesquisa sobre IA. Foi um ponto que o Prof. Antonio falou anteriormente, não é? Então, a legislação precisa tomar cuidado, porque, ao tentar proteger os cidadãos dos efeitos finais da IA, pode acabar por engessar os investimentos da pesquisa na área. O que eu menciono aqui é que se corre o risco de o Brasil ficar aquém das evoluções internacionais, se tornando, como a gente já é em outras áreas, apenas um consumidor de tecnologias criadas fora, sem um protagonismo que a gente teria condições de ter. |
| R | Eu vou mencionar aqui alguns exemplos de estratégias que, a meu ver, foram bem-sucedidas no contexto brasileiro. As duas são de IA na área de cibersegurança, mas que me parecem estratégias que poderiam ser replicadas no contexto de IA. Existiam, no passado, as chamadas coordenadas entre Brasil e União Europeia, Brasil e Estados Unidos em cibersegurança. Essas iniciativas, por exemplo, ajudaram a formar pesquisadores que têm trânsito internacional e puderam trazer tecnologia de fora para cá, e a gente gerando tecnologia e levando para fora. Mais recentemente, existe esse programa Hackers do Bem, do domínio cibernético, que é um programa do MCTI, coordenado pela Rede Nacional de Ensino e Pesquisa, que visa à capacitação de pessoas em cibersegurança. Quem dera a gente tivesse um programa parecido com esse, só que na capacitação das pessoas em relação a IA! Aqui são as considerações finais, mas, na verdade, elas seriam um pouco de repetições sobre o que eu mencionei anteriormente. Eu acho que o meu ponto principal é que a gente está no meio de uma revolução, a gente tem mais possivelmente dúvidas do que certezas sobre o processo, mas faz parte do processo mais revolucionário. Eu acho que é importante a gente manter os investimentos para não ficarmos atrás, ainda que a gente não consiga antecipar, com certeza, quais vão ser os resultados. Era isso. Muito obrigado. O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Obrigado, Prof. Lisandro. Parabéns pela apresentação. Aliás, parabéns a todos os nossos apresentadores. Terminadas as apresentações, eu gostaria de passar ao nosso período de debate e perguntas. Então, eu vou reciclar aqui as perguntas do e-Cidadania para lembrar e já deixo à disposição dos nossos apresentadores que quiserem responder a algumas delas para que se manifestem, pode ser com a mão, pode ser... Acho que tem uma mãozinha ali também. A gente fica atento aqui a quem se manifestar ali para responder. A primeira pergunta aqui é da Camila Barreto, de São Paulo: "[...] [Que] providências que estão sendo tomadas para que a inteligência artificial seja utilizada de forma ética e responsável na educação?". A segunda pergunta é de Dyonathan Sheiiji, do Paraná: "Como universidades usam [...] [inteligência artificial] para promover inclusão e diversidade?". A terceira é do Lizandro Mello, do Rio Grande do Sul - eu olhei só para checar se não era o mesmo apresentador aqui, mas o dele é com "z" -: "Como proteger o trabalho humano insubstituível na educação [...] [pelo] mau uso da [...] [inteligência artificial]?". E a quarta é da Petra Maria, de São Paulo: "Como garantir que os cargos de pesquisa e atuação profissional não serão substituídos pela [...] [inteligência artificial]? Somente seres humanos podem [...] [inovar]". Então, eu deixo em aberto aqui para os nossos apresentadores responderem a qualquer uma delas. Só me informem a qual delas está respondendo para a gente ir ticando aqui. Vejo o Antonio Rocha ali. Pois não, Antonio, tem a palavra aí. O SR. ANTONIO AUGUSTO DE ARAGÃO ROCHA (Para expor. Por videoconferência.) - O.k. Obrigado, Senador, mais uma vez. Bom, eu vou tentar responder um pouco de cada uma dessas perguntas, mais direcionado à última. Eu acho que é um pouco sobre isto que é o temor que as pessoas têm sobre como elas vão ser repostas, substituídas com inteligência artificial. E, sem dúvida, muitas das profissões de hoje em dia vão ser substituídas por soluções de inteligência artificial, mas, certamente, outras profissões vão surgir para repor... por questões de necessidade. Mas uma coisa que é importante ficar clara é que a inteligência artificial de forma alguma é uma inteligência criativa. Ela pode recriar ou pode ajustar alguma coisa, mas ainda continuaremos dependendo dos seres humanos para inovar, para criar ideias. A inteligência artificial não vai ter esse poder. Pelo menos num futuro muito próximo, não é o caso. Então, isso vale para a educação, isso vale para qualquer profissão em que o ser humano continuará sendo necessário à existência para ter as ideias, para ter as inovações, para ter a criatividade. Os algoritmos adaptam, ajustam, mas não inventam do zero alguma coisa, como o ser humano tem a capacidade. |
| R | O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Obrigado. Obrigado, Professor. Para as outras questões, algum voluntário? (Pausa.) Fábio, aqui do lado. O SR. FÁBIO BORGES DE OLIVEIRA (Para expor.) - Eu queria fazer só uma consideração aqui com o Guto. Entendo o ponto dele e concordo que realmente nós vamos ter ser humano sempre trabalhando aqui, mas não precisa ficar apavorado, como ele falou, eu já estou apavorado por você. Então, fique tranquilo. (Risos.) O ponto é: o que é criatividade? Eu não sei o que é inteligência, eu não sei o que é vida, eu não sei o que é criatividade. Eu estou com um problema sério aqui de definição, porque a máquina pinta, a máquina compõe música que fica como a música mais tocada nos Estados Unidos, a máquina... Isso sem intervenção do ser humano. Claro que houve um ser humano para ir lá e falar: "Olhe aqui, componha uma música". Mas você não teve aquele dilema, como o Prof. Lisandro colocou muito bem, do músico e do DJ. Eu acho legal, é bem esclarecedor esse dilema, eu concordo plenamente, mas tem um outro ponto de vista, porque, nesse caso da IA, quem está compondo não é nem o músico nem o DJ que está juntando música. Você simplesmente não precisa do ser humano ali. Assim, o que está sendo feito? Bom, já está sendo feita uma grande coisa: uma discussão aqui. Já começou a ser feita uma grande coisa no principal fórum para isso, não é? Então, é um ponto muito relevante que está sendo discutido. Mas é claro que, entre a comunidade, existem pessoas, como eu, que estão mais apavoradas e pessoas que acham normal, que é só um algoritmo. Mas, particularmente, como eu citei o exemplo do trator, é um trator. Eu concordo com todos os meus colegas que veem que é um trator. Só que é a última onda no sentido de que todos os outros tratores... Veio o trator, veio o carro elétrico e aí vão vindo muitas tecnologias; daqui a pouco, vem um computador quântico e vão vir muitas tecnologias. Mas todas as outras ondas vão ser feitas em cima dessa. Esse é o grande ponto. Então, eu concordo com os meus colegas. Eu só estou colocando a explicação do meu apavoramento. Obrigado. O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - O.k., Fábio. Obrigado. Aliás, eu tenho uns pontos aqui. Enquanto eu ouvia as apresentações... Só vou colocar aqui alguma consideração para buscar um pouco de respostas também ligadas... (Pausa.) Deixe-me só dar uma olhada aqui. (Pausa.) Cadê o Lisandro? (Pausa.) Está ali. Lisandro, por favor, você tem a palavra. O SR. LISANDRO ZAMBENEDETTI GRANVILLE (Por videoconferência.) - Não, se o senhor quiser fazer as suas considerações primeiro, eu só levantei para ficar na ordem das respostas. O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Não, fique à vontade. Fique à vontade, eu faço depois. O SR. LISANDRO ZAMBENEDETTI GRANVILLE (Para expor. Por videoconferência.) - Está bem. Obrigado, então. Como a gente está declarando pavor, eu acho que eu sou menos apavorado que o Prof. Fábio. Eu acho que é um pouco mais por ter observado, no passado talvez um pouco mais remoto, temores que a tecnologia trouxe para a sociedade como um todo e que depois não se concretizaram. Eu me lembro de um caso muito pitoresco quando lançaram o PlayStation. As pessoas tinham medo e chegaram a fazer regulações, porque diziam que o poder computacional do PlayStation poderia criar bomba atômica. Aí, depois, isso, obviamente, não se concretizou. Então, é claro que a gente está no meio do processo, e, por estar no meio do processo, a gente não consegue antever muitas coisas, mas eu - não sei se ingenuamente - confio que, ao final do processo, a gente vai ter evoluído, e os eventuais prejuízos vão ser menores do que os avanços. |
| R | E, sobre a questão do uso de IA para educação, também acho que é um dilema, porque imaginem aquela situação, no exagero da expressão agora: uma IA em sala de aula em substituição ao professor. É claro que a gente imagina que isso não pode estar certo, a IA não vai ter os aspectos humanos que um professor, que funciona mais como um mestre, tem de pegar seus alunos em sala de aula pela mão e conduzi-los para eles adquirirem o conhecimento de uma forma mais apropriada, mas, ao mesmo tempo, a gente pode pensar num cenário num outro extremo em que tem uma vastidão de pessoas que não entendem de um determinado assunto, porque os meios que lhes são disponibilizados não permitem que essas pessoas tenham um professor, e aí uma IA, com uma escala maior que a de um ser humano, consegue instruir esse conjunto de pessoas não instruídas em escala, de uma forma razoavelmente satisfatória. Isso é melhor, a meu ver, do que não ter nada. E essa IA está, sim, substituindo um professor. Não é o ideal, mas ela está lá, democratizando a informação para uma massa de pessoas que, sem a IA, não teriam essa informação. Então, é uma moeda com as duas faces. Ao olhar para um lado, a gente pode dizer que não está correto, porque está substituindo um professor; do outro lado, pode-se dizer que ainda é melhor do que não ter nada. Então, fica como outro exemplo de dilema, talvez. Era isso. O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Obrigado, obrigado, Professor. Eu gostaria de colocar algumas considerações aqui, só para aproveitar a expertise dos nossos apresentadores. Eu queria colocar alguns pontos para ouvir algumas considerações com relação a isso. Vamos dizer assim: alimento para pensamento - sei lá como traduzir isso aqui. Por exemplo, vamos começar com essa questão do desenvolvimento da inteligência artificial no país. Esse é um dos pontos que eu coloquei, na época do ministério, como Ministro, como um ponto central, vendo a importância e o desenvolvimento que acontecia e acontece de forma muito rápida no planeta. Então, lá em 2018, durante o período de transição, nós elencamos algumas das tecnologias... Fizemos basicamente uma análise SWOT do Brasil e do exterior, como estavam as tecnologias... Duas vertentes surgiram como pontos de necessária atenção e investimento. Um deles era biotecnologia, com toda a sua amplitude, que vai desde biofertilizantes, biodefensivos até vacinas, etc., o que provou-se muito importante, porque nós tivemos uma pandemia depois, e não sabíamos, obviamente, que teria uma pandemia. O desenvolvimento da biotecnologia estava como uma dessas vertentes importantes. E a segunda vertente era a transformação digital e, dentro da transformação digital, todos os seus atores, como pensar desde a internet das coisas, passando por inteligência artificial, a outras aplicações, como computação quântica, etc. |
| R | Aí, com isso, dentro daquele período, nós criamos, junto com a Fapesp, em São Paulo, o programa para centros de inteligência artificial no Brasil. Então, foram oito centros de inteligência artificial mais focados. Quatro deles focados dentro das câmaras de discussão do programa da Política Nacional de Internet das Coisas e, então, de agro 4.0, saúde 4.0, cidades inteligentes e a indústria 4.0; depois entrou turismo 4.0, mas, na inteligência artificial, nós mantivemos esses quatro setores como assuntos para esses centros dedicados. Então, uma rede de instituições conectadas àquele centro trabalhando, por exemplo, em agro 4.0; outra rede trabalhando em indústria 4.0, etc. Eu propus, na época, lá também, mais dois extras: um seria para segurança cibernética, com todas as implicações da inteligência artificial com a segurança cibernética de todos os sistemas, especialmente sistemas críticos de um país, e também o que eu chamo de fronteiras da inteligência artificial, fronteiras do desenvolvimento. O que eu quis dizer com isso era a relação das limitações da inteligência artificial devido às tecnologias aplicadas. Vamos supor: a gente começa lá atrás com uma máquina bem antiga, com um programa, um software de inteligência artificial rodando ali dentro, e há uma limitação, logicamente, daquele sistema; quando você pega um supercomputador, ele vai bater, mas a tendência é sempre a gente encostar no limite do hardware. Depois que esse limite é ampliado, a gente amplia também ou muda a tecnologia, o algoritmo para que utilize menos recursos da máquina... O.k. Dita essa parte toda, a pergunta que eu deixo aqui no ar, para a gente pensar em grupo, é como estão atualmente essas limitações do desenvolvimento da inteligência artificial do ponto de vista de hardware ou mesmo de software, pensando isso. Acho que isso até acalma um pouco as questões... A inteligência não consegue fazer tudo, por enquanto; ela é um tanto dedicada a um certo setor. Como estão essas limitações? É um primeiro ponto para a gente pensar nas limitações do desenvolvimento da inteligência artificial devido às tecnologias que nós temos hoje em dia e às possibilidades que a gente tem de desenvolvimentos futuros, que vão representar um marco dentro da inteligência artificial. Por exemplo, começar a trabalhar com computação quântica, eu imagino, vai ser um marco interessante; ou a mudança de hardware, por exemplo, da IBM, da Intel, fazendo os memristores, neuromorphic design, coisas assim, que vão dar outro crescimento dentro desse sistema. Esse é um ponto. Outro ponto é com relação à educação. Muito se discute aqui - e eu participo bastante da área de saúde também, de desenvolvimento de tecnologia para a saúde - que o futuro, dentro da saúde, vai passando, supondo um remédio, de remédio químico para um remédio biológico, com desenvolvimento biológico. Um terceiro passo seria a individualização, ou seja, um remédio que seja feito para aquele organismo em especial e entregue de forma especial para aquele organismo. É lógico que isso depende... E estou olhando para o nosso cientista aqui também Marcelo Morales, que é do setor, médico, pesquisador. Então, eu vejo como um avanço, saindo do geral, químico, em que se compra uma caixa de remédios, com 20 comprimidos de que você usa 15, mas é um remédio comum, um remédio vendido na farmácia para todo mundo... Nesse caso, não; eu estou falando de um remédio biológico feito especificamente para aquela pessoa e entregue de maneira correta para aquela pessoa, individualizado. |
| R | Usando essa mesma ideia para a educação... Hoje em dia, o que a gente tem? Eu vejo uma série de professores aqui. O que a gente tem? A gente tem um sistema de formação que é feito de uma forma geral para todos os alunos, que recebem o mesmo material, e aí, de acordo com a assimilação de cada um, a facilidade e a dificuldade dentro de cada setor, dentro dos seus talentos como ser humano, a pessoa desenvolve mais ou menos numa certa área. É um remédio comum para todo mundo. Eu imagino que o futuro da educação passe a ser uma educação mais individualizada. Cada indivíduo tem as suas características de aprendizado e tem os seus talentos, vamos chamar assim, facilidades. Às vezes, se você tentar formatar todo mundo da mesma forma, você vai ter certas distorções. Pode ser que você tenha um gênio da música ali e, se você tentar colocar equações diferenciais para ele, talvez ele não goste muito daquilo e não dê muito resultado. Imaginem se a gente tivesse um sistema de inteligência artificial, por exemplo - a gente pode até pensar em algo como gamificação ou algo assim -, em que os alunos recebam os conteúdos e se desenvolvam dentro das suas respectivas habilidades, com necessidades de melhoria em alguns pontos para chegar ao ponto mínimo, vamos chamar assim, e com as facilidades de se desenvolverem de uma forma estupenda em outras áreas em que tenham mais habilidades. É só para deixar pensando aí em algum tipo de utilização de inteligência artificial para individualização do aprendizado. A gente vê hoje já grandes aplicações dentro do treinamento de profissionais da indústria, por exemplo, com realidade aumentada e outras facilidades que esses sistemas podem produzir. E, finalmente, outra parte, que tem a ver um pouco com a parte de aviação, é o seguinte... Eu trabalhei durante muito tempo com segurança de voo. Você tem muito material já escrito ao longo do tempo, desenvolvido ao longo do tempo, com objetivo sempre de salvar vidas, de reduzir ou eliminar o número de acidentes. Um dos elementos centrais dentro disso... Quando se pensa em segurança de voo, você tem três grandes pilares: um é o fator material, um é o fator ambiente, e outro é o fator humano. E o fator humano é um dos principais de tudo isso. E, quando se trata de fator humano, não só há as limitações de aprendizado e as limitações físicas, também entram as limitações e fatores de natureza emocional e psicológica. Nós, como seres humanos, temos uma tendência natural de se acostumar com o que é mais fácil e acomodar o aprendizado operacional. Exemplo: você tem um avião hoje em dia que é extremamente automatizado - e isso é muito importante para reduzir a carga de trabalho do piloto -, mas, ao mesmo tempo, em termos de treinamento, você tem que tomar um cuidado muito especial para que o piloto não se acomode acreditando o tempo todo no piloto automático. E se acontecer algum problema? Improvável? Sim, improvável, porque é lógico que os sistemas críticos têm uma redundância grande, mas pode acontecer de você perder esse sistema numa situação de descida, instrumento, numa região montanhosa como o Rio de Janeiro, para chegar ali; aí o piloto, que, em essência, é sempre responsável pelo avião - não importa se é uma máquina que está pilotando, quem é o responsável é o comandante, o ser humano -, vai ter que assumir o avião e tomar uma providência rápida, muitas vezes, em questão de segundos, naquele momento. O treinamento tem que estar preparado para isto aí também: a natureza humana de se acomodar. |
| R | Se eu perguntar para todo mundo aqui, por exemplo, quem utiliza o Guia São Paulo... Lembram? Para quem é mais antigo. São aqueles mapas da cidade deste tamanho em papel. Eu acho que ninguém mais usa isso aí. Se o GPS falhar, a gente está em maus lençóis, principalmente numa região que não conhece; ele pode levar você para um lugar errado ou fazer com que você passe por algum lugar em que não deveria passar. A questão é esta: como é que a inteligência artificial, com toda a sua capacidade de desenvolvimento de soluções para melhorar a qualidade de vida ou reduzir a carga de trabalho dos diversos tipos de profissionais ou do nosso dia a dia, pode chegar a certo ponto em que o ser humano fique tão dependente dessa nova tecnologia que aí seja induzido a erros ou mesmo seja desqualificado? Vou colocar uma palavra meio chata, mas fica desqualificado para operação de alguma coisa por ter acostumado a ter uma tecnologia cuidando daquilo que, em última análise, deveria ser de responsabilidade humana. Eu só joguei alguns pontos. Se alguém quiser fazer algum comentário, por favor, se manifeste - os nossos participantes aqui também -, fique à vontade. O SR. ANTONIO AUGUSTO DE ARAGÃO ROCHA (Por videoconferência.) - Se me permite... O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Pois não, Antonio. O SR. ANTONIO AUGUSTO DE ARAGÃO ROCHA (Para expor. Por videoconferência.) - Se me permitem, eu gostaria de falar um pouco sobre educação, como todos aqui são professores. Eu vejo que, assim como na educação, em outras áreas do conhecimento, a introdução da IA é um fator de escala. Na educação, esse algoritmo de tentar identificar como apresentar melhor, como ofertar melhor o conteúdo para um aluno já existe e é o professor atualmente. É o que a gente faz ali: tentar explicar de outra forma, tentar trazer outro tipo de conteúdo, para que os alunos aprendam melhor. A questão é que o professor tem a sua limitação física, mental e de percepção, e um algoritmo de IA pode extrapolar essa limitação do professor. Então, imaginem que, agora, de fato, ele pode ter a melhor forma de explicar cada conteúdo para cada pessoa, individualizada. Então, eu acho que isso é mais um exemplo da escala que a inteligência artificial pode trazer e que o ser humano, na sua capacidade, não consegue. Da mesma forma é com recomendação de produto, com recomendação de vídeo, de algum tipo de serviço, direcionados às preferências e às escolhas das pessoas. Aí tem outras questões envolvidas por trás, mas certamente tem a ver com a escala. O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Sem dúvida. Obrigado. Obrigado pelos comentários. O Fábio ia falar alguma coisa. À disposição. O SR. FÁBIO BORGES DE OLIVEIRA (Para expor.) - O senhor colocou muito bem sobre computação quântica. Realmente, vai ter um aumento considerável na velocidade dos treinamentos. A inteligência artificial tem uma limitação muito grande no treinamento. Uma vez que você treinou, você já roda num celular. O custo para você se comunicar com uma inteligência artificial é baixo, o custo que é alto é do treinamento. Então, tem um custo muito alto no treinamento. Eu queria colocar que eu não tenho medo de IA, gente. Eu tenho medo da ausência de IA. Então, a gente precisa realmente investir nisso, a gente precisa ir à frente, porque realmente a escola pode ser uma escola de superdotados, todo mundo sendo assessorado por IA. Isso é possível. Existem diversas tecnologias hoje para auxiliar os alunos. E não estamos muito longe de outras tecnologias mais sofisticadas, que não vêm aqui ao caso, de IA, mas o ponto é que vai mudar muito a educação. Nós podemos formar muitos gênios, aprimorar, como o senhor falou, as aptidões. A questão é que todo mundo vai poder ser músico. Eu vou poder ser músico e vou até resolver equações diferenciais. Olhem que coisa legal! Então, eu vou poder fazer de tudo. |
| R | O problema é se nós não tivermos investimentos no país - e é aí que eu estou colocando o terror - e, de repente, você não tem a escola com suporte de IA, você não tem a academia... A academia vai estar desenvolvendo apenas pequenos algoritmos verificando a convergência, alguma coisa muito específica... Eu, por exemplo, resolvendo equações diferenciais com IA. Pronto, mas eu não vou desenvolver a questão musical. Então, nós precisamos que seja investido na massa, para todos terem acesso a isso. A IA não pode ficar na mão de um pequeno grupo. Essa é a grande questão. Ela tem que ser socializada. O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Realmente, é um ponto bastante importante essa inclusão, vamos dizer assim. Eu vejo ali também o Lisandro com a mão levantada. Lisandro, por favor, tem a palavra. O SR. LISANDRO ZAMBENEDETTI GRANVILLE (Para expor. Por videoconferência.) - Eu vou mencionar um pouquinho do que o Fábio e o Guto falaram antes - desculpem-me estar falando no primeiro nome, é porque somos colegas. Eu concordo com o Fábio integralmente. Imaginem... E IA fala sobre algoritmos, sobre dados e sobre comunicação. A questão de comunicação também é crítica, e ter no Brasil, por exemplo, uma infraestrutura de uma rede quântica - não apenas comunicação quântica, mas uma rede quântica nacional - é importante para viabilizar as comunicações, mas uma rede desse tipo é aquela que democratiza o acesso a uma infraestrutura de comunicação e de processamento que viabiliza as pesquisas em IA. Então, ter uma infraestrutura dessa natureza é importante. Eu gosto de enfatizar isso, porque, quando se fala de IA, o raciocínio mais imediato e natural é sobre os algoritmos, mas os algoritmos são uma parte da equação. Se a infraestrutura e os dados não estiverem presentes, os algoritmos se tornam inócuos. E, mencionando as questões de educação anteriormente, em complemento ao que eu tinha falado também, IA pode ser o habilitador de democratização para aquelas áreas mais desassistidas, onde a gente não tem o recurso humano. Tem um projeto em IA, por exemplo, que eu gosto muito de citar. É um sistema que ajuda o professor a fazer duas coisas. Uma é corrigir provas. Alguém pode pensar assim: "Não, mas quem tem que corrigir provas é o professor". Eu acho que é mais ou menos o exemplo do piloto humano e do piloto automático. Existem coisas nas correções de provas que são repetitivas, e aí a IA pode ajudar, mas a responsabilidade da correção final ainda é do professor. É esse mesmo sistema de IA que auxilia o professor, por exemplo, para fazer detecção de evasão. Aí o sistema que corrige a prova é aquele que alerta o professor dizendo assim: "Olhe, o comportamento desse aluno, do jeito que ele está evoluindo na disciplina, indica que aqui tem um risco para esse aluno evadir". E aí o professor tem a oportunidade de chegar ao aluno que aí teria um tratamento mais personalizado que ele não teria se a IA não estivesse ali do lado do professor. |
| R | Então, de novo, uma IA substitui na correção de provas, mas é a mesma que notifica o professor de que aquele aluno vai embora daqui um pouquinho. Então, de novo, é o caso: é um pouco para o bem, um pouco para o mal. O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Obrigado, obrigado, Professor. Excelente ponto, eu nunca tinha pensado por esse aspecto. Vejam que interessante é esse tipo de discussão, que nos ajuda muito a ter esses vários pontos de vista, que são essenciais. Eu estou vendo aqui que o nosso tempo está se encerrando. Estou olhando o pessoal da mesa ali também, a gente tem a sessão ali no Plenário, mas eu gostaria de aproveitar estes instantes finais para... (Pausa.) Eu gostaria de aproveitar estes instantes finais para passar a palavra a cada um dos nossos apresentadores para que façam as suas conclusões, suas apresentações finais, suas considerações finais. Então, eu vou começar na mesma sequência que eu comecei passando aqui para o Fábio. Para as suas considerações finais, Fábio. A palavra é sua. O SR. FÁBIO BORGES DE OLIVEIRA (Para expor.) - Eu só queria agradecer, Senador, ao senhor, ao Senado, aos meus colegas aqui pela conversa. E, novamente, eu não tenho medo de IA. Eu acho muito importante, eu acho que a gente tem que investir nisso. Como o Guto falou, é sem volta. Como o Lisandro falou, existem coisas boas, existem coisas ruins. Como tudo na vida, tem um preço. Como o André falou, nós temos que começar a pensar em como colocar isso em agência, colocar ou numa agência ou num órgão, colocar uma estrutura formal em cima disso, que tenha poder, inclusive, de comunicação internacional. Então, talvez eu tenha destoado um pouco no medo, mas eu só estou querendo realmente ser enfático para chamar a atenção, pois isso é um assunto muito importante. Muito obrigado a todos. O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Obrigado, obrigado, Fábio. Deixe-me ver se alguém... Espere aí. Quem não está na sala mais? Desculpem. (Pausa.) André? Ah, sim. Então, eu vou passar a palavra ao Antonio para as suas considerações finais. O SR. ANTONIO AUGUSTO DE ARAGÃO ROCHA (Para expor. Por videoconferência.) - O.k., Senador. Muito obrigado mais uma vez a todos da Comissão, muito obrigado ao Senado pelo convite. Eu acho que a minha mensagem final, mais uma vez, é a de que a gente não pode limitar os esforços no avanço da inteligência artificial, que a gente precisa acompanhar o mundo nesse avanço, para que a gente não fique para trás mais uma vez. Não há dúvidas de que há o medo da má aplicação, mas isso é válido em qualquer outro tipo de ferramenta. Você não pode parar de vender uma faca, porque outra pessoa usa a faca para matar alguém. Você tem que estar sempre atento ao mau uso daquela solução e daquela ferramenta e regular, como tem que regular a aplicação, mas é fundamental que a gente acompanhe isso. E acompanhar significa dar liberdade à ciência, acompanhar significa trazer meios para que a ciência evolua, acompanhar significa também apoiar através de incentivos financeiros e investimentos para que essa ciência aconteça aqui no Brasil e a gente não passe a ser apenas mais um consumidor do que é desenvolvido lá fora. Muito obrigado a todos. O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Obrigado, Prof. Antonio. Eu passo a palavra ao Prof. Lisandro, para suas considerações sinais também. O SR. LISANDRO ZAMBENEDETTI GRANVILLE (Para expor. Por videoconferência.) - Muito obrigado. Eu também gostaria de agradecer imensamente a oportunidade, em especial, à Comissão por ter nos chamado. A gente carece, às vezes, de poder ajudar nesses processos. Então, para a gente é uma oportunidade. |
| R | E também finalizo dizendo que a gente está diante de uma revolução. Enquanto a gente está no meio da revolução, com trocas assim tão radicais, antever o resultado dela é uma tarefa difícil. E, como o ser humano normalmente tem um pouco de receio do desconhecido, existem temores naturais - e não estou falando de nós da academia, mas da sociedade em geral também -, isso faz parte do processo. Outras revoluções aconteceram, e os temores estavam lá presentes também. E, como sociedade, eu acho que a gente sobreviveu - obviamente a gente sobreviveu, senão a gente não estaria aqui. Mas quero mencionar que existe um risco aqui. Eu acho que o risco principal é o temor de o desconhecido nos paralisar. Isso eu acho que é o pior. Então, eu acho que devemos lutar para não ficarmos paralisados. E aí podemos avançar. Mesmo que a gente não consiga antever os resultados finais neste momento, eu acho que é uma melhor abordagem para não perder o bonde, não ficar atrás de outras nações e, como sociedade, como um todo, a gente poder continuar inserido no mundo globalizado que a gente tem hoje. É isso. Muito obrigado. O SR. PRESIDENTE (Astronauta Marcos Pontes. Bloco Parlamentar Vanguarda/PL - SP) - Obrigado, Prof. Lisandro. Verificando aqui, acho que o Prof. André já não está mais conosco, mas, se estiver, tem a palavra. (Pausa.) Imagino que não. Então, não havendo mais nada a discutir, eu aproveito este momento final para agradecer a presença de cada um dos nossos apresentadores, agradecer às pessoas que nos acompanharam através da TV Senado, através das redes sociais, e a todos aqueles que estão pessoalmente aqui conosco também. Sem dúvida nenhuma, esse é um assunto extremamente importante. Ainda nós teremos outras discussões. Amanhã, neste mesmo horário, nós teremos outra audiência também, aqui neste mesmo local, agora com relação às aplicações na saúde da inteligência artificial. Então, já aproveito, de antemão, para convidar a todos para participarem. Não havendo mais nada a tratar, declaro encerrada esta reunião, agradecendo a todos. Obrigado. (Iniciada às 14 horas e 19 minutos, a reunião é encerrada às 15 horas e 50 minutos.) |

