03/12/2024 - 51ª - Comissão de Direitos Humanos e Legislação Participativa

Horário

Texto com revisão

R
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS. Fala da Presidência.) - Declaro aberta a 51ª Reunião, Extraordinária, da Comissão Permanente de Direitos Humanos e Legislação Participativa do Senado Federal da 2ª Sessão Legislativa Ordinária da 57ª Legislatura.
A audiência pública será realizada nos termos do Requerimento 64, de 2024, da CDH, de nossa autoria, para debater o impacto da inteligência artificial nos direitos humanos.
A reunião será interativa, transmitida ao vivo e aberta à participação dos interessados por meio do Portal eCidadania, na internet, em www12.senado.leg.br/ecidadania, ou pelo telefone da Ouvidoria 0800 0612211.
Os palestrantes terão dez minutos com mais cinco, se necessário for, com a devida tolerância desta Presidência.
Como é de praxe, farei aqui a leitura do texto de início dos trabalhos organizado pela consultoria do gabinete.
Senhoras e senhores, em primeiro lugar, dou boas-vindas aos representantes do Conselho Nacional dos Direitos Humanos, que propuseram, em conjunto com a CDH, essa audiência pública sobre o impacto da inteligência artificial nos direitos humanos.
Agradeço também a participação dos convidados, de todos os presentes, dos que nos assistem pelos canais do Senado Federal, como Agência Senado, enfim, por todo o sistema de comunicação da Casa, Rádio Senado...
Esta audiência pública se insere na série de debates que vêm sendo propostos pelo Conselho Nacional de Direitos Humanos em torno do tema da inteligência artificial - parabéns pela iniciativa!
O último desses encontros ocorreu no Rio de Janeiro, há duas semanas, no âmbito do G20 Social. As conclusões desse evento reforçam a importância da regulação imediata como estratégia para promover o desenvolvimento ético e inclusivo da inteligência artificial.
Não há dúvida de que a inteligência artificial é uma tecnologia que veio para mudar o mundo. Está aí, não tem volta. Seus benefícios são óbvios. A IA permite o processamento rápido de grandes volumes de dados, automação de processos e a personalização de procedimentos, aumenta a eficiência e a produtividade, reduz custos, promove crescimento e desenvolvimento.
Há mesmo quem afirme que estamos diante de uma nova revolução no mundo do trabalho e das comunicações.
Seus impactos sobre os direitos humanos são, porém, contraditórios - por isso estamos aqui hoje, não é? De um lado, cresce a expectativa de avanços consideráveis na saúde, com diagnósticos mais precoces e mais precisos, medicina personalizada e a assistência remota.
R
A IA vem promovendo também avanços na educação, com maior disponibilidade de informação, mais facilidade de acesso a dados e aprendizado adaptativo.
Espera-se que contribua também para avanços na preservação do meio ambiente, com sistemas de monitoramento mais abrangentes e otimização de recursos.
Devemos também avançar em tecnologias assistivas, que, com base em inteligência artificial, têm um enorme potencial de ampliar a acessibilidade, romper barreiras linguísticas e promover inclusão social.
No entanto, existem também os riscos: o risco de desigualdade digital, de que os benefícios da IA sejam apropriados por apenas uma parte da população e que termine por reproduzir ou mesmo agravar a desigualdade social, que é uma grande, grande preocupação desta Comissão; e, por isso, é a Comissão de Direitos Humanos.
Há o risco da perda de privacidade e de controle sobre os dados pessoais, em uma sociedade de vigilância máxima; o risco da discriminação e do viés, o chamado racismo algoritmo, que pode perpetuar ou mesmo amplificar preconceitos. Há o risco da desinformação e da manipulação, de disseminação de discurso de ódio e de ataque coordenado às instituições ou mesmo às pessoas, as famosas fake news; há o risco de substituição massiva de trabalhadores por meio da automação sem o devido debate.
E aqui eu me dou o direito de dizer, por exemplo, o da redução de jornada sem redução de salário. O debate que o mundo faz hoje é de quatro dias por três, por semana, 4 x 3.
Esse debate está aqui no Brasil também, com inúmeras iniciativas de redução de jornada. Só eu tenho uma PEC, de 2015, e dois projetos, e o Senador Weverton, que tem uma outra, de que sou o Relator.
Na Câmara dos Deputados está em avanço essa campanha contra o 6 x 1, que é seis dias de trabalho e um de descanso.
Não podemos permitir que a inteligência artificial venha a retirar direitos e emprego dos trabalhadores.
Eu tenho um debate longo, em que eu trato dessa área, e já estive em outros países debatendo isso. Quando a tecnologia avança, de forma surpreendente e positiva - e ninguém pode ser contra a tecnologia -, e cada vez aumenta, digamos, a automação, você tem que ver como é que fica o trabalho dos seres humanos. E aí o caminho, na minha ótica - um deles, não é só ele -, é a redução da jornada de trabalho.
Enfim, podemos ter repercussões sobre todo o sistema de assistência e previdência social. Há o risco da concentração do saber, do poder tecnológico e do aumento da exclusão digital, principalmente em países como o Brasil, que chegou atrasado a essa corrida pela inovação.
Não são poucos os desafios, os desafios éticos e os desafios sociais da inteligência artificial. Estamos aqui hoje para discuti-los, de forma tranquila, com uma visão ampla de que nós queremos apenas fazer o bem a todas as pessoas.
R
O Senado constituiu, há pouco, há mais de um ano, uma Comissão Temporária Interna destinada especificamente a preparar uma proposta de regulamentação da inteligência artificial no Brasil. Foi a alternativa encontrada para dar conta da enorme quantidade de propostas sobre a matéria. Só no Senado são, hoje, mais de 20 projetos de lei que discutem a inteligência artificial.
O ponto de partida da Comissão, aqui no Senado, foi o Projeto de Lei nº 2.338, de 2023, que é resultado do trabalho de uma equipe de juristas. A proposta tem como autor principal o Presidente Rodrigo Pacheco. O Relator é o Senador Eduardo Gomes.
A proposta reproduz, em muitos pontos, as orientações aprovadas recentemente pela União Europeia.
Ao texto original do projeto a Comissão incorporou elementos de várias outras proposições, entre as quais o Projeto de Lei nº 21, de 2020, já aprovado pela Câmara dos Deputados.
Para a discussão desse texto, precisamos de parâmetros, parâmetros que esperamos que sejam construídos a partir de um debate que já está acontecendo, com muito equilíbrio, muita tranquilidade, de forma tal que a inteligência artificial venha para fazer o bem.
Quando eu digo bem, eu uso sempre aquela frase conhecida: "fazer o bem sem olhar a quem".
Enfim, são parâmetros que esperamos sejam construídos a partir de grandes debates, como estamos fazendo já no Brasil - e o mundo todo já fez e está fazendo.
Portanto, esse é o objetivo desta audiência pública.
Agradeço a presença de todos. A participação de vocês é essencial.
O tema que discutimos hoje aqui é nada mais do que o nosso futuro, futuro que o mundo já está debatendo.
Muito bem.
Feita a introdução, vamos, de imediato, para a primeira mesa.
Eu iria já chamá-la e o farei assim mesmo.
Fica anunciada a Sra. Estela Aranha, Assessora Especial da Assessoria Especial da Presidência da República, membro do Conselho Consultivo de Alto Nível da ONU para Inteligência Artificial.
Estela está a caminho. Quando chegar, ela já vem para a mesa.
Paula Guedes, representante da Coalizão Direitos na Rede.
Paula Guedes já se encontra?
Por favor, Paula Guedes. É um prazer recebê-la aqui. (Palmas.)
Atahualpa Blanchet, representante do Instituto Políticas Públicas e Direitos Humanos.
Seja bem-vindo. (Palmas.)
Admirson Medeiros, representante do Conselho Nacional dos Direitos Humanos. (Palmas.)
Essa é a primeira mesa.
Com todos aqui presentes, aproveito para cumprimentá-los. (Pausa.)
R
Algumas pessoas chegaram aqui, quiseram tirar uma foto comigo, e eu estava abrindo a sessão, mas todos são bem-vindos.
Ninguém pode ir embora sem tirar foto, hein? Ou individual ou coletivamente. Isso já é praxe nesta Comissão, viu?
Mas vamos lá, pessoal. Com esse espírito de alegria e de que avançaremos, vamos iniciar o nosso debate.
Passo a palavra então, já que a Sra. Estela não se encontra, à Dra. Paula Guedes, representante da Coalizão Direitos na Rede.
A SRA. PAULA GUEDES (Para expor.) - Bom dia, gente.
É um prazer estar aqui, representando a Coalizão Direitos na Rede.
Já agradeço o convite do Senador, também do Admirson e de meus colegas aqui. É um prazer estar representando a sociedade civil nesta mesa.
O Senador já adiantou bastante sobre os impactos da inteligência artificial em direitos humanos. Acho que isso é claro para todo mundo e é uma realidade. A gente não está falando mais de uma tecnologia que vai chegar, mas de algo que já está nas nossas vidas, inclusive na palma das nossas mãos, quando a gente pega o celular, às vezes, para desbloquear o telefone, por exemplo, para acessar aplicativos nas redes sociais e por aí vai.
Mas acho que a minha missão aqui, hoje, é falar que a gente não está lidando só com riscos de uma tecnologia futura, mas com benefícios, claro, e com alguns danos que já são sentidos por muitas pessoas, em especial nos grupos vulneráveis. E aí, quando a gente fala em grupos vulneráveis, no nosso contexto do Brasil, que é um país de Sul Global, é ainda mais sentido, não é? Ainda tem esse reforço.
Acho que a missão aqui é mostrar por que a gente deve, sim, olhar para direitos humanos, quando a gente fala de inteligência artificial, e por que a regulação é uma aliada para a tecnologia nesse contexto.
O Senador também pontuou muito bem que a gente tem aqui no Brasil, desde 2020, um projeto de lei que fala sobre inteligência artificial. Na verdade, a gente tem vários projetos de lei que falam sobre inteligência artificial já, hoje em dia.
O PL nº 2.120 nasceu na Câmara dos Deputados e, hoje em dia, está na Comissão Temporária de Inteligência Artificial, apensado a outros projetos, como o de nº 2.338 de 2023, para análise no Senado.
Mas queria fazer com vocês aqui, na verdade, um histórico de pensarmos que, no início do boom da inteligência artificial - porque ela voltou às conversas por volta de 2018, 2019 -, houve também uma explosão de princípios éticos que falavam de governança desses sistemas, e, de 2019, para cá, se viu que, na verdade, só estratégias principiológicas de autorregulação não são suficientes para conter os riscos e os danos dessa tecnologia. Então, se viu necessário criar regras cogentes, com força de lei, com força vinculante, para que os agentes que estão aí desenvolvendo, implementando, utilizando o sistema de inteligência artificial possam se adequar e respeitar direitos humanos e direitos fundamentais. E é aqui que a gente está hoje em dia, quando a gente fala de regulação de inteligência artificial.
Então, agora, na minha fala, gostaria de falar do que é importante, do que uma regulação de inteligência artificial para o Brasil deveria ter. E a gente tem visto, já com uma tendência internacional, a regulação de sistemas de AI a partir do risco.
Acredito que isso seja muito positivo e, por experiência de outros países, também de outras regiões, a gente tem visto que isso tem virado quase a tendência, quando se fala em regulação de inteligência artificial, porque a tecnologia é muito ampla. Então, tem sistemas que têm baixo risco, médio risco, alto risco e riscos que são inaceitáveis e, por isso, não podem ser aceitos.
Então, nem toda tecnologia é indispensável e inevitável. A gente pode, sim, escolher qual tipo de tecnologia quer, e, para isso, a gente precisa de regras bem estabelecidas.
R
Então, para regular a inteligência artificial, uma tendência que temos observado é essa regulação baseada em riscos, mas o projeto de lei brasileiro - e aqui eu falo do Projeto de Lei 2.338, de 2023 - não é só baseado em riscos, mas também é baseado em direitos, e isso é muito importante, considerado o histórico do Brasil, que tem uma Constituição com um rol de direitos fundamentais amplo, inclusive com a possibilidade de inclusão de outros direitos fundamentais, direitos humanos, a partir de tratados internacionais incorporados aqui, que têm status de emenda constitucional.
Então, é superimportante que, quando a gente olha para a inteligência artificial, a gente tenha uma regulação que pense nesses sistemas protetivos de direitos responsáveis e que não seja uma inovação a qualquer custo, que vá violar direitos e gerar vários problemas sociais que, depois, a gente vai ter que correr atrás para corrigir.
Então, a regulação de inteligência artificial pelo Projeto 2.338 é baseada em riscos e em direitos, porque ela tem - por enquanto, pelo menos - um rol de direitos aplicáveis aos eventuais afetados por esses sistemas.
Ela conta também com um arranjo regulatório, que, pensando no contexto brasileiro, é até um pouco inovador, pelo que a gente conhece, porque teria uma agência coordenadora e autoridades setoriais que estariam trabalhando nesse sentido, para fiscalizar, regular e regulamentar também eventuais outras necessidades do projeto.
Com isso, você dá dentes também para que a regulação não seja só uma norma aberta e que tenha, de fato, como ser implementada e fiscalizada, e aqui uma fiscalização a posteriori. Os agentes de inteligência artificial teriam a obrigação prévia de eles mesmos fazerem esse movimento de se avaliarem e cumprirem com as obrigações, e, eventualmente, a autoridade estaria ali para fiscalizar e para garantir que aqueles agentes estejam, de fato, prestando contas.
Essa abordagem baseada em riscos faz com que a gente não coloque todo o peso regulatório da mesma forma para todos os agentes, mas sim que alguns sejam mais regulados do que outros.
E aqui é importante falar que, como já mencionei alguns minutos atrás, tem alguns sistemas que são inaceitáveis. Então, por exemplo, você fazer pontuação social da população é um caso que é inaceitável, porque viola muitos direitos humanos, muitos direitos fundamentais. Então, deveria ser um caso de uso de sistemas de inteligência artificial desde logo banido, proibido pela futura lei.
Os casos de alto risco são os que são permitidos, a princípio, mas têm que cumprir uma série de obrigações de governança, e aqui eu coloco como destaque as obrigações de impacto algoritmo, outras obrigações de transparência, prestação de contas, garantia de critérios de segurança, de confiabilidade e de robustez, com destaque para essa avaliação de impacto.
Outro ponto que também é muito importante, quando a gente fala de sistemas de inteligência artificial, é também considerar a participação dos grupos que vão ser eventualmente impactados. Nada melhor do que ouvir quem vai sentir na pele os impactos daquela tecnologia, para ter insights eventualmente do que pode ser feito para melhorar ou saber se aquela população, de fato, precisa daquela tecnologia, porque nem sempre é o que acontece.
R
Acho que esse projeto de lei que vai ser, inclusive, talvez votado hoje, às 11h, na Comissão Temporária sobre Inteligência Artificial é um primeiro passo positivo que o Brasil pode dar em direção à regulação desses sistemas, passando uma mensagem adequada, internacionalmente também, de que o Brasil quer inovações que sejam responsáveis e protetivas de direito, passando um recado também de que regulação não é contrária à inovação, muito pelo contrário, porque, para a gente ter uma inovação, ela tem que proteger as pessoas que moram aqui ou que estão aqui e proteger direitos fundamentais das pessoas.
Não adianta criar qualquer tipo de inovação ou de tecnologia que depois vai gerar danos, inclusive danos de reputação para as próprias empresas, com violações de direitos. Então, no passado - eu sempre uso este exemplo, porque eu acho que ele é muito palatável -, a gente via muitos casos de produtos que eram defeituosos, explodiam e feriam consumidores, e hoje em dia a gente não vê tantos casos assim, porque o Código de Defesa do Consumidor foi criado e criou obrigações para que os fornecedores as cumprissem e para que os produtos e serviços então colocados no mercado e disponibilizados para serviço tenham critérios de condições para circular e para estar em contato com os consumidores.
Então, esse é um exemplo muito claro de que o Brasil é capaz de produzir e de continuar produzindo inovações, mesmo com regulação.
Então, regulação não é oposta à inovação, e quem usa esse argumento é normalmente tendencioso; é um argumento muito falacioso e que, na concretude, não se mantém.
E, para finalizar a minha fala, porque eu estou vendo que o meu tempo está acabando, quero reforçar que esse projeto também olha para a particularidade do Brasil.
(Soa a campainha.)
A SRA. PAULA GUEDES - Então, ele lida...
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS. Fora do microfone.) - Você tem mais cinco.
A SRA. PAULA GUEDES - Ah, é?
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS. Fora do microfone.) - Agora, depois do sinal, mais cinco.
A SRA. PAULA GUEDES - Ah, que ótimo! Então, ganhei cinco minutos. O.k.
Esse projeto...
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS. Fora do microfone.) - Para todos isso serve.
A SRA. PAULA GUEDES - Maravilha!
Então, esse projeto também tem a particularidade de olhar para o que o Brasil tem de especial, e aqui eu coloco o Brasil enquanto um país do Sul Global, em que a gente tem nossas particularidades também de um contexto de discriminações estruturais, principalmente de racismo estrutural, e esse projeto olha para isso, como um primeiro exemplo, conceituando o que seria a não discriminação e considerando, inclusive, discriminação indireta, que é um conceito que vem da Convenção Interamericana de Direitos Humanos... De direitos humanos não; estou louca: da Convenção Interamericana contra o Racismo, que também tem status constitucional aqui no Brasil.
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS. Fora do microfone.) - Mas tem a ver com os direitos humanos também.
A SRA. PAULA GUEDES - Ah, com certeza, mas eu estava usando a convenção errada - para quem está ouvindo, para saber a referência certinha.
Então, esse projeto olha para isso, ele traz uma proteção de direitos fundamentais de não discriminação também importante, ele traz a proteção também especial para grupos vulneráveis, principalmente a crianças, adolescentes e idosos.
E esse projeto, então, na última versão publicada pelo Senador, no dia 28 de novembro, traz um mínimo necessário. Ele traz uma abordagem baseada em riscos, ele traz casos proibidos, ele traz os casos de alto risco, com um rol exemplificativo, trazendo medidas de governança, como as avaliações de impacto, ele traz o sistema de fiscalização, regulação e governança, ele traz também a proteção ao trabalho, ao trabalhador, à sustentabilidade, aos direitos autorais, mas ele também traz alguns retrocessos, principalmente por conta de lobby que aconteceu, principalmente, de big techs e do setor industrial.
Então, o projeto cada vez mais vem se desidratando, e parece que a atenção aos direitos fundamentais vai diminuindo também, quanto mais se apresentam novos relatórios, e acho que aqui é um momento também para a gente reforçar o quanto é importante que a regulação que sair deste Senado e que depois for também continuar o processo legislativo na Câmara - e eventualmente para cá de novo - seja protetiva de direitos e traga uma inteligência artificial responsável, porque... De novo eu estou sendo repetitiva aqui, porque, de fato, é importante: a regulação não é contrária à inovação, muito pelo contrário: o que a gente quer é estimular boa regulação, aquela regulação que vai proteger direitos fundamentais e potencializar o que o Brasil tem de bom, e o que a gente tem de bom aqui é muita capacidade de criar e de ter inteligência artificial que seja protetiva de direitos e responsável.
R
De novo, estou sendo repetitiva aqui, porque é de fato importante: a regulação não é contrária à inovação, muito pelo contrário. O que a gente quer é estimular a boa regulação, aquela regulação que vai proteger direitos fundamentais e potencializar o que o Brasil tem de bom. E o que a gente tem de bom aqui é muita capacidade de criar e de ter inteligência artificial que seja protetiva de direitos e que seja responsável.
Então, devolvo, com três minutos, para vocês.
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Ela disse que guardou três minutos, porque ela voltará na hora do debate.
Quero cumprimentar a Paula Guedes, representante da Coalizão Direitos na Rede, e já dar uma salva de palmas... (Palmas.) ... pela sua brilhante explanação, mostra que realmente conhece o tema, e demonstrou a todos que regulamentar não significa proibir. Regulamentar significa garantir o direito de todos, moralizar e não permitir fake news. Esse resumo é meu, viu? Se estiver errado, diz: "Foi ele que disse".
Parabéns, viu, Paula? Você terá oportunidade de falar novamente.
Agora, nos solicitou - porque ele está com outro compromisso -, para que ele possa entrar por videoconferência, o Sr. Renan Bernardi Kalil, Procurador do Trabalho, Coordenador Nacional da Conafret e membro do Grupo de Trabalho sobre Inteligência Artificial do MPT.
Por favor, Dr. Renan Bernardi Kalil. O tempo é seu, dez minutos com mais cinco.
O SR. RENAN BERNARDI KALIL (Por videoconferência.) - Bom dia a todas e todos.
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Bom dia.
O SR. RENAN BERNARDI KALIL (Para expor. Por videoconferência.) - Bom dia, Senador Paulo Paim.
Gostaria de, inicialmente, agradecer o convite, em nome do Procurador-Geral do Trabalho José de Lima Ramos Pereira, para o Ministério Público estar neste momento importante, nesta audiência pública que trata do impacto da inteligência artificial nos direitos humanos. Esse é um tema fundamental para os dias em que a gente vive, e o Ministério Público do Trabalho tem grande interesse em estar nesses debates e apresentar as nossas contribuições.
Então, gostaria de fazer esse agradecimento inicial e iniciar minha fala um pouco no sentido de retomar o que a Paula veio dizendo e o que o Senador também colocou, que a regulação não é contrária e não tem nenhuma dificuldade com a inovação. Pelo contrário, parece que essa questão, como o Senhor mencionou, é fundamental para a gente encarar que as inovações tecnológicas, inclusive, não são forças isoladas que são produzidas por valores neutros e sem qualquer tipo de interesse, sem vinculação com as relações de poder instituídas.
É importante que a gente coloque que essas inovações tecnológicas estão inseridas dentro desse contexto mais amplo. Elas são desenvolvidas dentro de um sistema socioeconômico em que a gente vive e, de alguma forma, estão reproduzindo e atendendo alguns ditames que se relacionam com essas relações de poder que estão dadas. Se a gente olha para a tecnologia única e exclusivamente como se ela fosse uma força condutora de uma marcha inexorável a caminho de uma direção unívoca, a gente vai simplesmente desprezar possibilidades de intervenção, na realidade, para moldar o presente e o futuro, a partir de formas alternativas, inclusive, que entendem que não deve haver qualquer tipo de regulação e que tudo isso vai se dar por meio de uma autorregulação, eventualmente, por parte das empresas. Isso nos coloca em uma posição de, eventualmente, moldar de forma marginal esse futuro que a gente está querendo debater aqui; este presente, na verdade, porque a inteligência artificial já é uma realidade para todos.
R
Então, eu gostaria de iniciar a minha exposição colocando o tema dentro dessa premissa, que me parece fundamental e se relaciona com essa preocupação que o Senador trouxe, que a Paula mencionou na fala dela, de ressaltar a importância da regulação nesse sentido.
A minha preocupação - que eu vou tratar com mais detalhe aqui, Senador e demais presentes, até por conta da instituição à qual eu pertenço, o MPT - vai muito direcionada para a figura do trabalhador e das entidades sindicais. Quando a gente olha para a inteligência artificial, geralmente, a gente imagina aquele modelo de linguagem, algum tipo de sistema, algum artefato técnico que está interagindo conosco de forma automatizada, sem que exista qualquer tipo de mediação realizada por um ser humano, mas os sistemas de inteligência artificial não se desenvolvem dessa forma. Quando a gente entra em contato com um ChatGPT, com esses modelos de linguagem, por exemplo, ou com qualquer outro mecanismo de inteligência artificial que faz verificação de imagem e tudo isso, para que esse produto chegue até nós, enquanto consumidores, isso passou por uma espécie de treinamento e customização que envolveu o trabalho de pessoas, o trabalho de seres humanos.
Existem plataformas de crowd work, por exemplo, que são uma modalidade de trabalho via plataforma digital que ocupa um papel fundamental nisso, e os trabalhadores que fazem essa espécie de treinamento e de customização desses modelos de inteligência artificial vão realizar algo que alguns estudiosos vão chamar de trabalho cultural. O que é esse trabalho cultural? Quando a gente olha para trabalhadores que vão gerar essas informações treinadas e customizadas que eu estou mencionando, eles vão ensinar os algoritmos, de alguma forma, a combinar e a compreender padrões que são produzidos por seres humanos em relação a determinados assuntos. Essas empresas de tecnologia precisam dos trabalhadores, porque os softwares, os computadores, enfim, não vão ter as referências culturais necessárias para interpretar linguagem, sons e imagens que são questões relacionadas diretamente aos seres humanos.
Um exemplo, Senador, para tentar ilustrar isso que eu estou mencionando, um exemplo desse trabalho cultural é a avaliação de timeline de usuários de rede social, por exemplo, e o julgamento de disputas que podem existir em relação a um conteúdo denunciado em páginas da internet. Isso vai exigir a existência de um conhecimento de contexto, de peculiaridades, de particularidades, na verdade, próprias das interações humanas, em que a inteligência artificial, o aprendizado de máquina, vai ter uma limitação para fazer essa análise. Então, conforme os seres humanos vão realizando atividades e vão treinando essas tecnologias, as capacidades da inteligência artificial vão avançar e as pessoas vão ser designadas para realizarem outras atividades.
Isso é um ciclo que é virtuoso para as empresas de tecnologia, mas é um trabalho que não é apresentado e colocado à luz do sol para as pessoas. Não é à toa que vários estudiosos do tema vão caracterizar e vão denominar esse tipo de trabalho como trabalho fantasma, como trabalho escondido, como trabalho atrás das cortinas, porque todos esses modelos, todos esses produtos que se relacionam com a inteligência artificial e que chegam até nós, muito pouco do trabalho humano colocado nisso vai ser mencionado e exposto para a sociedade. Então essa é uma preocupação inicial que eu gostaria de trazer. A segunda se relaciona até com o que o Senador trouxe na fala inicial, com a preocupação de os trabalhadores não ficarem para trás e de a gente não ter apenas e tão somente um cenário em que os trabalhadores vão ser substituídos por máquinas, por robôs, e que vão ficar sem um emprego, sem a fonte de subsistência do trabalho deles. Para a gente evitar isso, é fundamental que a gente pense numa regulação que reforce o papel que os sindicatos vão ter e em que a negociação coletiva de trabalho vai ser estimulada. Somente dessa forma é que impactos da robotização vão poder ser mitigados e os trabalhadores não vão ser prejudicados no curso desse processo. E vejam que não estou fazendo essa colocação apenas e tão somente para reforçar o papel dessas instituições, que são centrais para o mundo do trabalho, mas porque a gente possui experiências em outros países que demonstram que, quando os sindicatos intervieram em processos de debate sobre o uso de máquinas que eventualmente iriam substituir trabalhadores, quando existia um número grande de sindicalizados ou quando negociações de coletiva de trabalho foram celebradas, os impactos foram positivos para os trabalhadores. E existem dois casos que eu gostaria de trazer aqui.
R
O primeiro é em relação à Alemanha. Tem um artigo científico muito interessante que demonstra que, nos anos 90, houve um boom da introdução de robôs na indústria manufatureira na Alemanha e que, por meio das pesquisas que analisaram o impacto do que aconteceu com os trabalhadores, esses autores conseguiram identificar que aqueles trabalhadores que tiveram as atividades repassadas para os robôs não foram demitidos, mas foram treinados e alocados em outros trabalhos mais complexos na linha de produção da empresa. E isso aconteceu com mais intensidade em locais em que havia um maior número de trabalhadores sindicalizados.
Outro exemplo para que eu chamo a atenção é o caso da Suécia. A Suécia, diferentemente de outros países, tem lidado de forma um pouco mais otimista com a automação e a robotização, por conta de uma combinação que existe lá de uma forte rede de proteção social, de sindicatos fortes e importantes, e de uma cultura de cooperação entre trabalhadores e empregadores. Então, diferentemente de outros países em que a automação geralmente é vista como uma ameaça ao emprego, na Suécia, isso é encarado como uma oportunidade para tornar as empresas mais eficientes, mas para que também os trabalhadores fossem beneficiados. E os sindicatos tiveram papel crucial nesse processo. Então, em vez de resistirem à automação, eles realizaram negociações de contratos coletivas para assegurar salários justos, que é fundamental para os trabalhadores, mas também boas condições de trabalho e treinamentos para requalificar esses trabalhadores, porque a preocupação das entidades sindicais ali não é com o emprego em si, mas com o que está acontecendo com os trabalhadores. Então, se um posto de trabalho está sendo fechado, a gente tem que olhar para aquele trabalhador que está de alguma maneira saindo desse posto de trabalho, para conseguir entrar numa outra atividade. Então, existe essa preocupação que o sindicalismo sueco está trazendo e que tem sido tratada de forma positiva por lá.
R
Além disso, existem outras questões que me parecem fundamentais e que têm uma relação com o debate que a Paula trouxe sobre a classificação em riscos e como que a gente olha para as relações de trabalho. No PL 2.338, na versão anterior do relatório, no art. 56, existia uma série de direitos que tratavam dos trabalhadores que foram enxugados e reduzidos a apenas três incisos na versão atual do art. 58. E me parece que esse enxugamento, essa redução dos incisos retira elementos fundamentais para que o trabalho não seja deixado para trás nesta conversa que a gente está fazendo sobre regulação da inteligência artificial.
A gente prevê que questões relacionadas com o monitoramento dos trabalhadores e as decisões automatizadas passem por revisão humana, isso é fundamental para que os trabalhadores tenham uma clareza a respeito do que está acontecendo na relação de trabalho e para que eles possam compreender esse gerenciamento algorítmico que, eventualmente, as empresas vão conduzir. A obrigatoriedade de uma revisão humana diante de decisões automatizadas que impactam a vida dos trabalhadores, que era uma previsão no último inciso do art. 56 do PL e que foi retirada nessa nova versão, é uma questão que afeta não só a inteligência artificial diretamente, mas as relações de trabalho que estão constituídas hoje em dia e que a gente vê se desenvolverem nas ruas do Brasil inteiro.
Então, nesse debate, por exemplo, que trata da situação de motoristas e entregadores que atuam por meio de plataformas digitais, uma das principais demandas que eles sempre colocam em todos os debates dos quais eles participam é a forma pela qual as empresas aplicam suspensões e bloqueios a eles. Eles não têm clareza alguma disso e, se eles ficam insatisfeitos com a forma pela qual isso se dá, eles invariavelmente não conseguem ter uma resposta satisfatória das empresas e são obrigados a recorrer ao Judiciário para entenderem o motivo pelo qual eles estão sendo afastados do trabalho, estão sendo bloqueados, estão tendo essa fonte de renda suprimida deles.
Então, a previsão de se colocar no PL a importância de se assegurar uma explicação do motivo pelo qual o interesse desses trabalhadores está sendo de alguma forma prejudicado e que, diante de decisões automatizadas, eles tenham direito à revisão, uma revisão humana, é fundamental, inclusive, que isso eventualmente seja reconsiderado para reintroduzi-lo no PL 2.338 que está sendo debatido, como já foi mencionado anteriormente.
Esses eram os principais aspectos que eu queria abordar. Estou vendo aqui que eu já estou chegando perto do meu limite de tempo, inclusive dos cinco minutos adicionais que o Senador franqueou para os expositores. Então, eu finalizo a minha fala trazendo essas preocupações de que os trabalhadores têm que estar dentro do centro das preocupações das conversas que a gente faz quando a gente está regulando a inteligência artificial. Tentei trazer aqui alguns elementos relacionados a isso.
R
Gostaria de desejar uma ótima continuidade de audiência pública para todas e todos e de reiterar o agradecimento pelo convite para o MPT participar desta atividade.
Muito obrigado. (Palmas.)
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Muito bem, Sr. Renan Bernardi Kalil, Procurador do Trabalho, Coordenador Nacional da Conafret e Membro do Grupo de Trabalho sobre Inteligência Artificial do Ministério Público do Trabalho, que enfocou ali, como eu comentava aqui com a Paula, que foi a primeira a falar, a questão do desemprego - eu fiquei um pouco mais preocupado - que se pode gerar. E disse a Paula: "Não, já se está gerando; não é que se pode gerar".
E, mais do que nunca, eu me lembro aqui do debate... E tenho aqui o nome da Deputada Federal Erika Hilton, que conseguiu, via redes sociais, fazer uma grande mobilização nacional contra o sistema de jornada de seis por um. Ela defende, como eu defendo no meu projeto, quatro por três. E eu faço esse vínculo, porque, inclusive, o Dr. Renan falou muito da questão do movimento sindical e falou positivamente qual é o papel do movimento sindical, agora, com a inteligência artificial. São outros tempos. Como eu disse antes aqui, na minha fala inicial, é quase como uma revolução no mundo do trabalho e também, naturalmente, da comunicação. Eu achei muito interessante o enfoque que o movimento sindical tem que ter. E é claro que eu aproveito, como ex-sindicalista, para trazer também para a mesa a questão da redução da jornada sem redução salarial - o mundo está fazendo este debate, e o Brasil também o está fazendo -, para podemos um dia... Eu sei que isso não é do dia para a noite, não é? No projeto que eu apresento, eu faço... Na Constituinte, nós reduzimos de 48 horas para 44 horas. Disseram que ia ser o fim do mundo, que iam demitir todo mundo. Não se demitiu ninguém. Aumentou o emprego, e tivemos já um período em que tínhamos aqui no Brasil em torno de 4% só da população desempregada - de 4% a 5%. De lá para cá, nós brigamos muito para reduzir para 40 horas. Apresentamos diversas vezes, não só eu, mas outros Deputados e Senadores. Não conseguimos aprovar, mas o debate continua. Eu tenho uma PEC aqui, uma proposta de emenda à Constituição, que é de 2015, que traz, primeiro, para 40 horas; depois, uma hora por ano a menos, até construir o sistema de quatro por três, não é? E a proposta da Deputada Erica Hilton, que é quem está liderando na Câmara esse processo, também vai nessa linha.
Só para se ter uma ideia, rapidamente, eu pedi para a assessoria... Redução de jornada no Senado: PEC 148, de 2015, de Paulo Paim - só vou dizer o título -; PL - o numerozinho está danado aqui... Esse numerozinho dela aqui eu estou tentando decifrar, viu? (Pausa.)
Ah, é "um" aquilo ali, é? Aquele "n" ali é "um"? (Pausa.)
Prossigo: PL 1.105, de 2023, Senador Weverton. Na Câmara, quem está encabeçando lá é a PEC da Deputada Erica Hilton, contra o sistema seis por um - quer quatro por três -; e temos também o projeto de um Deputado do PT, que está junto com a Erica liderando lá - é bom, por questão de justiça, botar o nome do Deputado. É só pesquisar... (Pausa.)
Não, o dela tudo bem. O dela eu já falei: PEC da Deputada Erica Hilton. Eu quero o nome do Deputado do PT, porque depois ele vai me cobrar: "Pô, Paim, por que é que tu omitiu logo o meu nome", porque ele está junto com a Erica. Inclusive fizeram um debate juntos, está muito bem encaminhado o debate lá.
R
Aqui o Rogério Carvalho, o Senador, Relator dessa PEC de minha autoria, já deu o parecer e está fazendo agora uma série de audiências públicas.
Mas vamos em frente, o debate aqui não é redução de jornada.
Deputado Reginaldo Lopes, que apresentou também um projeto nesse sentido há um bom tempo já.
Agora vamos então, não sei se a senhora quer falar agora.
(Intervenção fora do microfone.)
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Está bom, então vamos para o Sr... Eu vou chamar todos de doutores aqui, viu? Se é ou não é, não importa. Dr. Atahualpa Blanchet, representante do Instituto de Políticas Públicas e Direitos Humanos (IPPDH).
O SR. ATAHUALPA BLANCHET (Para expor.) - Bom dia. Bom dia a todas e todos.
Senador Paulo Paim, muito obrigado por este convite.
Quero parabenizar também o Senado Federal e esta Comissão, na figura do Senador Paulo Paim, do meu estado, do Rio Grande do Sul, meu Senador Paulo Paim.
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Gaúcho? Você é gaúcho?
O SR. ATAHUALPA BLANCHET - Gaúcho.
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - De todas as querências.
O SR. ATAHUALPA BLANCHET - De todas as querências.
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Já agradecemos a solidariedade de todo o Brasil no caso das enchentes, não é?
O SR. ATAHUALPA BLANCHET - Exatamente.
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Uma salva de palmas, não ao Rio Grande, mas ao Brasil, que apoiou o Rio Grande, que vocês todos aqui representam muito bem. (Palmas.)
Começou bem, viu? Iniciou recebendo palmas já.
O SR. ATAHUALPA BLANCHET - Obrigado, Senador. Na verdade, a palma foi para o nosso estado, e eu me sinto também incluído nessa homenagem, embora eu more no Uruguai. Estou vinculado ao Instituto de Políticas Públicas em Direitos Humanos do Mercosul.
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Mora no Uruguai?
O SR. ATAHUALPA BLANCHET - Moro em Montevidéu.
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Estou com ciúme dele agora. (Risos.)
Por causa da última eleição que passou agora.
O SR. ATAHUALPA BLANCHET - Pois é, estava lá acompanhando esse processo.
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Parabéns.
O SR. ATAHUALPA BLANCHET - E receberemos, lá no nosso país vizinho, meu país também, o Uruguai, porque eu sou brasileiro e uruguaio, com os braços abertos.
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Uma salva de palmas ao Uruguai agora. (Palmas.)
Ao Uruguai, viu? Pelo resultado eleitoral recente.
O SR. ATAHUALPA BLANCHET - Muito obrigado.
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Do grande Mujica, não é? Que é uma liderança mundial, o Mujica.
O SR. ATAHUALPA BLANCHET - Então, Senador, aproveitando já que estamos neste clima amigável aqui, descontraído, queria saudar também a todos os presentes aqui, sobretudo, saudar a iniciativa do Conselho Nacional de Direitos Humanos também, por ter proporcionado esta atividade e de ter juntado uma verdadeira comunidade integrada em torno da perspectiva de direitos no âmbito da inteligência artificial. Então temos pessoas aqui representantes de Governo, de organismos internacionais, de movimentos sociais, entre outros, acadêmicos, sobretudo. Também me considero um integrante da comunidade acadêmica.
Quero aproveitar para saudar os colegas do Instituto de Estudos Avançados da Universidade de São Paulo (USP), onde nós também temos um grupo sobre inteligência artificial responsável. Eu justamente participo de um grupo sobre inteligência artificial e trabalho, ali.
E também o pessoal da PUC de São Paulo, que tem um grupo também, chamado Transformação Digital e Sociedade, quer dizer, no Brasil nós temos muitos pesquisadores valorosos. Inclusive temos aqui a Estela, que está aqui com a gente também, que tem desenvolvido um trabalho fundamental para representar o nosso país no âmbito das discussões nos foros multilaterais, com relação ao tema de inteligência artificial.
Falando sobre o Pepe Mujica, aproveitando que o Senador comentou...
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Eu gosto de ouvir esse som do nome (Fora do microfone.)
desse cara, mas principalmente aquela que ele está com uma dancinha na vitória.
O SR. ATAHUALPA BLANCHET - O vídeo, não é?
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Acho que todo mundo rodou, não é?
O SR. ATAHUALPA BLANCHET - O vídeo do Pepe, não é?
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Isso.
O SR. ATAHUALPA BLANCHET - O Pepe é uma figura fantástica. Eu tive uma oportunidade, já fazendo um gancho com a apresentação brilhante do Renan Kalil, representante do Ministério Público do Trabalho, com quem já tive a oportunidade também de dividir mesa, mais de uma vez, sobre esses temas atinentes aos impactos da inteligência artificial no âmbito do mundo do trabalho -, em uma atividade da Confederação Sindical das Américas (CSA), que foi realizada num sítio, no rancho do Pepe Mujica, que tem um quincho lá de um vizinho, eu tive uma rara oportunidade, Senador e presentes aqui, que foi a de sentar-me ao lado do Pepe Mujica durante alguns minutos para conversar sobre inteligência artificial.
R
Sentei-me ao lado dele. Nós estávamos elaborando um documento de referência no âmbito do Mercosul. Nós temos uma declaração vigente, no âmbito da Reunião de Altas Autoridades sobre Direitos Humanos do Mercosul, que é a Declaração de Princípios de Direitos Humanos no Âmbito da Inteligência Artificial. Foi aprovado durante a Presidência Pro Tempore brasileira, em dezembro do ano passado, e é um documento de referência, que inclusive enfrenta temas como o caso, por exemplo, do racismo algorítmico, do uso dos vieses nos sistemas, por exemplo, de reconhecimento facial; temas relacionados ao meio ambiente, como o gasto e o dispêndio de energia e de água necessário para manter em funcionamento o sistema de um data center, por exemplo; a questão do respeito às línguas, saberes e culturas dos povos e comunidades tradicionais, ou seja, de que forma isso se insere no âmbito dos grandes modelos de linguagem - como o raio-X muito bem feito aqui por parte do Renan -, de como funciona esse tipo de sistema, de que forma ele é alimentado.
Esses sistemas, na verdade, pessoal, são alimentados por humanos; são alimentados com dados pré-existentes, por pessoas, Senador, que estão realizando um trabalho altamente precarizado em diversas partes do mundo, principalmente em países do Sul Global, em países africanos, na Índia. Então, em função dessa compressão de dados e pela forma como o processo algorítmico é desenhado, que é um processo desenhado por meio de padrões estatísticos, esses sistemas acabam replicando vieses e estruturas de discriminação já existentes no seio da nossa sociedade. Então, quando me sentei ao lado do Pepe Mujica, a pergunta que ele me fez - que é a pergunta que muitos aqui devem se fazer - foi: "Como a máquina aprende?". Foi essa a pergunta que ele me fez. E, aí, eu tentei brevemente explicar como se dá o processo das conexões neurais, do machine learning, esses termos mais técnicos, mas, sobretudo, destacar que esses sistemas são alimentados por pessoas, por humanos - humano, demasiadamente humano. E aí ele ficou me olhando assim, o Pepe, com aquele olhar profundo dele, e disse assim: "Mas, então, não é tão artificial". Eu disse: "não". Ele disse: "Mas, então, também não é tão inteligente". Então, nós estamos falando de sistemas que são construídos por pessoas, por humanos, e todas as variáveis de cunho cultural, político e histórico estão inseridas nesse contexto.
E, aí, ao mesmo tempo, eu queria utilizar uma expressão que se vem aplicando agora também no âmbito acadêmico e que se aplica muito ao tema da regulação, que é o chamado dilema de Collingridge. Tem um professor chamado David Collingridge, que, nos anos 80, justamente definiu o dilema de quando nós estamos tratando de regular um aspecto - principalmente quando se trata de inovações tecnológicas - que ainda está em desenvolvimento, ainda está em curso. Então, fazendo uma analogia bem simples, é como trocar o pneu do carro com o carro andando, ou seja, as coisas estão acontecendo, os impactos estão, em maior ou menor medida, sendo identificados, como a Paula, inclusive, salientou agora, na fala anterior, no âmbito, por exemplo, da questão do desemprego, do impacto que já vem gerando a utilização dos sistemas de inteligência artificial no âmbito do mundo do trabalho.
R
A Organização Internacional do Trabalho publicou agora, há mais ou menos uns dois meses, um informe, um relatório, no âmbito da América Latina, em que aponta que a inteligência artificial generativa pode impactar em 28% a 36% dos empregos da nossa região, o que significa que no universo de cinco a dez anos, nós podemos ter um impacto em milhões e milhões de empregos.
Mas a questão é: em que velocidade, falando no campo das oportunidades, vão se criar os novos empregos, os novos trabalhos, as novas profissões relacionadas à era digital em relação à velocidade em que ocorrerá o fenômeno chamado, em inglês, de displacement, ou seja, essa substituição da mão de obra humana pelo processo de automação?
E aí, no mundo do trabalho, eu quero deixar muito claro, fazer esse recorte no âmbito do mundo do trabalho, porque é fundamental, como colocou o Renan aqui, o colega do Ministério Público do Trabalho, que nós estejamos atentos à inserção dos direitos dos trabalhadores no âmbito do Projeto de Lei 2.338. Estou falando tanto no âmbito das macrorregulações, como é o caso, por exemplo, da recomendação da Unesco sobre a ética na inteligência artificial, a própria declaração de princípios e direitos humanos no âmbito da inteligência artificial, que citei agora no âmbito do Mercosul, que destaca princípios éticos e princípios da inteligência artificial responsável que são necessários que estejam presentes e que permeiem todo o conteúdo da regulação nacional, porque a regulação nacional, uma lei nacional está inserida num contexto, no âmbito internacional. E existem diferentes graus de proteção aos direitos humanos, que se dão por meio do sistema internacional de direitos humanos, por meio do arcabouço de direitos no âmbito do direito constitucional e também por meio da legislação.
E aí também entramos no âmbito das microrregulações, como é o caso das negociações coletivas...
(Soa a campainha.)
O SR. ATAHUALPA BLANCHET - ... no âmbito do mundo do trabalho e a questão da própria normatização, de que forma entra a tecnologia e a inovação no âmbito do mundo do trabalho. Por isso é importante também fazer o diálogo tripartite nos moldes, como propugna a Organização Internacional do Trabalho.
E aí, pessoal, queria agora destacar que no âmbito acadêmico já vem sendo pesquisado de que forma esses direitos vêm entrando no âmbito das negociações coletivas. Então, já há cláusulas de negociação coletiva, por exemplo, que regulam a utilização dos dados que são coletados de trabalhadores por meio de sistemas de inteligência artificial. Tem um caso emblemático nos Estados Unidos, Senador, que é o caso dos jogadores de basquete da NBA, em que eles não permitem o uso dos dados que são coletados por sistemas de inteligência artificial para realizar negociação salarial. Eles inseriram uma cláusula. Agora, recentemente, os trabalhadores de instituições financeiras aqui do Brasil conseguiram inserir cláusulas na sua convenção coletiva no sentido de que os trabalhadores estejam abrigados por um processo de requalificação profissional, para que eles possam se adaptar na chamada interação humano-algoritmo e utilizar a tecnologia a favor do humano, ou seja, um dos princípios é a centralidade humana, o princípio do controle humano, o princípio ético.
Nós estamos falando, por exemplo, da negociação coletiva com relação à questão do controle de trabalhadores e vigilância por meio de sistemas de gestão algorítmico. Há casos no Japão em que já há câmeras que fazem a chamada leitura emocional, em que os trabalhadores são monitorados sobre se estão sorrindo, se estão alegres, se não estão. Como é que isso pode entrar numa escola, por exemplo? De que forma um sistema como esse pode ser aplicado? Então, nós temos que começar a pensar nisso. De que forma se vai regular os chamados agentes da inteligência artificial, que são os sistemas que têm um grau de autonomia muito maior do que os chamados assistentes da inteligência artificial?
R
De que forma a gente vai trabalhar o casamento entre os sistemas de inteligência artificial e a neurotecnologia, em que já é possível, inclusive, pensar e debater, no âmbito internacional, princípios como é o caso do princípio da privacidade mental? A pessoa poder ter o direito de garantir que os seus pensamentos estejam guarnecidos por um direito.
Não estou falando de ficção científica; estou falando de uma recomendação que já vem sendo trabalhada no âmbito da Unesco. É uma recomendação sobre ética na neurotecnologia. Então, como é que nós vamos debater esses temas? Essas coisas já estão em curso, e, por isso, são fundamentais os princípios.
A negociação coletiva, por exemplo, vai garantir o direito de um trabalhador de não ser monitorado de forma abusiva, por meio do chamado princípio da transparência algorítmica. Esse princípio é um princípio fundamental e vem vinculado a um outro princípio, que se chama explicabilidade, ou seja, é o direito de a pessoa saber: 1) que está sendo monitorada; 2) quais são os critérios utilizados nesse monitoramento para tomada de decisão e de que forma os dados coletados sobre esses trabalhadores são utilizados.
Isso precisa ser pensado no âmbito da regulação, se não da forma com querem retirar do projeto, mas franquear. Que seja tratado não só no projeto, mas também no âmbito das negociações coletivas. Isso precisa estar presente.
E, finalmente, a questão dos trabalhadores de plataforma. Por quê? Porque, hoje, qualquer trabalhador é passível de passar por um processo de plataformização, basta que ele esteja conectado a um dispositivo móvel com uso de internet. Não se trata só de motoristas, de entregadores; trata-se, hoje em dia, de trabalhadoras domésticas que, em vários países, já vêm passando por um processo de plataformização, entre outros.
Aí, isso se vincula já ao contexto de informalidade estrutural que temos no âmbito do mundo do trabalho e também ao contexto de intensificação das dinâmicas de precarização das relações de trabalho.
E tudo isso eu estou dizendo por quê? Porque os direitos dos trabalhadores são direitos humanos. E dentro do mundo do trabalho é onde a gente verifica, justamente, o tensionamento da aplicação desses direitos, e, ao mesmo tempo, o mundo do trabalho é um grande laboratório da utilização desses sistemas em outros âmbitos, seja por meio da questão do controle e vigilância, do monitoramento.
E, para finalizar o tempo que eu tenho aqui, quero aproveitar para agradecer essa oportunidade de estar aqui, me abrir, para que nós possamos dar seguimento a esse diálogo e pensar num projeto legislativo que tenha não só a perspectiva de inovação...
(Soa a campainha.)
O SR. ATAHUALPA BLANCHET - ... mas que tenha, sobretudo, uma perspectiva de direitos, porque, ao fim e ao cabo, nós temos que pensar que o direito contribui para a melhoria da vida das pessoas, e a tecnologia tem que estar a serviço do nosso bem-estar das pessoas, para que possamos ter uma vida mais digna e não o contrário. Não estamos aqui para ser escravizados pela tecnologia, muito pelo contrário, estamos aqui para que ela funcione e sirva ao nosso favor.
Quero agradecer, Senador, e mandar um grande abraço. Espero encontrá-lo agora, seja no Uruguai ou na nossa região. Agradeço ao Instituto de Políticas Públicas e Direitos Humanos por esta oportunidade, ao CNDH e ao Senado Federal. Um abraço a todas e todos. Vamos continuar dialogando, porque isso agora é só o começo, está bom?
Muito obrigado. Um abraço grande. (Palmas.)
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Muito bem, Sr. Dr. Atahualpa Blanchet, representante do Instituto de Políticas Públicas e Direitos Humanos.
Parabéns pela fala, não só porque falou do Pepe Mujica, porque eu sou fã dele, não foi só por causa disso, não, viu?, mas pela forma do enfoque que você também deu, na mesma linha da Paula, mostrando ser alto conhecedor do assunto; e a importância de o movimento sindical participar ativamente deste debate. Eu já digo para que fique nos meus encaminhamentos, de eu apresentar - e vou pedir que os convidados de hoje estejam presentes, dentro do possível, não é este ano, no ano que vem - um debate no Plenário do Senado Federal, a chamada Sessão Temática.
R
Eu mesmo estava olhando de longe a inteligência artificial, com algumas preocupações, mas aqui vocês estão aprofundando, levemente aprofundando. Eu sei que vai muito mais longe a questão do mundo do trabalho, das relações, da negociação coletiva inclusive, que tem que ter cláusulas lá no acordo coletivo, ou mesmo no dissídio coletivo, querem sempre acordo, não é? Quando vai para as instâncias do Judiciário, é o dissídio coletivo.
Parabéns, parabéns pela fala aí. Tudo o que eu falar aqui agora não completa, nem ajuda, eu só vou comentar o que você falou.
Então, vamos em frente para que outros possam falar também.
De imediato, eu passo a palavra para Renata, o.k.?
A SRA. RENATA MIELLI (Por videoconferência.) - O.k.
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Videoconferência, Dra. Renata Mielli, Representante do Comitê Gestor da Internet do Ministério da Ciência, Tecnologia e Inovação.
A palavra é sua, Dra. Renata, dez minutos, com mais cinco.
A SRA. RENATA MIELLI (Para expor. Por videoconferência.) - Muito obrigada, Senador Paulo Paim. Em seu nome, eu agradeço o convite da Comissão Permanente de Direitos Humanos e Legislação Participativa. Acho fundamental essa iniciativa de discutirmos aqui as várias intersecções entre a inteligência artificial e os direitos humanos. É uma pena que eu não tenha tido possibilidade de estar presente para cumprimentar todos, todas, e rever colegas queridos; porque a pesquisa, a política e a atividade que nós fazemos no cotidiano também se dão por afetos.
Então, eu queria cumprimentar aqui o Greg, com quem já trilhei várias jornadas, a Estela, o Atahualpa, a Paula. É um prazer poder dialogar, estar com vocês nesta Mesa.
Quero dizer, Senador, que acho que, nas suas considerações iniciais, mas também nas falas dos colegas que me antecederam, a sua fala ela traz um conjunto bastante abrangente de quais são as oportunidades, as possibilidades que a inteligência artificial traz para o desenvolvimento da sociedade, para o avanço, inclusive da inclusão social, da redução de desigualdades, ou seja, é uma tecnologia que pode representar uma série de melhorias para a vida em sociedade, para processos produtivos, otimização da gestão pública; ou seja, estamos falando de uma tecnologia que tem aspectos positivos, mas também, como na sua fala, traz inúmeras incertezas acompanhadas de muitos riscos, se não for bem desenvolvida, se não possuir um arcabouço regulatório que defina os parâmetros para o uso dessa tecnologia em prol do bem das pessoas e da humanidade.
R
Então, eu queria dizer que acho que o debate sobre os impactos da IA nos direitos humanos pode ser feito por inúmeros aspectos. É um assunto complexo e tem muitas condicionantes e variáveis.
Como são muitos - e aqui o Renan, a Paula e o Atahualpa já citaram alguns deles -, eu fiz uma escolha de, porque a gente tem dez minutos com mais cinco minutos, abordar três ou quatro pontos; são três pontos com um ponto desdobrado. Alguns deles já foram trazidos aqui, mas, então, como foi a minha escolha de recorte para discutir o aspecto, eu vou tentar trazê-los com algumas informações adicionais.
O primeiro recorte que eu queria trazer para discutir os impactos da IA nos direitos humanos é exatamente essa questão do trabalho, já trazido aqui pelo Renan, pelo Atahualpa e pelo Senador, que tem essa trajetória histórica de compromisso com a luta dos direitos dos trabalhadores. Como o Renan e o Atahualpa já trouxeram, nós precisamos compreender e, de certa maneira, desmistificar para a sociedade o que são sistemas de inteligência artificial.
Os nomes que nós damos às coisas têm peso na compreensão e na maneira como a gente interage, principalmente com a tecnologia. Eu tenho uma visão muito crítica, Senador e demais, a essa tendência de utilizarmos termos próprios de características humanas para nomear e caracterizar as tecnologias. Isso pode induzir a imensos erros. Então, inteligência artificial é um nome que traz muitas dificuldades de compreensão do que nós estamos tratando neste momento.
Nós estamos falando de sistemas tecnológicos que são construídos a partir de um problema desenhado e parametrizado por pessoas que desenvolvem os algoritmos, o software e todo o processo de construção dos parâmetros que são alimentados por dados. Esses dados não são apenas bits, bytes ou informações tecnológicas; eles são reflexos do que nós seres humanos fazemos no ambiente digital. Então, o conjunto de dados utilizado para treinar esses sistemas é fruto da interação humana, mas não só, como trouxe o Renan e o Atahualpa; eles são também treinados, eles são também revisados e eles são também avaliados por pessoas que são os tais trabalhadores invisíveis que atuam nessa cadeia da inteligência artificial. Trabalhadores invisíveis que, na sua grande maioria, como muitos projetos de pesquisa já demonstram, trabalham de forma completamente precarizada, em algumas condições, em situações análogas à escravidão, porque exercem jornadas extenuantes num trabalho automático, tendo que fazer revisão de imagens e de textos, lidando com conteúdos, muitas vezes, degradantes, sem nenhum tipo de regra, sem nenhum tipo de proteção, sem nenhum tipo de formalidade nesse trabalho.
R
Pesquisas feitas por laboratórios e centros de pesquisas brasileiros mostram que, no Brasil, esses trabalhadores têm, em média, entre 16, 18, 30 anos. São, portanto, formados por uma população jovem e recebem uma média mensal de R$580 para realizar esse trabalho no país.
Internacionalmente estudos demonstram que esses trabalhadores ganham US$2 por hora de trabalho. Portanto, Senador, nós lidamos com duas dimensões do impacto da inteligência artificial no trabalho, quer dizer, duas para simplificar aqui, porque são muitas, não é? Mas eu queria trazer aqui estas duas.
O microtrabalho, esse trabalho precário, que não tem nenhum tipo de proteção, essas pessoas não têm uma organização sindical por detrás, porque não há um sindicato desses trabalhadores, que estão completamente na informalidade, e nós precisamos desenvolver e pensar mecanismos de proteger esses trabalhadores.
E o outro é o desemprego gerado pelas tecnologias, que é uma questão complexa, porque, ao mesmo tempo em que a inteligência artificial, de fato, vai substituir uma série de funções hoje realizadas por humanos - mas isso também não é uma novidade na história da nossa sociedade, da humanidade, a tecnologia, sempre que se desenvolve, substitui trabalho humano -, nós precisamos compreender como nós vamos gerar novos postos de trabalho com um valor agregado mais qualificado, para elevar a renda e melhorar as condições do trabalho das pessoas.
Então essa dimensão dos impactos da IA no trabalho é um aspecto que precisa ser mais bem discutido em termos de regulação e de políticas públicas. E aí, eu acho que a regulação muitos já trouxeram aqui. Nós temos em debate no Senado o PL 2.338, mas eu queria trazer aqui que, em termos de políticas públicas, o Brasil está lançando agora, lançou o nosso Plano Brasileiro de Inteligência Artificial, uma iniciativa que foi coordenada pelo Ministério da Ciência e Tecnologia, mas que contou com o envolvimento e a participação de inúmeros ministérios. Foi um pedido feito ao Conselho de Ciência e Tecnologia pelo Presidente Lula.
E nesse plano...
(Soa a campainha.)
A SRA. RENATA MIELLI - ... nós temos um eixo. Um dos eixos do plano é exatamente a questão da formação, da qualificação e da requalificação dos trabalhadores para lidarem, de uma maneira mais consciente e informada, com essas tecnologias de inteligência artificial e digital.
Isso é fundamental para que a gente possa exatamente fazer esse salto de trabalhadores que estão hoje submetidos à tecnologia para termos trabalhadores que estejam autônomos, independentes e utilizando essa tecnologia para a melhoria do seu próprio trabalho, não só das cadeias produtivas, mas para a melhoria da sua renda, da sua forma de trabalho. E isso está diretamente relacionado com o debate da redução da jornada de trabalho no Brasil.
R
Então esse era um dos aspectos que eu queria trazer brevemente para a nossa reflexão.
O segundo ponto que eu destaquei para que a gente discutisse aqui também, para refletirmos um pouco sobre os impactos da inteligência artificial sobre os direitos humanos, são as maneiras através das quais esses sistemas de inteligência artificial reproduzem vieses, preconceitos, discriminações já existentes na nossa sociedade. Isso porque, Senador e demais, como já foi dito aqui, esse sistema não é 100% artificial, ele é reflexo, de certa maneira, um espelho de tudo o que nós enquanto humanidade fazemos no ambiente digital, porque são com os nossos dados que eles são treinados. Mas tem uma questão adicional que eu queria trazer aqui: esses modelos de inteligência artificial, e hoje a inteligência artificial no mundo é uma tecnologia altamente concentrada, é um monopólio que está na mão de poucas empresas estrangeiras, na sua grande maioria estadunidenses, que dominam toda a cadeia produtiva da inteligência artificial. Portanto, nós, países do Sul Global, como o Brasil e outros países, nós estamos hoje, dentro do cenário internacional, no lugar de consumidores de uma tecnologia que está sendo desenvolvida e treinada em outros países.
Quando nós falamos isso, é preciso colocar um acento nessa questão, porque, como eu disse anteriormente, quem desenvolve e treina são normalmente pesquisadores, pessoas do Norte Global, a partir das suas visões políticas, culturais, sociais, econômicas do Norte Global, para atender interesses privados e com dados que são majoritariamente em inglês. Há pesquisas que mostram que 80% ou mais de 80% desses modelos de inteligência artificial são treinados em língua inglesa. E o que isso representa em termos de impacto do uso desses modelos, dessas inteligências artificiais, nos países do Sul Global e seus impactos para os direitos humanos? Ocorre que a ausência de diversidade, pluralidade linguística, mas não só linguística, que a gente tenha dados georreferenciados que representem a diversidade e a pluralidade, por exemplo, do povo brasileiro, de norte a sul do país, faz com que o uso dessas IAs no nosso país tenha profundos vieses.
Eu não sei se os presentes aqui chegaram a ter contato com... Foi pedido para uma inteligência artificial, eu não tenho certeza se foi o Gemini AI, para representar homens, no caso o pedido foi homens de cada estado brasileiro, para gerar uma imagem de um homem do Amazonas, de um homem do Pará, de um homem do Rio Grande do Sul, e, quando a gente olha essas imagens geradas, é patente e visível o viés algorítmico que produz pessoas a partir de uma visão, de um estereótipo do que seria um Amazônida, um gaúcho ou um paulista, e com traços bastante semelhantes a traços de pessoas do Norte Global, inclusive, tentando fazer essa mixagem na hora de produzir uma imagem.
R
Então, nós estamos lidando com um sistema que é treinado a partir de uma determinada referência linguística, social, cultural, e, portanto, os impactos disso em direitos humanos, na representatividade de comunidades, são muito importantes. Basta lembrar... Esse exemplo eu vou trazer no meu terceiro ponto.
E aí eu queria trazer, rapidamente, porque eu não sei quanto tempo, porque eu não marquei aqui, não tem um reloginho para eu ver, mas, Senador quanto tempo?
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Já está em 14 minutos, mas, pelo brilhantismo de todos os convidados, eu vou lhe dar mais 5 minutos.
A SRA. RENATA MIELLI (Por videoconferência.) - Muito obrigada, mas eu não vou usar os cinco, Senador. É porque, de fato, eu me perdi aqui, porque eu não tenho o reloginho.
Então, nós trouxemos esse tema, inclusive, no G20 - no Grupo de Economia Digital do G20 -, em que o eixo de IA foi coordenado pelo Ministério da Ciência e Tecnologia, onde nós ressaltamos muito a importância de que os países tenham condições de ter soberania tecnológica, e esse também é um dos aspectos do nosso Plano Brasileiro de Inteligência Artificial. Como nós, enquanto país, podemos investir em infraestrutura para termos uma inteligência artificial que represente minimamente a nossa diversidade cultural?
E, por último - e não vou usar os cinco minutos -, eu queria trazer, rapidamente, os impactos que a inteligência artificial pode trazer para a esfera pública, para a democracia, com a circulação de desinformação, de fake news, mas não só. Hoje, nós temos aí, e essa é uma questão fundamental, a necessidade de nós termos rotulação, de nós termos a informação de forma bastante destacada de que nós estamos interagindo com sistemas de inteligência artificial, com conteúdos de inteligência artificial, para que nós tenhamos condições de entender que aquela imagem não reproduz uma imagem real, é uma imagem artificial, ou vídeos, e isso cada vez mais está se tornando um complexo e sendo utilizado para direcionar a vontade soberana do povo em processos políticos e eleitorais. A gente viu isso nos Estados Unidos, a gente viu isso no México, e a gente tem assistido a isso em outros países.
E, para terminar, quero dizer do impacto da inteligência artificial na web. Eu não poderia deixar de falar isto, como Coordenadora do CGI: a inteligência artificial está mudando a maneira como a gente interage nesta grande plataforma, que é a World Wide Web, por onde a gente experiencia, principalmente, a internet, podendo acessar sites e informações as mais variadas, o que pode nos garantir um mínimo de pluralidade e diversidade.
Nós já tivemos as plataformas de rede social fagocitando a navegação dos seus usuários para dentro dos ambientes privados das plataformas, e agora nós temos as aplicações na web de IA fazendo o mesmo, inclusive gerando respostas a perguntas que podem trazer erros gravíssimos. E nós temos agora o entrelaçamento dessas duas coisas, e eu vou dar um exemplo e termino aqui, Senador. Muito obrigada pelo tempo adicional.
Nós tínhamos até então os buscadores web, como o Google, que eram ferramentas de buscas que nos ofereciam fontes para as perguntas que a gente fazia, então: "Google, por favor, dê-me uma receita de bolo de laranja". E você tinha lá indexado vários sites com o endereço de bolo de laranja, e você entrava no site. Agora, não; agora, você pergunta para o Google: "Google, dê-me uma receita de bolo de laranja", e ele vai te dar, como primeira opção, uma dada receita do bolo de laranja. Com isso nós não vamos mais navegar em sites. Então, em vez de ser uma ferramenta de busca, ele se está transformando numa ferramenta de respostas, e isso é bastante grave do ponto de vista do impacto que nós temos para a diversidade informativa e para o direito à comunicação.
R
Muito obrigada, Senador, pela oportunidade de participar desta audiência. (Palmas.)
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Muito bem, Dra. Renata Mielli, representante do Comitê Gestor da Internet do Ministério da Ciência, Tecnologia e Inovação. Parabéns pela brilhante exposição, que entrou também nessa questão do trabalho escravo, para a qual podemos estar contribuindo se não nos alertarmos, não regulamentarmos, não aprofundarmos esse debate. Parabéns!
Eu vou, de imediato, agora, passar à Dra. Estela Aranha, Assessora Especial da Assessoria Especial da Presidência da República, Membro do Conselho Consultivo de Alto Nível da ONU para Inteligência Artificial.
A SRA. ESTELA ARANHA (Para expor.) - Muito obrigada, Senador, pelo convite. É um prazer estar aqui com V. Exa. e com esta Casa. A gente tem que estar mais próxima, trabalhando no Executivo.
Também quero saudar todos os meus companheiros que estão aqui. Agora, estou no Executivo, mas sou oriunda da sociedade civil, em que a gente faz todos esses debates, e também sou oriunda do movimento político, social. Enfim, é muito importante estar neste debate. Então, agradeço a todos os nossos companheiros que também estão aqui.
Eu vou trazer duas questões que eu acho importante pontuar nessa discussão: a primeira é sobre essa construção da tecnologia em inteligência artificial; e a outra é sobre o aspecto que eu acho que é o impacto sociotécnico mais importante que a gente tem quando a gente olha direitos.
Quando a gente está produzindo, falando de IA, de tecnologia, a gente tem que lembrar que não tem nenhuma tecnologia sem humanos para produzi-la, como foi falado aqui, mas a questão é, principalmente, a das instituições que decidem sobre os caminhos dessas tecnologias. A gente tem que olhar para além do dispositivo tecnológico em si. A gente acaba discutindo IA como se fosse uma coisa que a gente chama tecnodeterminismo, ou seja, como se fosse uma evolução - a tecnologia foi evoluindo em si, e agora a gente está chegando a esse resultado -, mas, não; ela é consequência de circunstâncias econômicas e sociais do seu desenvolvimento, do seu emprego, do seu uso e é moldada pelas forças econômico-sociais, não é? Então, a tecnologia é significante por si própria. E também a tecnologia em si é importante a gente discutir porque acaba que algumas finalidades humanas são poderosamente transformadas na medida em que se adaptam aos meios técnicos. Esse é o maior exemplo que a gente tem hoje com o debate, por exemplo, das redes sociais ou da digitalização de modo geral: quanto das nossas vidas e de nossas finalidades de vida, aspirações, de modo muito profundo, existencial, foi modificado pelos impactos dessa tecnologia?
E aqui, quando a gente está falando de IA... Essa tecnologia também não surgiu, não é fruto de um desenvolvimento tecnológico. Inclusive, ela não tem grandes ciências. Todos os CEOs de IA se vangloriam, inclusive, quando eles explicam que ela tem muito pouca tecnologia. Dizem até que bateu um muro este novo modelo, mas ela é resultado de investimento de poder computacional, de uso de dados muito grande e de algoritmos - algoritmos não tão mais sofisticados, mas com o uso de muitos deles a partir desse modelo de poder computacional e uso de dados. E tudo isso foi possível graças a uma concentração econômica e de poder em algumas big techs.
R
Então a tecnologia de IA não é uma tecnologia que surge somente no desenvolvimento econômico, mas no investimento de algumas poucas empresas em uma determinada tecnologia que elas vão usar, algo que só elas têm, porque todo esse acúmulo de dados foi feito a partir, obviamente... Quando se fala de dados pessoais, por exemplo, cada rede social é um investimento do usuário para fazer e treinar. Então, assim, a partir já de um modelo econômico que existe, em que ela tem um poder concentrado, ela conseguiu essa concentração de dados.
Ela tem silo, hoje nós temos silos de dados. Eu dou um exemplo sempre assim, a gente tem algumas ações, nos Estados Unidos, em que os fazendeiros compram algumas empresas de IA, porque os dados pessoais deles não são deles, então eles querem trocar de empresa e não conseguem, porque aqueles dados da própria fazenda, os próprios dados estão lá em silos proprietários, assim como nossos dados pessoais.
A gente hoje, por exemplo, uma questão que a gente não toca em nenhuma legislação é a possibilidade de interoperabilidade, de usar os dados. Mas eles foram concentrados a partir desse poder político, desse poder econômico. Então é muito importante a gente pensar que a gente tem que levar muito a sério as características e os significados dela. Na nossa forma habitual de pensar, as tecnologias são vistas como ferramentas neutras, que podem ser usadas para o bem ou para o mal, ou algo intermediário, mas usualmente a gente não para para pensar que um dado dispositivo foi projetado e construído de tal forma que produz um conjunto de consequências que foi lógica e temporalmente anterior a qualquer de seus usos explícitos. Então quem está construindo a tecnologia está determinando para que serve essa tecnologia.
Então, obviamente, a gente está usando a IA. Ela foi feita por uma visão de mundo. Essa visão de mundo é dessas empresas de tecnologia. Obviamente elas são feitas de modo que o seu desenvolvimento traga lucros para elas e exclua, o modo como elas estão desenvolvendo, exclua quem não está, quem não seja, por exemplo, do Vale do Silício ou seus eventuais competidores.
A gente está discutindo agora por que é que se cria - além de tudo, de o Vale do Silício ser poderoso econômica e socialmente, eles também são um poder de propaganda gigante - aquela ideia de que, por exemplo, eles não podem ser responsabilizados por nada, porque senão a gente para o desenvolvimento da tecnologia, a gente teria um setor da economia hoje que não é responsável pelos danos que causa etc., porque eles têm um discurso. Primeiro era liberdade de expressão, no caso das redes sociais; agora esse discurso é que a gente vai parar o desenvolvimento da tecnologia. A gente obviamente tem muitas evidências de que não tem nada a ver com o desenvolvimento de tecnologia e regulação; tem muito mais a ver com a economia real, enfim, com outras formas de investimento que existem, mas é um discurso que pega.
Então, pode ser conscientemente, ou deliberadamente, ou inadvertidamente, mas as sociedades vão escolher as tecnologias que influenciam como as pessoas vão trabalhar, se comunicar, viajar, consumir e assim por diante. E também, obviamente, dentro desse aspecto, como esses direitos são exercidos. E esses são processos de decisão que são feitos são compromissos que a gente assume inicialmente e depois se torna tão fixada nesse material, com esse investimento econômico, com esse hábito social, que qualquer flexibilidade original desaparece para qualquer propósito prático. A gente vê nas redes sociais. Hoje a gente tem a sensação de que é quase impossível mudar esse regime ou essa forma, essa concentração etc., porque já foi, a gente já está lá. A gente teve alguns hypes de tecnologia, como falamos do trabalho, da economia compartilhada, e hoje a gente descobre que não tem nada, nenhum compartilhamento, mas a gente já criou esses sistemas, não consegue mudar e tem que se adaptar a eles.
R
Então, a primeira coisa é isto: evitar o tecnodeterminismo, entender essa tecnologia, entender por que a gente tem o hype, entender... Sabemos que há um tecnodeterminismo hoje, pois tudo é determinado por alguns executivos do Vale do Silício que brigam contra a regulação. E, se nós não tivermos um processo de nos colocar face a eles, de debater... A gente precisa ter alguma supervisão democrática, algum controle; a sociedade, nós temos que moldar a tecnologia, a forma como ser usada. Não adianta falar que a gente precisa correr para ter IA. Mas para que é a IA? Por que nós a queremos? Então, vamos moldá-la para o que a gente quer. Eventualmente pode ser útil? Pode ser útil. Para que ela pode ser útil? Como ela pode ser útil? Então, isso é muito importante.
E agora, na metade do tempo, eu vou mudar um pouco de assunto e vou para o segundo ponto.
Entre os impactos que eu acho que a inteligência artificial traz, há o que a gente chama de impacto sociotécnico, que é o impacto da tecnologia na sociedade, gerando efeitos sociais. Até a gente teve essa discussão de forma bastante profunda lá no AI Advisory Body da ONU, em que a gente discute questões éticas - tem até um representante do Vaticano; é muito variado justamente por isso: não é só gente de tecnologia, é gente de antropologia, uma maravilhosa antropóloga, do mundo inteiro -, e uma das discussões é isto: qual é o principal impacto sociotécnico da inteligência artificial? Eu acho que hoje, nesse cenário, com a mudança da lógica da casualidade para as decisões para essa lógica estatística que se traz de correlação, é um impacto para os direitos humanos que é muito central, muito importante. E, aí, vou dar uma explicação.
Você, por exemplo, no crédito, eventualmente tem direito de acesso a crédito, porque você pagou a conta ou não. Eu estou devendo, eu estou lá no SPC porque não paguei uma conta; eu não posso ter crédito. Eu paguei a minha conta; eu posso ter crédito. Isso também é um modo de você organizar a sociedade. E eu quero que as pessoas paguem conta, logo, tem alguma forma. Eu sei que, se eu não pagar a conta, eu não vou ter crédito...
(Soa a campainha.)
A SRA. ESTELA ARANHA - E o que acontece? Na lógica da correlação, não necessariamente... Não é casualidade; é correlação. Então, eu posso juntar você, e você não ter crédito porque você mora numa vizinhança, e para essa vizinhança a gente tem um conceito do CEP determinante... Isso é muito importante quando a gente fala de discriminação. O CEP é determinante para muita coisa. Hoje, na nossa cidade, ele determina a escola que você frequenta, se você vai ter crédito, como você vai alugar; determina muita coisa. Então, eventualmente, você não sabe por que você teve um direito, um acesso negado. Pode ser por questões raciais. E aí, nas questões raciais, não adianta tirar, por exemplo, a questão de cor de pele, porque raça é um conceito social, obviamente, não é um conceito biológico. Tem outros marcadores muito fortes que envolvem esse conceito de raça, e você sempre vai discriminar por grupo. A tecnologia de inteligência artificial, a lógica de correlação é de discriminação. Ela vai discriminar um grupo que vai ter acesso a isso e um grupo que não vai ter. E essa discriminação pode ser legal ou ilegal. Esse é o problema. Como a gente vai achar se ela é legal ou ilegal?
Mas a gente - eu falo assim - tem problema de vieses, porque os dados são feitos por humanos, então, em qualquer base de dados, primeiro, eu estou preservando status quo, porque não tem como a IA mudar status quo, porque a base de dados é do passado. A IA não prevê o futuro; ela trabalha com dados do passado. Então, se eu sempre vou usar aquela base de dados, sem mudar, estou preservando status quo.
E, a partir de outro momento também, a gente não sabe se esses dados têm... E aí eu acho que, além da discriminação humana quando forma os dados, esses dados hoje a gente sabe que têm todas essas discriminações de gênero, raça, hierarquias sociais das maiores formas, de todas as formas, do próprio artefato tecnológico e não do humano, a gente tem um monte de características que isso agrava, porque ela é opaca, a gente não sabe como a decisão foi feita. Eu não posso olhar e mostrar: "Aqui teve discriminação. Aqui está errado. Aqui meu dado é desatualizado". Então, ao mesmo tempo, ela tende a discriminar, porque ela é discriminatória, ela tende a exacerbar a discriminação pelo próprio artefato, então se você não faz nada, você não muda, você necessariamente vai discriminar. E também, assim, ela não individualiza, ela não é causal, você nunca vai ter uma consequência porque você é ou porque você fez alguma coisa, e sim porque você pertence a um grupo, e um grupo você não sabe que tipo de grupo. Então, não tem nada que você possa fazer para mudar o resultado.
R
Imagina, eu tenho o crédito negado... Eu vou dar um exemplo do crédito, porque, assim, no Brasil, as grandes instituições de crédito são SPC e Serasa, todo mundo usa a mesma base de dados, todo mundo. Eu vou lá, perdi o emprego, quero comprar um Uber, quero um acesso a um crédito, se eu tiver um dado errado, se eu sou discriminada, se eu não tenho acesso a saber esses processos, esses direitos que a gente chama procedimentais, de direito à explicação, de contestar as decisões, eu nunca vou ter acesso a nada, porque, no sistema de crédito, todo mundo consulta o SPC e Serasa. Então, a partir do momento que eu não tenho esses direitos, a minha vida estará comprometida para sempre. E eu não sei o porquê - sabe aqueles filmes do Ken Loach, em que a gente chora muito até o final -; é isso que a gente está criando se a gente não garante esses direitos.
E a gente está falando desses direitos, que já estamos falando que tem o de proteção de dados, de modo geral, de transparência e tal, mas esses direitos procedimentais que vão garantir aquilo que já é direito fundamental, devido ao processo, a garantia do direito à personalidade e todas essas outras garantias e liberdades fundamentais, ela precisa, você precisa especificar alguns direitos procedimentais. Claro que as empresas deveriam ter obrigação de evitar e fazer tudo para mitigar os riscos e tirar as baias, etc., mas, uma vez que a gente não tem este cenário, minimamente que o indivíduo possa, ao menos, ter uma saída na hora em que ele é colocado numa situação extremamente injusta, e é uma injustiça que é reificada, porque você vai repetir, etc.
Só para finalizar, eu dou o exemplo: ontem saiu um monte de matéria sobre o casamento do meu querido Ministro Dino, Flávio Dino, que o Ministro Barroso tinha cantado a canção Aquarela Brasileira lá. E aí um repórter disse: "A canção Aquarela Brasileira é de Martinho da Vila". Não, a canção é do Silas de Oliveira; o Martinho da Vila é um dos intérpretes. Aí eu falei: "Que estranho esse erro em O Globo". E aí eu fui olhar no Google, que hoje já cria com inteligência artificial aquele primeiro destaque, aquele primeiro nome, e ele errou, porque hoje a IA generativa tem uma margem de erro de 30%, e coloca lá a Aquarela Brasileira, de Martinho da Vila.
(Soa a campainha.)
A SRA. ESTELA ARANHA - Aí, eu vejo que pelo menos 30 jornais replicaram que Aquarela Brasileira era do Martinho da Vila, que é da Vila Isabel, e ele não pode ter feito o samba enredo... (Risos.)
Vocês falando do Sul, eu sou do Rio - não pode ser da escola concorrente, amiga, mas concorrente Império Serrano, lá de 1964. Inclusive a data lá no Google também está errada.
Só que a IA vai ser treinada, e jornal é uma fonte confiável, então ela vai ter um peso maior no treinamento, com a matéria desses 30 jornais. Daqui a pouco, com esses erros, ela vai apagar o Silas de Oliveira como autor da música, de repente apagar até o Silas de Oliveira.
R
Isso parece uma bobagem, mas quantos milhões de erros todo dia a gente não está tendo? E como isso pode impactar quando a gente está tratando de um direito nosso, de uma característica nossa? Porque se erra aqui, vai errar em tudo, é claro, é a mesma tecnologia. Posso ter um monte de erros. E a IA generativa é pior, porque ela não tem reasoning, ela não pode explicar, ela é somente a justaposição de palavras que têm mais probabilidade, um pedaço de palavra parecida ao lado da outra, ela não tem a menor explicação. E como isso vai afetar os direitos? Então, a gente pensar...
A gente criou a civilização a partir da causalidade: eu tenho a culpa por ter feito alguma coisa, logo, eu tenho a pena. Todo devido processo legal existente é para provar dentro da lógica da causalidade. E como é que eu vou fazer um devido processo legal numa lógica de correlação? Isso não existe, eu não sei como é, o que eu peço, como vai ser. Então, é uma coisa, assim, tão civilizacional que é muito complicada.
Só, finalizando, por exemplo, na área penal, em 1940, no nosso novo Código Penal, nós tiramos questões que não sejam de causalidade em relação à pena de um indivíduo: o ambiente social, onde mora, o que faz, e somente ele é culpado por aquilo que ele fez. Se eu volto a usar a IA, eu simplesmente volto àquele raciocínio lógico em que interfere onde ele mora, onde ele vive, com quem ele convive para eu determinar as coisas em relação a ele.
Então, enfim, concluindo, esta questão é central em qualquer regulação de direitos: a gente olhar tudo que impacta nessa lógica de causalidade para correlação e a gente preservar direitos procedimentais que, pelo menos, garantam que o indivíduo possa ter um caminho diante de graves injustiças. É o mínimo que a gente tem que garantir.
Obrigada.
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Parabéns pela brilhante exposição, Estela Aranha, Assessora Especial da Assessoria Especial da Presidência da República e membro do Conselho de Alto Nível da ONU para Inteligência Artificial. Parabéns pela exposição perfeita, que apontou, inclusive, essa questão do racismo e dos erros que podem acontecer. É aquela velha frase, muito mais antiga do que a Inteligência Artificial: uma mentira dita tantas vezes, tantas vezes, parece que é verdade.
A SRA. ESTELA ARANHA - Mas é importante... E aí eu falei que comecei a racionalizar que o problema não são só os erros, parece que, só corrigindo os erros, a gente corrige. Tem outras questões de lógica da coisa que também a gente tem que discutir, que são esses artefatos, lógica de vigilância, lógica de olhar menos para garantir direitos e mais para como sermos produtivos ou como eu ter lucro, enfim, embora os erros tenham sido corrigidos...
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Está tudo em jogo. Está tudo em jogo.
Passamos a palavra agora para o Dr. Admirson Medeiros, representante do Conselho Nacional dos Direitos Humanos.
O SR. ADMIRSON MEDEIROS (Para expor.) - Bom dia!
Primeiramente, Senador, faço um agradecimento...
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - (Falha no áudio.) ... que depois do Sr. Admirson, nós vamos para a segunda mesa.
O SR. ADMIRSON MEDEIROS - Eu trago um agradecimento da Presidenta Marina Dermmam e de todo o colegiado do Conselho Nacional dos Direitos Humanos pela audiência proporcionada aqui pela Comissão de Direitos Humanos. E quero aproveitar também para saudar a Paula, o Atahualpa, a Estela, minha querida Renata Mielli e o Renan, que estão contribuindo com este debate. E uma saudação especial ao Senador, que, pela sua longa trajetória de luta pela classe trabalhadora, ajudou a fundar, inclusive, a central de que eu faço parte, Central Única dos Trabalhadores, e é um defensor intransigente das causas das comunidades vulneráveis, como a gente tem acompanhado, e a importância de seu mandato para que a gente possa continuar na luta dos direitos.
R
Bom, depois de escutar todos os companheiros e companheiras, eu não vou tomar muito tempo, até porque esta Casa aqui hoje está sendo objeto de observação do mundo inteiro em função do relatório que vai ser votado daqui a pouco na Comissão temporária que foi criada aí para a questão da inteligência artificial - e é observação, porque a gente já deu exemplo ao mundo na questão de regulações aqui. O marco civil da internet foi algo fundamental, e a gente tem que reconhecer que o Brasil passou a ser visto com outros olhos. E a gente tem que continuar dando exemplo.
E é nessa perspectiva que o CNDH... Em função de toda uma demanda que chegou dentro do conselho, porque chegam diariamente denúncias de violação de direito, de violação de liberdade de expressão, de discursos de ódio - assim, vocês não têm ideia do que chega -, de ataque às comunidades quilombolas, comunidades indígenas, fake news... E, quando chegou denúncia sobre a questão da inteligência artificial, o conselho disse: "E agora? Para onde vamos?", um tema tão complexo como esse.
Então, em função disso, foi criada uma relatoria, a qual eu estou coordenando, para tratar dessa questão do impacto da inteligência artificial nos direitos humanos. Ela foi criada em outubro, e a gente, de lá para cá, correu para tentar dar conta, tentar ver de que forma a gente poderia incidir neste momento tão crucial que a gente está vivendo, quando a tecnologia passa a ser palco de uma série de aspectos: dentro do STF, está lá a discussão da constitucionalidade do art. 19; aqui, discussão da inteligência artificial; recentemente, teve o 2.630, que foi palco de discussão sobre a questão da regulação das plataformas. Então, assim, é um momento importantíssimo.
Vários companheiros e companheiras estão circulando aí, tentando convencer os Senadores a que a gente tenha uma regulação ética, uma regulação transparente, uma regulação que atente para a preservação dos direitos. E a gente sabe que é um momento crucial para que a gente possa ter algo que vá proteger os trabalhadores, que vá garantir transparência, que vá garantir todo um processo que já foi citado aqui por quem me antecedeu.
O CNDH, nesses dois meses de relatoria, a gente esteve lá na sua terra - o último pleno foi lá, inclusive - e desenvolveu um seminário lá para tratar desse assunto, um diálogo muito importante, que nos deu base, inclusive, para ir para o G20 Social, onde a gente desenvolveu uma atividade lá. Antes disso, uma nota foi soltada, solicitando que o Senado se atentasse a essa questão. Preparamos para o G20 a nota conceitual, relatando uma série de preocupações e de atenção a ser dada nesse processo de regulação.
E, ontem, saiu - a gente encaminhou para os membros aqui da Comissão - uma recomendação no sentido de preservar, preservar esses aspectos que estão colocados no que diz respeito à questão da ética, à questão da produção do conteúdo, à questão do direito autoral, à questão do mundo do trabalho - o impacto que isso causa-, à questão da preocupação com a qualificação e requalificação, que já foi citada. Então, assim, a gente está tentando incidir, está tentando sensibilizar, a sociedade civil está movimentada.
Eu não me apresentei totalmente. O meu nome é Admirson Medeiros, Senador, mas eu sou conhecido carinhosamente como Greg. Eu estou, dentro do conselho, representando o Fórum Nacional pela Democratização da Comunicação - eu sou o coordenador do fórum -, e a gente vem, via fórum e via Coalizão Direitos na Rede e várias outras entidades, tentando fazer esse diálogo acontecer. É um diálogo bastante complexo. A gente precisa de vários seminários.
R
Quando a relatoria assumiu essa tarefa, a gente pensou em um seminário de dois dias para provocar os temas importantes, provocar o debate, que a gente sabe que não seria conclusivo, mas iniciar essa discussão. Não conseguimos fazer esse seminário de dois dias, mas está nos nossos planos realizar esse seminário. É lógico que a gente vai contar com o apoio desta Comissão, como vamos contar com o apoio da Comissão lá da Câmara de Deputados, com que a gente já está conversando. E a gente pretende fazer que tenha mais momentos como esse, porque eu acho que é importantíssimo a sociedade civil estar se posicionando.
A gente tem um processo que eu vou deixar aqui na sua mão - esse material que está sendo produzido está lá dentro do Participa + Brasil, onde está todo o material do Conselho Nacional de Direitos Humanos -, então está aí a nota conceitual, está aí a recomendação que a gente está mandando aqui para o Senado. E a gente espera que seja dada atenção a esse aspecto que a gente está ressaltando, porque a gente está falando de uma tecnologia. Eu sou da área de tecnologia e sei muito bem o impacto que isso causa. Há essa questão da jornada que o senhor cita e tem outros elementos também, como a questão do trabalho em casa, que afeta deveras a vida das pessoas. A isso tem que ser dada atenção também nesse processo de uso das tecnologias.
E a gente, inclusive, estava até conversando com o Atahualpa para ele estar como Consultor ad hoc do CNDH, em função da parceria que a gente está tendo com o IPPDH, e também com a Acnudh a gente tem dialogado. O Conselho Nacional de Direitos Humanos está se relacionando com essas duas entidades, para a gente tentar construir algo com que a gente vá favorecer o debate internacional. Isso não é uma coisa que está afetando só a nós no Brasil; isso é uma discussão hoje que está colocada no mundo. E a gente sabe de forma bem clara que, se a gente não se atentar agora, a gente pode ter retrocessos imensos.
A gente tinha um relatório lá atrás. Esse relatório a gente já fazia observações de que precisava ser melhorado. E saiu um novo relatório agora que retrocedeu, e muito, e isso está nos preocupando bastante. A gente está com uma movimentação aí dentro da sociedade, inclusive aí com os companheiros e companheiras que estão nos acompanhando e que estão aqui presentes. A CUT, nossa Central Única dos Trabalhadores, está disponibilizando uma ferramenta, na pressão, que é uma ferramenta para a sociedade poder se posicionar e pressionar os Deputados no sentido de que eles precisam estar atentos a essa regulação. Não dá para a gente, neste momento, dizer que isso vai acabar com as inovações, vai acabar com os avanços da tecnologia porque está se regulando. Onde já se viu isto? Você deixa livremente as coisas serem reguladas, e isso aí está trazendo consequências imensas, seja lá na produção dessas fake news, que só fazem afetar a nossa vida, seja lá desrespeitando os direitos autorais, tirando postos de trabalho sem ter nenhum processo de remanejamento e de requalificação. Então, essas são preocupações que esta Casa tem que ter neste momento em que ela vai estar regulando.
Então, como está próximo da votação e eu sei que tem pessoas já querendo acompanhar esse processo de votação, eu quero encerrar por aqui, mais uma vez agradecendo e dizendo que a gente vai continuar parceiro nesse processo, Senador. (Palmas.)
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Muito bem, Admirson Medeiros, representante do Conselho Nacional de Direitos Humanos, que deu uma série de alertas para que a gente continue aprofundando o debate, e ainda alertou do projeto que está para ser votado, algumas preocupações que você traz.
R
A SRA. ESTELA ARANHA (Fora do microfone.) - Senador...
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Pois não, pois não!
A SRA. ESTELA ARANHA (Para expor.) - Só quero fazer um comentário que é o seguinte: nessas discussões aqui legislativas, e mesmo no Judiciário, no Executivo, há um lobby tão grande, tão forte das empresas, que a sociedade civil, os movimentos sociais, o movimento sindical, de modo geral, a gente tem dificuldade até de encontrar espaços para nossas reivindicações, enquanto sociedade civil, movimento social e defensores de direitos. Então, contamos com o seu apoio...
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Estamos juntos.
A SRA. ESTELA ARANHA - ... nas pautas. Será muito importante, porque tem até uma dificuldade de espaço de debate, de diálogo, porque é muito difícil, é muito forte o poder econômico.
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Não, mas esse espaço aqui na Comissão está garantido. E é importante que o sistema de comunicação do Senado... Uma vez foi o Lula que me disse: "Por que vocês não usam mais a tribuna?". "Eu uso." "Então, eu fiquei tranquilo." Disse ele: "Aquele espaço da TV Senado, da Agência de Senado é um canhão de informação; é uma frase do Lula essa, muito tempo atrás ele falou numa reunião em que estávamos com as bancadas de Câmara e Senado. E esse espaço está assegurado; toda segunda-feira, eu o tenho pela manhã e, durante a semana, eu faço uma ou duas a mais além da reunião da segunda, porque na quarta é deliberativa, como teremos amanhã essa deliberativa.
Agora, na segunda mesa, eu tenho: o Dr. João Caldeira Brant Monteiro de Castro, Secretário Nacional da Secretaria de Políticas Digitais da Secretaria de Comunicação Social da Presidência da República (Secom); o Dr. Gustavo Borges, Diretor do Laboratório de Direitos Humanos e Novas Tecnologias... (Pausa.)
Então, é só um. (Pausa.)
Então, também vocês podem continuar na mesa, porque vai haver as considerações finais ainda. Eu vou pedir para botar uma cadeira aqui para o Sr. Gustavo Borges. (Pausa.)
Então, o Gustavo e o João Caldeira não estão.
Vamos em frente. Vamos lá, nós estamos correndo atrás do tempo aqui. E nós temos mais uma parte para vocês todos falarem ainda, hein?
Eu quero só restar a presença do Tiago Ranieri, Procurador do Trabalho e Diretor de Assuntos Legislativos. É isso? (Pausa.)
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Perfeito.
Neste momento, meus amigos, eu vou pedir para a assessoria da mesa que entregue para cada um dos painelistas as perguntas do e-Cidadania. Eu vou ler as perguntas... Você já entrega para eles? (Pausa.)
Então, providencie a entrega para eles.
Eu vou ler as perguntas e, em seguida, cada um dos senhores e das senhoras escolhe qual a pergunta que deseja fazer. (Pausa.)
Está certo, ele me lembrou ali. Cada um de vocês escolhe as perguntas que deverá responder. Tu dás a cópia para eles agora? (Pausa.)
Enquanto eles olham, eu vou chamar, por videoconferência ainda - são dois só -, a Dra. Priscila Lauande, Advogada e Assessora Jurídica, Doutora em Direito pela Sapienza Università di Roma e Universidade de São Paulo; e, em seguida, Dra. Paula Simas, Representante do Alto Comissariado das Nações Unidas para os Direitos Humanos.
Por favor, Dra. Priscila, dez minutos com mais cinco.
A SRA. PRISCILA LAUANDE (Para expor. Por videoconferência.) - Obrigada.
Bom dia a todos e a todas.
R
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Bom dia.
A SRA. PRISCILA LAUANDE (Por videoconferência.) - Eu queria, inicialmente, agradecer o convite da Comissão para tratar de um tema de extrema relevância para o nosso país, fazendo isso na pessoa do Senador Paulo Paim, e parabenizando-o por esta iniciativa.
Cumprimento ainda os palestrantes convidados, quem está nos acompanhando pelo canal do YouTube e quem está participando de forma interativa com o envio de perguntas.
Bom, apesar da amplitude desta temática e questões relevantes acerca dos impactos da inteligência artificial nos direitos humanos, minha abordagem aqui será limitada a um tema em particular que foi objeto do meu doutorado na Sapienza Università di Roma e na USP, que resultou na publicação do meu livro Inteligência Artificial nas Relações de Trabalho, em que eu busquei responder a três questões principais: quais são os sistemas de inteligência artificial que estão sendo utilizados e incorporados nos locais de trabalho? O que eles representam em termos de risco aos direitos dos trabalhadores? E o que a legislação existente, em particular as convenções da OIT e os projetos de lei que estão em tramitação, dizem a respeito? Ou seja, se englobaria esses riscos que foram evidenciados na pesquisa.
Após a análise teórica e pesquisa de campo que eu desenvolvi no Brasil e também em Bruxelas, entrevistando diversas lideranças sindicais, cheguei a algumas conclusões que trato com maiores detalhes no livro e que vou tentar resumir aqui em dois tópicos já abordados também pelos convidados que me antecederam, mas que eu buscarei aprofundar, que são: os impactos não só na ocupação, mas também na qualidade do trabalho, e os riscos aos direitos dos trabalhadores com a utilização de gerenciamento algorítmico.
Em relação à ocupação, esses desafios podem assumir duas formas: a primeira, com a automação de algumas tarefas que compõem a ocupação, que trazem uma ameaça iminente aos empregos e riscos a desemprego em massa, e com a remodelação das habilidades dos trabalhadores, de tal forma que uma minoria de trabalhadores altamente especializados obteria benefícios extraordinários, enquanto a grande maioria seria marginalizada.
As razões pelas quais sugere-se que o impacto sobre a ocupação seria diferente das revoluções tecnológicas precedentes, que estavam associadas principalmente à automação de tarefas rotineiras, é que, com os recentes avanços na IA, possibilita-se agora também a automação de tarefas normalmente associadas a ocupações altamente qualificadas, como atividades manuais não rotineiras, que exigem destreza, e atividades cognitivas não rotineiras, que exigem um pensamento abstrato, criatividade e inteligência social.
Em termos de legislação, nós já temos previsto na Constituição Federal, no art. 7º, inciso XXVII, a proteção em face da automação na forma da lei, dispositivo que infelizmente ainda não foi regulamentado e que é inclusive objeto de uma ação direta de inconstitucionalidade em tramitação no Supremo Tribunal Federal, a ADO 73.
Então, a proposta que trago aqui diz respeito à adoção de algumas medidas em termos de políticas públicas que visam a algumas também já abordadas no PL 2.338 e que dizem respeito, primeiramente, à qualificação e requalificação dos trabalhadores em todos os setores e em todos os níveis, para que eles estejam preparados para esse novo mercado de trabalho.
R
Aliado à aquisição dessas habilidades técnicas, é importante também o incentivo a programas de literacia e inteligência artificial, ou seja, que os trabalhadores de um modo geral sejam capazes de entender o papel da IA e o seu impacto no trabalho. Isso requer conhecimentos em informática, compreensão, processamento e manipulação de dados, identificação e solução de problemas relacionados à IA, raciocínio lógico e computacional. Um cenário ideal seria o desenvolvimento de uma estrutura que permita aprimoramento, reciclagem quanto ao desenvolvimento da alfabetização em IA, garantindo que a capacidade dos indivíduos seja transformada ou aprimorada de uma forma mais abrangente.
Um segundo ponto para aqueles trabalhadores que foram já substituídos: se mostra necessária a adoção de medidas de apoio imediato para quem perdeu sua principal fonte de renda, que seja através de benefícios, tais como seguro-desemprego, até que consigam uma recolocação no mercado de trabalho, ou até mesmo a discussão sobre uma renda básica universal.
Nesse sentido, uma medida eficaz de modo a gerenciar esse processo de transição seria a consulta e negociação entre trabalhadores e empregadores, incentivando a redistribuição e o treinamento ao invés da perda do emprego.
No caso de demissões em massa por motivos tecnológicos, a adoção de requisitos processuais especiais, incluindo consultas do empregador com representantes dos trabalhadores, notificação às autoridades competentes, adoção de medidas para evitar ou minimizar as rescisões e mitigar os seus efeitos, bem como o estabelecimento de critérios para seleção, rescisão e prioridade de recontratação são medidas que podem mitigar esses efeitos, que já são adotadas em diversos países, inclusive países-membros da União Europeia.
Por fim, em relação a esse primeiro tópico, é necessária também uma fonte de intervenção política que vise a garantir a qualidade dos novos empregos criados como resultado da mudança tecnológica. Com a gig economy, as plataformas digitais de trabalho forjaram um modelo de negócios que possibilitou a fragmentação do trabalho em micro tarefas, por exemplo, com o crowdsourcing, em que os trabalhadores são pagos por tarefas e regidos por contratos civis, o que significa que esses trabalhadores não têm nenhuma proteção trabalhista ou benefícios de previdência social que acompanham a relação de emprego.
No que diz respeito, por outro lado, ao gerenciamento algorítmico, são observados inúmeros riscos aos direitos dos trabalhadores, através de uma nova dinâmica de monitoramento e vigilância, que se mostra muito mais invasiva e intrusiva, possibilitando uma avaliação constante e inédita, o que inclui vigilância por vídeo, software de rastreamento como registro na internet, registro das teclas digitadas, sistemas de registro de tempo.
Os resultados dessa pesquisa, juntamente com a análise teórica, destacaram pelo menos quatro áreas maiores com maiores riscos de violação aos direitos dos trabalhadores. A primeira delas diz respeito à privacidade e à proteção de dados, o que se denominou de paradoxo tecnológico. Na medida em que, apesar de as tecnologias passarem a permitir que os trabalhadores realizem suas tarefas com maior autonomia, fora de uma supervisão direta, há um risco real de que o controle seja intensificado por meio da própria conexão tecnológica, o que foi chamado de telessubordinação. O aumento dos aspectos controlados na prestação de serviços transforma os trabalhadores em sujeitos involuntariamente transparentes, pois muitas vezes desconhecem o uso de tais sistemas, não sabem quais dados estão sendo coletados, para qual finalidade ou como os sistemas estão avaliando esses dados. Tudo isso ampliado em uma relação de evidente assimetria de poder.
R
Isso é observado através de práticas como o nudging, que é uma influência na tomada de decisões, a gamificação do trabalho, que é a utilização de elementos de jogos em contextos não relacionados a jogos para motivar, envolver e aumentar a produtividade do trabalho, e outras formas de controle que desumanizam os trabalhadores através da datafication do local de trabalho.
Podem intensificar ainda práticas discriminatórias resultantes do design do uso ou do uso de dados incorretos, seja por meio da mineração de dados, rótulos de classe que podem ter um impacto significativo em categorias vulneráveis, dados de treinamento que podem conter um caráter discriminatório, amostras tendenciosas que podem amplificar as previsões da inteligência artificial proxel através da discriminação intencional.
Uma questão central que permeia a mitigação desses riscos é o envolvimento e a participação dos trabalhadores, como já destacado aqui anteriormente na fala do Senador e dos convidados que me antecederam, na medida em que, devido ao aumento da coleta de dados e à sofisticação desses algoritmos, os acordos coletivos podem ser abrangentes o suficiente para incluir regras sobre introdução e uso dessas tecnologias, podendo superar a atual abordagem de controle de danos ex post.
Nesse sentido, eu faço menção aqui à recente diretiva da União Europeia sobre melhoria das condições de trabalho dos trabalhadores em plataformas digitais, que traz uma abordagem muito interessante e que, além de trazer essa presunção relativa de uma relação de emprego, quando verificados o controle e a direção, invertendo o ônus da prova para que as plataformas possam demonstrar que, de fato, se trata de um trabalho autônomo e não de uma relação de emprego, traz também uma gama de direitos que engloba não só os empregados, mas também trabalhadores autônomos submetidos ao gerenciamento algorítmico, como, por exemplo: proibições totais do processamento de determinadas categorias de dados, como dados pessoais relacionados ao estado emocional ou psicológico, dados relacionados a conversas privadas, dados pessoais para obter informações como origem racial ou étnica, status migratório, opiniões políticas, crenças religiosas ou filosóficas, deficiência, saúde, filiação sindical, orientação sexual, bem como do processamento de quaisquer dados biométricos para estabelecer a identidade de uma pessoa, vedando ainda a coleta de dados quando a pessoa não estiver trabalhando ou não estiver procurando trabalho.
Proíbe ainda decisões que limitem, suspendam ou encerrem a relação contratual ou a conta dos trabalhadores, a menos que seja tomada por seres humanos, e decisões que exerçam pressão indevida sobre os trabalhadores ou criem riscos à segurança e saúde física e mental.
Traz ainda salvaguardas quanto a uma transparência robusta e direito de explicação, prevendo que as plataformas informem sobre o uso de monitoramento automatizado e práticas de tomadas de decisão que incluam, além da notificação da adoção, as categorias dos dados e ações monitoradas, supervisionadas ou avaliadas por esses sistemas, os principais parâmetros e o peso relativo de cada parâmetro, estendendo ainda aos procedimentos de recrutamento e de seleção.
R
Prevê ainda que justifiquem essas decisões, fornecendo explicação para qualquer decisão tomada ou apoiada pelo gerenciamento algorítmico sem atrasos indevidos, de forma transparente e compreensível, desde a suspensão ou rescisão da conta até a recusa de pagamento e mudança no status de emprego. O direito de revisar e obter retificação de tais decisões também se encontra prevista na diretiva.
E, por fim, ela traz também esquemas de envolvimento mais forte para os representantes dos trabalhadores, assegurando o direito de serem assistidos por representantes sobre o impacto da gestão algorítmica nas condições de trabalho, de participar de avaliações de risco de segurança e saúde ocupacional e também de exercer direitos de informação e consulta sobre a introdução ou mudanças substanciais no uso de monitoramento e tomada de decisões automatizadas, estabelecendo a necessidade de criação de canais de comunicação nos quais todas as pessoas que realizam trabalhos em plataformas, independentemente da situação contratual, possam se comunicar de forma privada e segura e interagir com os representantes.
Observa-se dessa forma que a diretiva traz grandes avanços não só em relação ao enquadramento jurídico com a presunção legal de uma relação de emprego, mas ela também estabelece um rol de direitos que abrangem em sua grande maioria os trabalhadores autônomos quando submetidos ao gerenciamento algorítmico, o que se deve ter em vista...
(Soa a campainha.)
A SRA. PRISCILA LAUANDE (Por videoconferência.) - ... quando se busca a mitigação dos impactos da inteligência artificial nessas novas dinâmicas de trabalho, que já é uma realidade na vida de milhões de trabalhadores.
Eu encerro aqui minha participação agradecendo, mais uma vez, o convite. Fico muito feliz em poder participar do debate e à disposição para dar continuidade.
Muito obrigada. (Palmas.)
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Muito bem, Priscila Lauande, Advogada e Assessora Jurídica, Doutora em Direito pela Sapienza Università di Roma e Universidade de São Paulo. Parabéns. Aprofundou a questão das relações no mundo do trabalho, desde a desumanização do direito do trabalho à discriminação, falou também da importância da recolocação dos trabalhadores.
Eu acompanhei recentemente o caso aqui da Eletrobras, o mundo do terror que se criou... Ela tinha em torno, eu acho, de mais de 10 mil trabalhadores, foram demitidos 4 mil, dizem que vão mais de 20% agora. Uma delegação me procurou aqui, dizendo que foram demitidos pelo computador. Profissionais preparados se sentam para trabalhar, e o computador informa: "Você está demitido. Procure o departamento de pessoal". Simples assim. E eles deram o testemunho, inclusive numa audiência pública que eu fiz.
Felizmente estamos trabalhando em cima de um projeto que veio da Câmara, de um Deputado, inclusive, do PT, e aqui o Alessandro Vieira fez um brilhante relatório. Aprovamos, por unanimidade, na Comissão de Assuntos Sociais. Agora ele vai para a CCJ.
R
O princípio, por isso que eu estou ligando à fala dela, é este: era uma estatal; todos concursados; em tese, tinham direito à estabilidade; mas, no momento em que é privatizada, cai tudo. Pelo menos, que haja o compromisso da recolocação desses trabalhadores em outra estatal, em outro espaço público, que é na linha da fala aqui que ela fez, da formação, da recolocação.
De imediato, Dra. Paula Simas Magalhães, representante do Alto Comissariado das Nações Unidas para os Direitos Humanos.
A SRA. PAULA SIMAS MAGALHÃES (Para expor. Por videoconferência.) - Muito obrigada, boa tarde.
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Boa tarde.
A SRA. PAULA SIMAS MAGALHÃES (Por videoconferência.) - Muito obrigada a V. Exa. por esse convite, por essa oportunidade especial.
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - É bom dia ainda, mas vale bom dia e boa tarde. (Risos.)
A SRA. PAULA SIMAS MAGALHÃES (Por videoconferência.) - Queria poder cumprimentar todos os painelistas aqui presentes e todos que estão acompanhando a sessão, todos e todas. Queria mandar os cumprimentos do nosso representante regional, o Jan Jarab, que infelizmente não pôde estar aqui hoje.
Do nosso lado, acho que nós queríamos trazer algumas considerações sobre o papel da inteligência artificial nos direitos humanos e também qual tem sido a atuação e o pensamento nas Nações Unidas e dos mecanismos internacionais de direitos humanos.
Aqui eu diria que, desde o nosso escritório, já há uns dez anos, nós temos trabalhado essa questão sobre o impacto nos direitos humanos de novas tecnologias, inclusive inteligência artificial, mas eu diria que, sobretudo desde 2021, dada a evolução na tecnologia da inteligência artificial generativa, tenho sentido uma atenção especial também dos mecanismos internacionais de direitos humanos, dado a amplitude de direitos que podem ser afetados.
E aqui eu traria, por exemplo, os mecanismos de direitos humanos tais como as várias relatorias das Nações Unidas e dos comitês, por exemplo: o Comitê de Direitos Humanos, o Comitê sobre os Direitos das Crianças, a Convenção para a Eliminação de todas as Formas de Discriminação contra a Mulher, o Comitê de Direitos Econômicos, Sociais e Culturais. Várias dessas instâncias, só no último ano, trouxeram dezenas de recomendações a vários países sobre o impacto da inteligência artificial e a importância da regulação dessa tecnologia.
Essas recomendações são variadas, tocam em temas como a proteção das crianças no espaço digital, a automação, a indústria bélica, os impactos que foram bem destacados aqui no mercado de trabalho, o acesso ao trabalho, a informação de populações chave, sejam mulheres, pessoas com deficiência, povos indígenas, população afrodescendente, entre vários outros.
Destacamento também específico à questão do perfilamento racial e reforço de estereótipos raciais e de gênero. Isso a gente vê sobretudo, por exemplo, na esfera de segurança pública e acesso a serviços econômicos. Várias questões sobre a sub-representação de certas populações no espaço da tecnologia - por exemplo, mulheres -, questões de proteção de dados, direitos à privacidade, vigilância.
Eu diria que vários dos palestrantes trouxeram muitas dessas preocupações e a necessidade de medidas para tentar mitigá-las. Eu acho que o que nós queríamos trazer aqui também - tendo o sentido do tempo - são certas considerações sobre toda a cadeia produtiva da inteligência artificial. E aqui eu talvez focaria sobre os impactos que a produção dos materiais e a manutenção das máquinas que operam a inteligência artificial têm, porque eu acho que é um tema que não tem sido ressaltado necessariamente, mas que tem um impacto atual e futuro muito importante.
R
E aqui eu traria, por exemplo, que todos os materiais que são necessários para a produção dos chips ou dos sensores que a inteligência artificial usa são frutos de processos de extração de minérios complexos, grandes, de grande escala, o que pode ter impactos em direitos humanos consideráveis. Por exemplo, se esses minérios se encontram em terras de povos indígenas, como está sendo feito o processo de consulta prévia, informação e consentimento dessas populações? Muitos vêm de regiões que estão em conflito armado. Quais são as medidas de devida diligência que as empresas estão tomando para garantir que não seja fruto de conflito, que não seja fruto de uso, por exemplo, de crianças no conflito armado a extração desses materiais? O impacto ambiental, por exemplo, digamos, na produção do lítio, que é uma das novas fronteiras aqui na América do Sul e no Brasil também, pode ser muito considerável. Então, também tem todas essas questões só nos materiais que são utilizados para operar a inteligência artificial e, igualmente, para a questão da manutenção das máquinas que operam a inteligência artificial.
Quando a gente pensa em questões de direito a um ambiente saudável, a gente tem que lembrar do alto consumo de energia para fazer o próprio treinamento da inteligência artificial, especialmente desses modelos mais avançados, o que aumenta, por exemplo, as questões de emissão de carbono. E a gente, obviamente, vindo logo depois da COP, tem que também pensar no impacto nas mudanças climáticas dessa nova tecnologia e como mitigá-las.
Pensamos aqui também em questões relacionadas ao alto consumo de água. Para gerar os produtos, os eletrônicos que compõem as máquinas, utiliza-se muita água também. E, nos próprios data centers, para poder mantê-los refrigerados, requer-se uma quantidade de água imensurável. Alguns estudos já estão saindo mostrando que uma mera interação, por exemplo, com o ChatGPT de sete ou oito perguntas poderia ser o equivalente a 1 litro de água. Então, se você for pensar só o que nós, como pessoas, fazemos na interação com essa inteligência... Obviamente, isso é para chamar a atenção, mas é realmente para trazer essa questão da água e a inteligência artificial.
E tudo isso tem impactos grandes quando a gente pensa em questões climáticas. Pensando no Brasil, só neste ano nós tivemos dois dos maiores desastres da nossa história, seja pelas inundações no Rio Grande do Sul, seja pelos incêndios e a seca no Norte. Então, a gente tem um impacto no longo prazo também que tem que ser considerado desses sistemas e que também tem que ser avaliado.
E aqui eu queria trazer um pouco - e a Dra. Estela já trouxe também essa questão - que essas preocupações sobre a inteligência artificial são uma preocupação global. Tanto o é que o Secretário-Geral da ONU constituiu esse Conselho Consultivo de Alto Nível, de que a Dra. Estela faz parte e que recentemente também publicou o seu relatório, em setembro deste ano. E o que traz o relatório e que muitas das nossas agências da ONU têm reforçado é que existe um déficit de governança global em relação à inteligência artificial. Apesar de muitas discussões sobre ética e princípios, globalmente as normas e as instituições ainda estão muito incipientes e cheias de lacunas. Por isso, são muito importantes e laudáveis os esforços no Brasil e as propostas legislativas que estão avançando, porque é muito importante ter essa regulação e a fiscalização dessa nova tecnologia.
R
E eu diria que os padrões desenvolvidos no Brasil têm que dialogar e têm que ter um esforço comum com todos os outros países, em nível global, para se criar essa governança global. A inteligência artificial, tal como o desenvolvimento de armas químicas, a energia atômica e questões de aviação civil, é questão que não consegue ser gerada em nível só local; tem que ser administrada e tem que ter acordos em patamar global também. Então, quero reforçar que, pensando nos processos regulatórios, também deve ter esse diálogo em nível sub-regional e internacional também.
O que o conselho consultivo trouxe foi justamente a necessidade de se criarem esses mecanismos de diálogo político, de compartilhamento de normas e de criação de normas conjuntas, mas também de criação e pensamentos sobre a própria ciência da inteligência artificial. Eu acho que o nosso Alto Comissário recentemente destacou que a gente não deve ter receio em restringir o uso ou o desenvolvimento de novas tecnologias de inteligência artificial se a gente sabe que essas ainda não estão compatíveis com os direitos humanos. É muito importante que as salvaguardas sejam criadas antes, para poder evitar o maior impacto aos direitos das pessoas. Aqui, retomando a fala da Paula e de vários dos outros colegas, tem que ser centrado nos direitos humanos qualquer processo regulatório da inteligência artificial.
E aqui eu trago um exemplo, trazendo de novo a questão do meio ambiente: no Chile, recentemente, por decisão judicial, um investimento multimilionário da Google para criação de data centers no Chile foi restringido devido justamente ao impacto no consumo de água que isso traria. E isso não foi conflitivo. Nesse sentido, a Google já anunciou que vai refazer todo o programa para poder garantir ressalvas ambientais. Então, a gente vê que não tem que ser contraditório - eu acho que você pode ter os investimentos, mas você tem que ter as salvaguardas e as garantias antes - e que não é impossível. As empresas podem se adequar - aliás, devem se adequar -, porque o impacto afeta a todos, inclusive as próprias empresas.
E, talvez, só para trazer algumas considerações que também foram trazidas no relatório global, mas que se aplicam também ao Brasil, cito a importância de garantir inclusão de diversidade nos dados. E acho que isto muitos dos palestrantes trouxeram: os riscos de perpetuação de estereótipos e preconceitos. Por isso, tem que ter uma inclusão diversificada nos dados e tem que ter uma supervisão de como esses modelos estão sendo desenvolvidos, para evitar quaisquer medidas discriminatórias.
E aqui eu diria a importância de garantir participação ampla e diversa - e, de novo, quero agradecer esse espaço, tal como a Dra. Estela disse - para poder trazer visões diferentes sobre a temática, não só de técnicos ou tecnologistas e empresários. É muito importante ter uma representação ampla de vozes na evolução dessa tecnologia, de eticistas, ativistas, advogados, enfim, variados. É importante a participação nesse processo.
R
E, finalmente, eu acho que, além da regulação, tem toda uma questão propositiva e ativa do Estado em financiar processos que ampliem o conhecimento da população sobre essa tecnologia, sobre o uso dessa tecnologia, sobre seus impactos, mas também investimento na inovação local. Que seja um processo transparente e ético também.
Eu vou parar por aqui, agradecer novamente por esta oportunidade e parabenizar a todos pelo trabalho também.
Muito obrigada. (Palmas.)
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Muito bem, Dra. Paula Simas Magalhães, representante do Alto Comissariado das Nações Unidas para os Direitos Humanos, que aprofundou inclusive a questão do clima - importantíssimo, e aí vou lembrar o que aconteceu lá no meu estado, o Rio Grande do Sul - e fortaleceu também a regulação. Tem que ter algum tipo de regulação para evitar os absurdos, como é hoje a falta de ética, a política de ódio e o que está retratado na palavra fake news, não é? Então é isso mesmo, parabéns.
Bom, neste momento já apareceram outros convidados que queriam ainda participar do debate, mas agora, como eu tinha dito que essa era a última por videoconferência e todos que estão presentes já falaram, nós vamos para o encerramento, como sempre é feito nesta Comissão. Eu vou ler as perguntas que chegaram, e os que estão presentes vão responder. São três convidados painelistas que estão presentes, eles vão escolher quais as perguntas a que eles querem responder. Agora, neste momento, será de cinco a no máximo dez minutos. Se quiserem usar os cinco ou os dez, cada um resolve como achar melhor.
Então, vamos lá. Perguntas.
André, do Paraná: "Quais [...] medidas serão tomadas para [evitar que] a IA [...] [viole] a Lei Geral de Proteção de Dados? [...]".
Leonardo, do Rio de Janeiro: "Como equilibrar o progresso da inteligência artificial com a proteção de dados, veracidade da informação e direitos humanos?".
Carla, de São Paulo: "Como integrar a educação sobre ética em IA nas escolas para preparar as futuras gerações?".
Guilherme, do Amazonas: "Como garantir que os cidadãos tenham controle dos seus dados e que não sejam usados para treinar ferramentas de IA de empresas estrangeiras?".
Íris, de Pernambuco, diz o seguinte - não é pergunta, é uma afirmação -: "Grande parcela dos professores estão perdendo sua autonomia do saber-fazer docente e recorrem à IA por falta de uma formação/orientação".
Evaldo, de Minas Gerais, também faz um comentário: "Vejo que a evolução tecnológica da IA é interessante, mas [...] [preocupa devido à crescente disseminação de fake news] e desinformação [...]".
Pergunta Bruno, do Rio Grande do Sul: "De que forma a utilização da inteligência artificial pode [...] [impactar] tanto a proteção quanto a violação dos direitos humanos fundamentais?".
Poliana, do Distrito Federal: "A inteligência artificial apresenta certos riscos, como o aumento do preconceito e discriminação. Como prevenir esse impacto negativo?".
Letícia, de São Paulo: "Quais seriam os limites éticos e jurídicos que deveriam ser impostos no uso de IA para garantir o respeito aos direitos humanos?".
R
Ana, de Minas Gerais: "Como proteger a privacidade dos indivíduos em um mundo cada vez mais conectado e monitorado?".
Por fim, ainda só mais dois comentários.
Micaella, de Santa Catarina: "A IA [oferece avanço, como maior acesso à informação e serviço, mas] impacta profundamente os direitos humanos [...] [e] gera desafios éticos".
Maria, da Bahia: "Adicionar matérias [...] [sobre tecnologia nas escolas ajudará os jovens a usar a IA de forma consciente, prevenindo, então] o mau uso da ferramenta".
Vamos voltar agora aos nossos convidados que estão presentes.
Eu vou começar aqui com os últimos sendo os primeiros. Vou inverter agora.
Admirson Medeiros, representante do Conselho Nacional de Direitos Humanos. Tem de cinco a dez minutos, no máximo.
O SR. ADMIRSON MEDEIROS (Para expor.) - O.k., Senador. Eu não vou responder a uma pergunta específica. Eu tentei agrupar aqui e vou dar uma resposta geral às várias perguntas que chegaram.
Primeiro, a Maria, da Bahia, a Íris, de Pernambuco, e a Carla falam muito nessa questão do impacto da IA na educação. Como tratar essa questão? Eu acredito que a gente vai ter que ter um diálogo forte para a gente entender de quem é a responsabilização por esse processo. Isso está dentro do PL e é um dos pontos polêmicos. A responsabilização é do Governo? A responsabilização é das empresas, é das big techs? Eu acredito que a responsabilidade é de todos, da sociedade civil também. Eu acho que todos têm que se juntar na perspectiva de construir a alternativa para esse processo educacional.
A gente está falando de um processo de uma tecnologia, Senador, numa sociedade em que boa parte da população não tem acesso sequer à tecnologia básica, quanto mais à IA. Muitos não sabem nem o que é IA, não sabem nem que estão sendo monitorados, inclusive. Então, a gente precisa conversar com o MEC, a gente precisa conversar com os institutos federais de tecnologia, a gente precisa conversar com as empresas, com as big techs, enfim, precisamos repensar os currículos escolares, precisamos repensar os currículos acadêmicos e precisamos pensar nos programas de qualificação e requalificação, sim, porque isso precisa de um novo patamar educacional para poder se ver o que é a inteligência artificial e como ela interfere no processo educacional, inclusive.
Os professores estão tendo dificuldade, os alunos estão tendo dificuldade. Como é que se utiliza isso em bem de um processo de formação?
Outro bloco de questões que eu agrupei aqui vem de Leonardo, do Rio de Janeiro; Guilherme, do Amazonas; Ana, de Minas Gerais; Bruno, do Rio Grande do Sul; e Micaella, de Santa Catarina. Bom, gente, sobre essa questão da proteção de dados, de como a gente se prevenir, de como a gente ter acesso às coisas, tem uma lei já no Brasil vigorando, a LGPD está aí. Ela é uma lei que foi construída, que tem uma série de questões que precisam ser regulamentadas, Senador, e a gente tem que avançar nesse sentido e tem que estar atento a todo esse processo. Agora, tem coisas polêmicas dentro do PL a que a gente tem que estar atento, que são mecanismos de controle. Quem controla isso? Como é que se dá esse processo de transparência? Até onde as plataformas e as big techs vão abrir as suas ferramentas para serem transparentes e a gente ver como é esse processo, se tem, dentro dos sistemas, coisas que são preconceituosas, tendenciosas, como a Estela e outra aqui colocaram? Porque os sistemas são constituídos por seres humanos. Como é que você faz auditoria nesse processo?
R
Então, isso é um elemento que precisa ser elucidado para garantir toda essa segurança do que essa tecnologia nova vem trazendo para a sociedade, que ela ameaça em diversos aspectos, e a gente precisa ter instrumentos. Vai ser um órgão que vai ser criado para fazer essa fiscalização e controle? Então, essa questão da governança, de como se dá o processo é algo que está lá. Agora, já existe uma Lei Geral de Proteção de Dados vigente no Brasil, e tem que estar atento a essa lei para que as coisas não vão além.
E aí você vê um debate crucial, Senador, que é essa questão da vigilância eletrônica. Passou pelo CNDH uma denúncia sobre o Smart Sampa, que foi uma tecnologia implantada em São Paulo sem nenhum processo de discussão, sem nenhum controle e está lá causando males cruéis.
(Soa a campainha.)
O SR. ADMIRSON MEDEIROS - Primeiro, tendenciosamente somente negros são penalizados; segundo, nos processos, nos levantamentos que são feitos, as pessoas que são identificadas lá e que são presas são normalmente negros e negras. Então, mostra que o sistema tem seu lado preconceituoso e precisa ser... E não é auditado. Então, essa questão precisa ser regulada.
No último bloco, o Evaldo, a Poliana trazem essa questão das fake news, essa questão da desinformação, que é algo sobre o qual também chega muita denúncia dentro do conselho. E a gente queria resgatar aqui que tem um PL que está parado aqui dentro, que é o 2.630, que trata da questão da regulação das plataformas e que precisa voltar à tona. Tem dentro dele pontos cruciais precisam ser colocados, que são: quem decide que aquele conteúdo é falso ou não é? Qual tipo de penalidade que vai ser dado a quem cometeu? Quem é que vai ser responsabilizado? Quem patrocinou? Quem publicou? Quem produziu? Então, são coisas que precisam ser definidas. E outra coisa: quem julga isso?
Então, existe uma normativa jurídica no Brasil, e a responsabilidade por essa normativa jurídica é do STF. Então, não dá para fazer um avanço da discussão... E esta Casa tem que chamar para discussão - e eu sei que o Senador chamou - o STF para esse debate, para saber como é que se deu esse processo de julgamento, de penalização, qual a responsabilização e quem é que vai ser punido por essas coisas que são produzidas de forma que estimulam o ódio, que estimulam o preconceito, que estimulam as informações falsas.
Então, é isso que eu trago, respondendo a todas as questões que chegaram. (Palmas.)
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Muito bem, Admirson Medeiros, representante do Conselho Nacional de Direitos Humanos, que fez uma síntese das perguntas que, com muita competência, respondeu.
Temos que agilizar, porque depois dessa eu ainda tenho que ter outra reunião deliberativa - termina essa, e eu inicio outra -, que vai tratar do Orçamento.
Passo a palavra de imediato ao Dr. Atahualpa Blanchet, representante do Instituto de Políticas Públicas em Direitos Humanos.
O SR. ATAHUALPA BLANCHET (Para expor.) - Muito obrigado, Senador.
Bom, primeiro, eu quero, mais uma vez, destacar a importância dessa atividade, porque, ao fim e ao cabo, são temas de que a cidadania tem que participar, tem que debater, e, em função disso também, quero destacar a importância de receber as perguntas da participação cidadã nesta audiência.
E o Admirson Medeiros (Greg) está fazendo um trabalho sensacional no âmbito do Conselho Nacional de Direitos Humanos, justamente para poder difundir, disseminar a informação sobre como se dá o funcionamento dos sistemas de inteligência artificial, mas também, sobretudo, sobre quais são os seus impactos, riscos e oportunidades.
R
Aqui, como ele bem fez, ele agrupou as perguntas com relação a determinadas abordagens, e eu tratei de fazer mais ou menos a mesma coisa, tinha feito justamente a mesma definição de grupos de perguntas.
Com relação a um tema que foi aqui tratado inclusive pelo Greg, se referindo à questão das plataformas digitais, das redes sociais, eu acho que foi muito importante essa atividade realizada no âmbito do Senado Federal, porque nós conseguimos destacar, de forma geral, os temas relacionados aos impactos no âmbito dos direitos humanos, ao mesmo tempo enfocando em determinadas temáticas que são fundamentais para o tratamento do tema agora do Projeto de Lei 2.338, sobretudo destacando o tema relacionado aos impactos no âmbito da classe trabalhadora, dos trabalhadores, de que forma os sistemas de inteligência artificial vêm impactando.
Queria também trazer aqui um tema, dialogando com as perguntas aqui realizadas, que é fundamental, que é o tema da integridade da informação nos meios digitais. Uma das vertentes de impactos tangíveis no âmbito da aplicação de sistemas de inteligência artificial é o uso dos chamados algoritmos de recomendação nos sistemas, nas plataformas digitais, nas redes sociais, o que acaba fazendo com que se repliquem determinados tipos de conteúdos e se criem chamadas bolhas informacionais, que, ao fim e ao cabo, transformam o debate, no âmbito de uma arena digital, numa câmara de ressonância de convicções preexistentes, o que facilita muito também determinados tipos de conteúdo que acabam entrando no âmbito dos chamados discursos de ódio, que, ao fim e ao cabo, são mais uma manifestação também do impacto da IA na sociedade.
Então, a questão da percepção de realidade, que é alterada e mitigada por meio dessas plataformas, é um tema que é fundamental, é um tema que dialoga com os direitos fundamentais. Nós estamos falando não só de disseminação de discursos de ódio, de racismo, de xenofobia, de machismo no âmbito das redes sociais, mas também estamos falando de temas que são atinentes à questão relacionada à própria autoestima das pessoas. Estamos falando, por exemplo, do uso dos chamados filtros em redes sociais, que acabam criando padrões estéticos inalcançáveis e que acabam muitas vezes causando impactos de âmbito psicológico nos jovens, nos adolescentes. Então, nós estamos falando de temas bastante complexos.
E aqui, quando se pergunta, por exemplo, com relação à questão da educação, é fundamental, tem-se utilizado muito a terminologia do letramento digital, da educação de direitos no âmbito do manejo do uso das tecnologias.
Queria só destacar, para finalizar aqui, que, no Uruguai, por exemplo, existe uma política pública na escola pública que é chamada Plano Ceibal, em que cada aluno da escola pública recebe um computador ou um tablet para poder levar a tecnologia para a sua própria casa.
(Soa a campainha.)
O SR. ATAHUALPA BLANCHET - E isso não é uma coisa que vem só no âmbito material; também no âmbito do currículo da escola pública e também das escolas particulares, já há alfabetização midiática, ou seja, eles já trabalham os conceitos para poder fazer um uso ético e um uso responsável dessas ferramentas desde que são crianças, porque, ao fim e ao cabo, nós estamos tratando aqui, como foi bem dito, de questões de caráter cultural, histórico, econômico, como foi bem destacado aqui. E é preciso que, no âmbito das políticas públicas, nós possamos realizar um movimento anticíclico justamente para não seguir, como comentou a Estela aqui, o tecnodeterminismo; quer dizer, nós temos a capacidade de inserir e de incidir no âmbito da implementação dessas ferramentas, e eu acho que é importante destacar que se trata de uma questão de variável política. O debate sobre a implementação das novas tecnologias, da inteligência artificial, das tecnologias disruptivas ou tecnologias emergentes, como se vem falando agora, que vem gerando toda essa transformação na nossa sociedade, é um tema de caráter político, e, para isso, Senador, para finalizar e agradecer mais uma vez esta oportunidade, é fundamental o debate público, é fundamental que haja informação e disseminação, que haja um diálogo com os formadores de opinião. Nesse caso, também há um caráter, como o próprio Senador falou aqui, comunicacional. Nós temos que garantir a possibilidade de estabelecer linhas de agir comunicativo e educacional para poder gerar uma cultura de apropriação das ferramentas. Não se trata de refutar a inovação tecnológica; muito pelo contrário, trata-se de que nós possamos fazer um uso inteligente a favor da dignidade humana, a favor da perspectiva de direitos.
R
E, para finalizar, tem uma história que eu quero contar, muito brevemente, mas...
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS. Fora do microfone.) - O senhor tem dois minutos.
O SR. ATAHUALPA BLANCHET - ... é muito breve mesmo, que é o caso do Henry Ford, da fábrica de automóveis. Ele consegue automatizar o processo todo de construção do carro, leva um sindicalista para a fábrica, para mostrá-la e diz: "Olha só, estou conseguindo montar carros aqui sem a necessidade de um trabalhador sequer. Então, já, já, em breve, não vai ter mais sindicato". E aí o sindicalista olha para ele, o representante dos trabalhadores olha para ele e pergunta: "O.k., não vai ter mais trabalho, emprego e também não vai ter mais sindicato, mas aí eu te faço a pergunta: quem vai comprar o carro?".
É isso, pessoal.
Muito obrigado e até a próxima. (Palmas.)
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Nossos cumprimentos ao Dr. Atahualpa Blanchet, que aqui representou o Instituto de Políticas Públicas e Direitos Humanos.
Mas me permita... Já que você provocou com essa do Henry Ford, tem uma também que eu achei muito boa que me contaram: numa situação nos Estados Unidos muito difícil, o Presidente da época o chama e pergunta, na mesma linha do que você falou aí: "Qual é o segredo de a sua fábrica continuar com pleno sucesso se o país não vai bem?". E ele: "Só tem uma saída", "Qual é a saída?", "Bote dinheiro para circular, pague bem os trabalhadores, porque eles é que vão comprar os meus carros, vão fazer a economia circular". Tem tudo a ver com... Mas eu achei positivo no sentido de pagar bem os trabalhadores.
Vamos em frente.
Permitam-me só, antes da última convidada, ler o seguinte aviso aqui.
Mais informações sobre a audiência de hoje no portal do Conselho Nacional de Direitos Humanos - tudo em letra minúscula, pelo que eu percebi aqui -: https://www.gov.br/participamaisbrasil/cndh.
R
Está dado o aviso que me pediram que eu desse.
Por favor, agora, a Sra. Estela Aranha, Assessora Especial da Assessoria Especial da Presidência da República, membra do Conselho Consultivo de Alto Nível da ONU para Inteligência Artificial.
Eu vou votar aqui, já pode...
A SRA. ESTELA ARANHA (Para expor.) - Bom, para concluir aqui, primeiramente, agradeço ao Senador por abrir esse espaço. E acho que é muito bom também o Senado abrir-se cada vez mais para esse tipo de debate, porque IA não é hoje mais um assunto de técnicos, mas ela interfere na vida de todos nós. É excelente a ideia do relatório, já corri aqui para abrir, porque eu quero saber quais são os problemas atuais. A gente fica muito... A mídia, inclusive, impulsionada por alguns atores do Vale do Silício, fica falando pouco sobre os riscos existenciais de uma IA geral que vai ter e que a máquina vai vir contra os humanos, mas a gente tem riscos existenciais já agora nas nossas vidas. Um desses riscos tem a ver com algumas dessas perguntas, que é a história do uso da inteligência artificial na educação. A gente tem que entender sobre o estado da arte hoje e o que isso significa.
Tem um relatório da própria Unesco, como a colega do sistema ONU falou aqui anteriormente, que era sobre o ensino digital na época da pandemia, chamava-se "Uma tragédia Ed-Tech? Tecnologias educacionais e fechamento de escolas na era da covid-19". Esse relatório fornece fortes evidências do impacto negativo da digitalização da educação no direito à educação, especialmente e não apenas para os mais marginalizados, e esse impacto negativo da educação digital como substituto da escola presencial, como professores.
Então, a gente sempre deve examinar muito cuidadosamente soluções digitais quanto à qualidade, relevância, impacto na educação. A gente tem que rejeitar abordagens centradas em tecnologias, porque se falar "a tecnologia vai resolver o problema"... Não, obviamente a gente tem que introduzir o uso dessas tecnologias, conscientes, com ética, como a gente saber usar, para que ela serve ou não, mas a gente não pode achar que a educação vai melhorar porque a gente está usando inteligência artificial. Inteligência artificial é só um meio, é só uma tecnologia, como um computador. Ela não serve para melhorar nada. Ela é um instrumento e, na verdade, não vai resolver problema nenhum.
E é muito problemático, porque a gente adora bala de prata, não é? "Ah, isso vai resolver o problema". E, na verdade, esse tipo de discurso é muito usado em políticas de austeridade: "Eu quero diminuir os gastos com educação, então vou colocar AI". Então, a gente não pode seguir neste caminho. A gente tem um pacto de aprendizado, porque hoje em dia o aluno, além de não se concentrar, não prestar atenção, estar o dia inteiro ao telefone, perde habilidades. Tem estudos científicos que mostram, inclusive, que não só crianças, mas adultos têm um impacto na produtividade, no longo prazo, porque, quando você não pratica as habilidades, você vai perdendo.
Eu lembro que, quando era jovem, eu era muito boa de me localizar: me largavam em qualquer lugar da cidade com um mapa, e eu tinha uma super-habilidade e era elogiada, não me perdia com o mapa na mão. Hoje, eu não consigo caminhar sem olhar no Google Maps. Eu, às vezes, em um ou dois quarteirões, me perco, porque a gente vai perdendo esse tipo de habilidade.
Isso é um problema para a educação. A gente não pode deixar que os alunos percam esse tipo de habilidade. Na educação superior, os professores estão reclamando que esse tipo de coisa está acontecendo. (Pausa.)
Esse tipo de coisa está acontecendo...
R
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Fique tranquila, é uma delegação de pessoas que vieram participar da Semana da Pessoa com Deficiência, e eles queriam tirar uma foto aqui na Comissão de Direitos Humanos. O teu tempo eu vou dar, em seguida, mas eu te conto a história deles. Eles tinham outro compromisso aqui do lado, no outro gabinete. Eles vão lá e voltarão aqui depois, porque sabem que eu vou ficar aqui, porque eu tenho outra audiência aqui em seguida.
A SRA. ESTELA ARANHA - E esse é um tema muito importante...
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Muito importante!
A SRA. ESTELA ARANHA - A acessibilidade é uma questão... A gente está falando das críticas à IA, mas eu acho que este ponto é importante também, a IA pode ajudar em alguma coisa.
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS. Fora do microfone.) - Já repus o teu tempo lá.
A SRA. ESTELA ARANHA - Então, é isso, a questão da educação. Inclusive eu tive alguns debates internacionais com o próprio mercado de empresas, de big techs, e os executivos das áreas falavam: "Olha, não se pode usar IA para uso básico". A IA hoje, na sua atual concepção, só serve para algumas categorias de educação profissionalizantes, em que faz sentido, não uso geral. Então, ela não está apta para você trocar o ensino e o contato com o professor por uma IA, embora você possa - na verdade, você deva - usar para ensinar como usar, para ensinar que ela tem problemas, para ensinar que você não vai resolver seus problemas. Ela é um instrumento a mais para lhe ajudar e não vai resolver os seus problemas.
Eu quero falar um pouquinho sobre privacidade rapidamente. De alguma forma, a IA é um negócio de vigilância em geral com fins lucrativos, coleta massiva e uso de dados. Então, a gente tem que tomar muito cuidado. Eu acho que há diferença entre o que é uso de dados pessoais e o que não é uso de dados pessoais. Por exemplo, você coletar todos os dados relativos aos terremotos é ótimo, porque a gente precisa ter, ajuda a fazer correlações, ajuda a fazer previsão, e são dados objetivos. Então, o uso da IA é absolutamente apropriado. Agora, usam o mesmo algoritmo, a mesma tecnologia que você usa para avaliar a incidência de terremotos para avaliar a incidência de crime. Aí, a gente já tem um problema, porque você tem questões relacionadas à vigilância, ao uso de dados pessoais, mas são dados subjetivos, são dados que não demonstram a realidade. Quando você usa os dados de um BO, não são os dados da criminalidade da rua; o crime de colarinho-branco não vai aparecer aí, os grandes crimes financeiros não vão aparecer aí; e você vai direcionar a polícia, você vai direcionar tudo de um modo absolutamente enviesado, com hipervigilância em alguns bairros marginalizados, entre outros. Então, usar a IA, achar que a IA pode resolver problemas de questão na área criminal, na área penal não é adequado. A gente precisa entender isto: primeiro, a questão da proteção dados e privacidade.
Eu acho muito difícil, no futuro... Olhando isso, a gente hoje nem sabe que está tendo dados coletados por IA ou que está usando IA; a gente é obrigado a usar IA sem saber. Eu estava usando o meu computador lá no meu departamento lá no palácio e, de repente, falou-se: "O Copilot está inserido no seu Windows" e tal, na minha licença, e me joga para usar IA. Eu não optei por usar IA, não queria usar IA, mas aí entrou no meu uso, está copiando tudo que eu faço, inclusive reuniões eles printam, eles conseguem todas as reuniões que eu faço. Eu estou falando de a gente ter um órgão da Presidência da República na Microsoft. Ela sabe categorizar aquilo que é feito em reunião, tudo que eu escrevo, tudo que eu faço. E aí que privacidade nós temos? E aí também é uma questão de soberania.
Ao mesmo tempo, quando no WhatsApp eu quero pesquisar uma mensagem...
(Soa a campainha.)
A SRA. ESTELA ARANHA - ... o que me aparece? Obrigam-me a usar Meta AI. Quando eu faço uma pesquisa no Google, eu já nem sei mais onde eu estou usando IA nem para que os dados estão sendo usados. Então, a gente não tem nem opção de escolher, isso nos é imposto.
R
O colega falou sobre a questão ambiental: eu vou fazer uma busca com IA e fazer uma busca normal, eu uso dez vezes mais energia. Então, eu não quero fazer uma busca de AI; eu quero fazer no Google normal, como eu fazia, só que não, a empresa obriga, aquilo que colocou, eu não consigo buscar uma mensagem aqui que não seja cunhar no meu telefone, eu estou gastando dez vezes mais energia.
Então, a gente cada dia está menos sem opção, como cidadão, como consumidor e como Estado também, não é? Porque eu falei da Microsoft; bem ou mal, eu sou uma funcionária do estado, trabalhando em funções estratégicas do Estado brasileiro.
Então, isso é muito preocupante, e acho que, enfim, temos que pensar também nessa questão de proteção de dados pessoais e também na questão de soberania. (Palmas.)
O SR. PRESIDENTE (Paulo Paim. Bloco Parlamentar da Resistência Democrática/PT - RS) - Muito bem! Parabéns, Dra. Estela Aranha, Assessora Especial da Assessoria Especial da Presidência da República, membro do Órgão Consultivo de Alto Nível sobre Inteligência Artificial da ONU.
Acho que fechamos bem com a bela fala dos três, e você agora falou em nome do trabalho que é feito na Presidência da República. Então, nós atingimos todos os objetivos da nossa reunião, e fica o compromisso que eu já assumi, de nós levarmos este debate para o Plenário, não é? Mas claro que será no ano que vem; agora nós temos duas semanas praticamente, e tem um monte de matéria para debater. Vamos trabalhar todos os dias no Plenário, mas vamos fazer este debate no Plenário, com a presença dos Senadores.
Assim, encerramos a nossa audiência pública de hoje, e eu entrarei, em seguida, numa outra, para discutir o orçamento e a Comissão de Direitos Humanos, mas quero registrar a presença aqui de uma série de companheiros. Alguns estão aqui, no corredor ainda, foram visitar outros Senadores. Estão participando da 1ª Marcha PCD e Raros, está certo? "Nada sobre nós sem nós", Dia Internacional de Luta da Pessoa com Deficiência.
Está encerrada esta reunião. Já vou iniciar a outra, mas vamos tirar uma foto aqui nesse período.
(Iniciada às 9 horas, a reunião é encerrada às 11 horas e 50 minutos.)