05/06/2023 - 2ª - Conselho de Comunicação Social

Horário

Texto com revisão

R
O SR. PRESIDENTE (Miguel Matos) - Havendo número legal, nos termos do art. 6º da Lei 8.389, de 1991, declaro aberta a 2ª Reunião, Ordinária, de 2023, do Conselho de Comunicação Social do Congresso Nacional, que, conforme pauta enviada anteriormente, destina-se, na primeira parte, na parte da manhã, à audiência pública sobre o marco legal da inteligência. Na segunda parte, nós teremos a leitura do Expediente, a Ordem do Dia, o relatório de andamento das comissões temáticas, comunicações dos Conselheiros e a participação da sociedade civil.
Bom, dando início à audiência pública sobre o marco legal da inteligência artificial, na cerimônia de posse desta composição do Conselho de Comunicação Social do Congresso Nacional, o Exmo. Sr. Presidente do Congresso Nacional, Senador Rodrigo Pacheco, destacou alguns temas a serem discutidos neste Colegiado, incluindo o estabelecimento de um marco legal sobre o uso da inteligência artificial no Brasil.
Registre-se que o Senado Federal instituiu, em 2022, uma Comissão de Juristas responsável por subsidiar a elaboração de substitutivo sobre inteligência artificial. O trabalho dessa Comissão resultou no Projeto de Lei 2.338/2023, apresentado pelo Presidente Rodrigo Pacheco no mesmo dia da posse do Conselho de Comunicação Social. Assim, nós deliberamos que o início dos trabalhos desta composição seria marcado pela realização de uma audiência pública sobre o tema, que certamente não esgotará as discussões do Conselho, mas servirá como base para futuros debates.
R
Nesse sentido, já compõe a mesa - e eu os agradeço - S. Exa. o Sr. Ministro Ricardo Villas Bôas Cueva, Presidente da Comissão de Juristas responsável por subsidiar a elaboração de substitutivo sobre inteligência artificial; o Dr. Walter Carnielli, Matemático, Filósofo e Professor Titular de Lógica da Universidade Estadual de Campinas (Unicamp); a Dra. Dora Kaufman, Professora do Programa Tecnologias da Inteligência e Design Digital da Faculdade de Ciências e Tecnologia da Pontifícia Universidade Católica de São Paulo; o Dr. Juliano Carvalho, Professor do Departamento de Comunicação Social da Unesp. Registro também a presença do Prof. Mamede Lima-Marques, titular da Universidade de Brasília. Além desses nomes, também teremos, como expositora, a Dra. Laura Schertel, Relatora da Comissão de Juristas responsável por subsidiar a elaboração de substitutivo sobre inteligência artificial, que se encontra na Alemanha e participará remotamente. Nós marcamos muito cedo para ela, agora eu estou pensando aqui...
Cada expositor terá 15 minutos para a sua fala inicial, nos termos do art. 4º, §5º, inciso II, do Regimento Interno do Conselho de Comunicação Social do Congresso Nacional. Após o encerramento das exposições, a palavra será concedida aos Conselheiros por ordem de inscrição.
Informo que esta audiência será realizada em caráter interativo, com a possibilidade de participação popular. Para isso, as pessoas que tenham interesse em participar com comentários e perguntas podem fazê-lo por meio do Portal e-Cidadania, www.senado.leg/ecidadania, e do Alô Senado, pelo telefone 0800 0612211.
Feitos os devidos esclarecimentos, vamos dar início às exposições.
Com a palavra, por 15 minutos, S. Exa. o Sr. Ministro Ricardo Villas Bôas Cueva, Presidente da Comissão de Juristas responsável por subsidiar a elaboração do substitutivo sobre inteligência artificial.
Ministro, com a palavra o senhor. Eu li o projeto de lei e achei absolutamente interessante a forma como foram colocadas todas as descriminações, todas as denominações. É um verdadeiro guia para o tema, que, certamente, ainda vai ter uma discussão no Congresso Nacional, que vai enriquecer ainda mais o trabalho de V. Exa.
O SR. RICARDO VILLAS BÔAS CUEVA (Para expor.) - Bom dia a todos.
Eu saúdo, inicialmente, o Presidente do Conselho, Dr. Miguel Matos, meu amigo; a Dra. Patrícia Blanco, Vice-Presidente do Conselho de Comunicação Social do Congresso Nacional. É uma alegria e uma honra poder participar da primeira audiência pública que o Conselho realiza, sobretudo em se tratando de um tema tão momentoso como esse da regulação da inteligência artificial.
De fato, em abril do ano passado, foi constituída a Comissão de Juristas do Senado Federal para cuidar de uma análise dos projetos de lei aprovados pela Câmara, no ano de 2020, que procuravam disciplinar, em caráter geral, a inteligência artificial no Brasil. A Comissão teve participação de 18 especialistas, 18 juristas, que se preocuparam em colher, em várias audiências públicas e seminários internacionais, todas as informações relevantes sobre o tema. Se no início havia um certo ceticismo quanto à possibilidade, à própria ideia de regular, em caráter geral, com a inteligência artificial, já que sempre se dizia que não se sabia sequer qual o contorno exato, qual o objeto, qual a profundidade, o impacto da inteligência artificial sobre as atividades sociais, econômicas, e sobre o mundo em geral, esse ceticismo desapareceu há poucos meses, quando, no final do ano passado, foi lançado, com grande estrondo, o ChatGPT e os sistemas de inteligência artificial generativa, baseados em modelos grandes de análise da linguagem. Isso tudo levou à criação de vários manifestos, pedindo a moratória da inteligência artificial, e até mesmo um clamor inédito pela regulação da inteligência artificial no mundo inteiro, daí porque é muito relevante, e eu agradeço a oportunidade de, mais uma vez, falar um pouco sobre o trabalho da Comissão de Juristas.
R
O trabalho da Comissão de Juristas, como todos sabem, está disponível no site do Senado Federal, um relatório de mais de 900 páginas. E o projeto que originalmente era destinado a ser um substitutivo aos projetos de lei da Câmara se tornou um projeto de lei do Senado Federal, de autoria do Presidente Rodrigo Pacheco, é o PL 2.338. Esse projeto de lei, como todos encontrarão, tem por objetivo ou vários objetivos criar algumas definições sobre o que seja e qual é o escopo da inteligência artificial; ele também define alguns princípios éticos e de responsabilidade na utilização da tecnologia, em linha com o que já se faz no mundo quanto a isso; também define a necessidade de que os algoritmos tenham transparência e sejam explicáveis; procura assegurar a proteção de dados e privacidade dos indivíduos; procura também assegurar direitos e garantias dos cidadãos afetados pela inteligência artificial; e procura combater vieses algorítmicos e implementar medidas para evitar discriminação e, obviamente, deixará aos setores diretamente afetados pela inteligência artificial a criação de uma regulação específica e setorial.
A ideia que presidiu o trabalho da Comissão de Juristas, na verdade, é a criação de um marco legal com duplo objetivo: de um lado, criar direitos para proteção do elo mais vulnerável de todas as pessoas afetadas pela inteligência artificial, que já existe, já tem um impacto e já é usado no nosso dia a dia, seja para o reconhecimento facial, seja para a análise do risco de crédito, seja para a concessão de um empréstimo, de um seguro, ou mesmo para a análise de currículos por grandes empresas. Isso tem sido usado cotidianamente e com impactos adversos. Então, um dos grandes eixos do trabalho foi procurar definir, em linha com a nossa tradição jurídica do Marco Civil da Internet, do Código de Defesa do Consumidor, alguns direitos, um rol básico de direitos de todas as pessoas naturais afetadas pelo uso da inteligência artificial.
R
O segundo eixo do substitutivo, agora projeto de lei, consiste em, com base no modelo europeu de regulação geral da inteligência artificial, definir alguns riscos, classificar esses riscos e, com base neles, impor deveres de conduta para os operadores da inteligência artificial. Alguns riscos são considerados inaceitáveis, como, por exemplo, o uso da inteligência artificial para criar um tipo de social scoring ou de créditos sociais ou de hierarquização social com base em crenças ou características pessoais que impeçam o acesso dos cidadãos a serviços públicos ou a direitos básicos.
Há atividades de alto risco que merecem uma regulação especial. Por exemplo, a atividade relacionada ao sistema de Justiça, o uso de inteligência artificial no sistema de Justiça é considerado de alto risco e merece, portanto, uma disciplina especial, assim como também o uso de inteligência artificial em câmeras de reconhecimento facial. Essa discussão na Europa tem sido uma discussão já bastante alongada no tempo, ainda não foi definitivamente implementada, mas está em vias de ser aprovada e implementada na Europa e foi considerada pela Comissão a maneira mais adequada de lidar com a regulação de uma ferramenta que ainda não se conhece completamente. Portanto, não se trata da regulação de um produto, de um serviço, de uma ferramenta que é, por definição, mutável e que evoluirá no tempo, mas sim, de definir alguns riscos que devem ser levados em consideração pelo legislador ou pelo regulador no momento em que for calibrar a aplicação dessas normas para cada um dos usos que a inteligência artificial já tem e terá. Isso, obviamente, é dinâmico e mudará no tempo de acordo com a evolução da própria tecnologia.
O terceiro eixo, que também é muito importante, é procurar criar ferramentas de governança, um arranjo institucional para fiscalizar e supervisionar, com condições de previsibilidade, o que poderá ser feito em relação à inteligência artificial. O projeto alude à possibilidade de o Poder Executivo definir uma autoridade do Poder Executivo que seja encarregada da governança em caráter geral da inteligência artificial e que possa aplicar também sanções àqueles que descumprirem suas regras básicas.
De todo modo, o que se procurou, sobretudo, foi garantir segurança jurídica para a inovação tecnológica e para o desenvolvimento econômico e tecnológico, sem, em nenhum momento, procurar cortar ou impedir ou dificultar o livre desenvolvimento da inteligência artificial, mas, ao mesmo tempo, garantir que isso ocorra em condições minimamente aceitáveis, para que se protejam direitos fundamentais, para que se proteja privacidade, para que se garanta proteção de dados; que os algoritmos tenham transparência, sejam explicáveis e auditáveis na medida do possível; e que sejam seguidos princípios éticos.
R
Uma das discussões mais complexas com as quais se deparou a Comissão foi a questão da responsabilidade civil dos operadores da inteligência artificial. Os projetos de lei apresentados pela Câmara tinham uma disciplina que procurava fugir à nossa tradição e fugir às regras já existentes no ordenamento quanto à responsabilidade civil, que, como se sabe, tem normas esparsas contidas tanto no Código Civil propriamente, quanto no Código de Defesa do Consumidor, como em leis esparsas. Era preciso garantir um mínimo de coerência, racionalidade e previsibilidade na aplicação dessas ferramentas, e a solução encontrada, então, foi procurar graduar a responsabilidade civil de acordo com os riscos.
O projeto em suma é sucinto. Ele não pretende, obviamente, conter todas as respostas para uma discussão tão complexa quanto a regulação da inteligência artificial, mas ele propõe, sem dúvida, que o debate no Congresso Nacional possa ser enriquecido com algumas das sugestões que ele traz.
Uma das grandes virtudes do trabalho da Comissão pareceu exatamente a compilação das sugestões apresentadas por especialistas, pela sociedade civil, por todos aqueles que quiseram se manifestar, e sem dúvida todas essas contribuições refletem o que hoje se pensa e se diz sobre a inteligência artificial em caráter mais inovador.
Sempre se dizia, antes do advento, com tanta força, da inteligência artificial generativa, que era um risco muito grande regularmos uma atividade inexistente. A resposta para isso se encontra talvez no desenvolvimento da indústria aeronáutica. Os aviões começaram como aviões de madeira e tecido, acabaram mudando para madeira, depois para o alumínio, depois a jato. E, ao longo desse tempo todo, a regulação foi sendo feita, e foi evoluindo, e foi se amoldando às novas tecnologias e às necessidades para garantir segurança para os usuários daquela nova tecnologia. Do mesmo modo, com a inteligência artificial, nós temos que, já de antemão, prevenir alguns dos riscos mais sérios que ela implica já hoje no nosso cotidiano, evitar os impactos mais nocivos e procurar, na medida do possível, criar um arcabouço regulatório que responda aos desafios inéditos desses novos modelos de inteligência artificial.
O projeto em si, embora, obviamente, não contenha todas as respostas possíveis aos dilemas, aos conflitos, aos desafios que a inteligência artificial hoje traz, é flexível e permite, sim, se adequar também a essa nova tecnologia, que hoje causa tanta perplexidade em todos e tem levado, como até mesmo na semana passada, a um novo manifesto para uma moratória da inteligência artificial.
Essa, então, é a minha fala. Eu agradeço muito pela oportunidade de estar aqui representando a Comissão de Juristas do Senado Federal e procurando expor um pouco do trabalho que foi feito ali ao longo de oito meses. Ele se encontra disponível, como já dito, no site do Senado Federal. Espero que seja uma contribuição importante para o debate que se travará neste Conselho e no Congresso Nacional de modo geral.
Muito obrigado a todos pela atenção.
O SR. PRESIDENTE (Miguel Matos) - Muito obrigado, Ministro. De fato, o tema é extremamente palpitante.
R
Na década passada ou há uns 20 anos, nós resolvemos não estabelecer esses regramentos para a internet, e hoje a gente está vendo que talvez a gente tenha errado um pouco. O tempo tem mostrado que a gente precisava ter algum regramento.
Nós estamos, de alguma maneira, nos antecipando e estabelecendo certas balizas. O projeto acaba que estabelece várias balizas - cria denominações, categoriza riscos, estabelece penas, altas até, eu achei -, mas, enfim... Depois, houve um cotejo com outros países, em como os outros países estão andando, de forma que não é só uma coisa do Brasil. E ficou muito bom.
Agradeço ao senhor por ter aceitado o nosso convite para falar aqui.
Eu até vou pedir desculpas ao Ministro. Na nossa brevidade nossa aqui, não o apresentamos direito.
O Ministro Cueva é Ministro do STJ (Superior Tribunal de Justiça). Formado no Largo São Francisco, tem mestrado e doutorado em Harvard e na Alemanha e é um grande estudioso do tema.
Não menos importante, passo rapidamente, então, a palavra à Dra. Laura Schertel, que está nos ouvindo da Alemanha, e agradeço a disponibilidade no horário, completamente fora do horário aí.
Concedo-lhe a palavra por 15 minutos, Dra. Laura.
A SRA. LAURA SCHERTEL (Para expor. Por videoconferência.) - Dr. Miguel, eu queria em primeiro lugar agradecer o ilustre convite.
Queria cumprimentar aqui todos os presentes e dizer que é uma honra poder participar desta audiência pública do Conselho de Comunicação Social do Senado.
Eu vou tentar não me repetir.
Quero dizer também que foi uma honra poder ter participado dessa Comissão de Juristas presidida pelo ilustre Ministro Ricardo Villas Bôas Cueva, que teve uma liderança incrível. E, de fato, não foi um trabalho fácil; foram mais de nove meses trabalhando com 16 especialistas e conversando com tantos outros especialistas, com a sociedade. Vejo aqui a Profa. Dora Kaufman, que nos acompanhou ao longo de tantas discussões, e tantos outros colegas, professores, que estiveram conosco nesse processo.
Então, de fato, eu acho que, com a propositura agora do projeto de lei pelo Presidente do Senado, como o senhor mesmo disse, a gente vai ter um momento importante de discussão e de amadurecimento da proposta, mas, certamente, concordo aqui com o Ministro, o nosso objetivo era colocar de pé um projeto robusto, que pudesse, eu diria, fazer valer toda a tradição que o Brasil já tem tido de regulação de tecnologia, se a gente pensar no marco civil da internet e na própria Lei Geral de Proteção de Dados. E eu acho que esse projeto de lei, certamente, é um excelente pontapé para que isso possa ser discutido democraticamente no Senado, depois na Câmara, para que a gente possa discutir e regular esse tema, que é tão complexo, mas também tão urgente, não é?
Talvez como em nenhum outro tema, a gente percebe isso no uso do nosso dia a dia. Qualquer um que faça uma busca pelo ChatGPT ou usando outras ferramentas de inteligência artificial, muito rapidamente pode perceber os benefícios, por um lado: hoje a gente consegue traduzir textos que você talvez demoraria meses com um tradutor, e hoje você traduz em segundos; da mesma forma que tarefas que às vezes também demorariam bastante tempo para serem feitas, outras, você também consegue fazer de uma forma razoavelmente rápida.
R
Mas eu diria que, da mesma forma que a gente consegue perceber esses benefícios, talvez essa proximidade e a velocidade com a qual esses sistemas têm se desenvolvido, a gente também consegue perceber de uma forma muito rápida as suas falhas. E qualquer um talvez também que já tenha tentado fazer pesquisas, por exemplo, de referências bibliográficas no ChatGPT, vai perceber que há referências completamente inventadas, há fatos que não existiram. Basta perguntar quem é o Presidente do Brasil e todos verão que a resposta não é o atual Presidente do país. Então, é muito fácil a gente perceber que, às vezes, a gente usa essas tecnologias de uma forma diferente, ou a gente tem uma expectativa diferente do que elas de fato conseguem nos entregar. E essa é a razão pela qual é tão importante, como o Ministro Cueva aqui já colocou, a regulação desses sistemas.
A gente está falando nada mais, nada menos do que... E aqui eu acho que já queria começar também talvez com uma frase muito simples, dizendo que, às vezes, quando a gente pensa em sistema de inteligência artificial, a gente pensa em sistemas, em robôs, tem toda aquela discussão: será que os robôs vão dominar a humanidade? Quais são os riscos? E a verdade é que, a despeito dessas discussões, a gente está falando de riscos muito reais, como de erros. Há situações de sistemas de IA generativa, há casos em que se inventaram denúncias de abuso sexual, há denúncias de assédio sexual completamente inventadas e há pessoas que estão sendo perseguidas com base, digamos, nessas invenções. Ou seja, a gente está falando aqui, sem querer desprezar toda essa reflexão filosófica/um pouco de ficção científica, de riscos muito reais, de erros, de discriminações, simplesmente de os sistemas não funcionarem como a gente espera que eles funcionem. E é por isso que a regulação hoje se impõe.
Como o Ministro falou, no ano passado parecia que ainda estava em discussão se deveria ser regulado e hoje parece que, talvez por causa desses efeitos, pelos efeitos serem tão palpáveis, eu acho que ficou claro que daria quase para dizer que há um consenso, em diversos países, eu diria também mundo afora, de que é preciso uma regulação. Talvez a discussão seja qual é a regulação, como se deve regular.
E aqui eu também queria, então, passar rapidamente... Eu vou seguir o meu tempo e vou tentar passar alguns eslaides bem rapidamente para mostrar também como a gente estruturou, na linha do que o Ministro já apresentou, esse projeto.
Eu posso compartilhar minha tela? (Pausa.)
Perfeito. Eu vou...
Será que alguém poderia me autorizar a compartilhar? Se não der, não tem problema, eu posso fazer a apresentação...
O SR. PRESIDENTE (Miguel Matos) - Acho que ele vai autorizar, só um minuto.
A SRA. LAURA SCHERTEL (Por videoconferência.) - Está bem. Muito obrigada. (Pausa.)
O SR. PRESIDENTE (Miguel Matos) - Vamos consultar a inteligência artificial para ver se é possível. (Risos.)
A SRA. LAURA SCHERTEL (Por videoconferência.) - Agora já vai dar certo? Ah, já vai dar certo. Já vou...
Então, vou tentar fazer uma apresentação bem rápida.
Vocês conseguem enxergar?
O SR. PRESIDENTE (Miguel Matos) - Perfeitamente.
A SRA. LAURA SCHERTEL (Por videoconferência.) - Perfeito.
Bom. Então, aqui muito rapidamente eu trouxe uma provocação, porque me parece que... Eu queria elogiar aqui a iniciativa do Conselho de fazer essa discussão sobre IA, porque certamente, esse tema é relevante para muitas áreas, se a gente for pensar em todas as áreas em que se busca redução de risco, como áreas de seguro, em todas as áreas que tratam da relação com o consumidor, áreas de seguro, área financeira, onde a gente tem o credit scoring, se a gente for pensar na educação, são tantas áreas em que essas ferramentas podem trazer, sim, muitos benefícios e também riscos.
R
Certamente, quando a gente fala da comunicação social, o emprego dessas ferramentas, eu diria que os impactos do emprego da IA também já são visíveis e não são desprezíveis. A gente está falando nada mais nada menos do que da nossa esfera pública ou, como muitos autores também falam, das esferas públicas digitais. E quando a gente fala das esferas públicas digitais, que estão amparadas hoje em uma infraestrutura digital, ou seja, em plataformas, em redes sociais, essas infraestruturas funcionam basicamente por meio de algoritmos e por meio de sistemas de IA, e são esses sistemas que recomendam, os famosos sistemas de recomendação, aquilo que nós vamos ver, com base nos dados pessoais não apenas nossos, mas com base nos dados pessoais de toda aquela comunidade, de uma grande parte da população.
É por isso que hoje eu diria que se a IA está sendo... Hoje se tem estudado muito e há uma grande preocupação sobre os impactos da inteligência artificial em muitas áreas, certamente uma das áreas que mais merece uma atenção dos legisladores, merece uma atenção do Estado e da sociedade como um todo é a área da comunicação social, porque essa é uma das áreas talvez em que a transformação seja mais visível. Basta pensarmos: se a gente dependia, antes da nossa comunicação, de milhares e milhares de jornais ao redor do mundo, de milhares e dezenas e centenas talvez de editoras, hoje a nossa comunicação passa por algumas plataformas, no mundo inteiro. E são essas plataformas que vão decidir, que servem como gatekeepers, que vão decidir, por meio de seus algoritmos, por meio de sistemas de inteligência artificial, quem verá o quê, qual conteúdo merece ser viralizado, qual conteúdo merece uma maior distribuição e qual conteúdo sequer mereceria esse tipo de distribuição.
Isso significa que, quando a gente fala de esferas públicas digitalizadas, a gente está falando de um pressuposto muito claro para a nossa democracia, de um pressuposto muito fundamental para a nossa democracia. Então, é por isso que eu gostaria de saudar essa discussão, esta audiência pública e a reflexão que o Conselho poderá fazer, com todas essas discussões.
Sem mais delongas, eu vou passar bem rapidamente... Aqui talvez... Vou falar muito rapidamente dessa definição. Essa citação é em inglês, de uma estudiosa muito interessante, sobre IA, que ela diz o seguinte: a inteligência artificial, a gente precisa ter a consciência de que ela não é nem inteligente nem exatamente artificial, porque ela está hoje incrustada e depende de material, depende de fontes naturais, depende de trabalho humano, depende de uma infraestrutura, depende de histórias e depende de classificação.
R
Eu gosto muito dessa definição, inclusive aliada aqui a uma outra definição muito interessante do Prof. Solon Barocas com outros coautores, quando eles falam do que é o sistema que a gente mais utiliza hoje, que é o sistema de aprendizado por meio machine learning, o aprendizado de máquinas. E esse sistema nada mais é do que um aprendizado por meio de exemplos. E, quando a gente observa quais são os requisitos para que esse aprendizado, para que os resultados desses sistemas sejam corretos, sejam justos, sejam não discriminatórios, esses requisitos são muito, muito altos. A gente precisa ter uma base de dados representativa; essa base de dados não pode conter muitos erros; e ela precisa ser, digamos, representativa da população como um todo. E o que eles dizem é que é por isso que, quando a gente fala de um aprendizado por meio de exemplos ou de um aprendizado com base em evidências, isso não assegura ou isso não garante que o resultado será correto, confiável e que isso trará decisões justas; ao contrário, a gente precisa garantir que os exemplos com os quais a gente vai alimentar os sistemas sejam representativos, sejam corretos e sejam não discriminatórios.
E, talvez, com esse exemplo...
Eu posso passar um pouco mais rapidamente aqui - peço até desculpas aqui - para não passar do tempo.
Esses exemplos e esses requisitos... Quando a gente pensa quais são os requisitos que esses dados têm que cumprir, quais são os requisitos desses inputs para que o nosso output, para que o nosso resultado seja correto, não discriminatório, é que a gente pode perceber que é preciso regular - é preciso regular como esses sistemas funcionarão; é preciso regular com que dados esses sistemas serão alimentados; é preciso regular sobre representatividade de dados, sobre a pluralidade, sobre a não discriminação, sobre a possibilidade de... Especialmente quando a gente pensa aqui nos impactos sobre os nossos direitos fundamentais que podem surgir a partir de IA, é preciso regular um mínimo de devido processo legal para que haja uma intervenção humana quando os sistemas falharem, porque os sistemas falham. Todo sistema, por definição, pode falhar. E, se ele falha, nessas circunstâncias de falha, eu preciso garantir a intervenção humana, eu preciso garantir uma supervisão humana efetiva, eu preciso garantir a possibilidade de o ser humano, o indivíduo ou a pessoa afetada, recorrer desses resultados.
Então, com base nisso, eu diria que talvez essas sejam as linhas gerais e talvez a explicação geral pela qual nós precisamos de uma regulação geral.
Então, como o Ministro já comentou, nós fizemos 11 reuniões públicas; ouvimos mais de 60 especialistas; a Comissão recebeu mais de cem contribuições escritas; e todo esse material também está disponível no site do Senado. E nós recebemos contribuições muito interessantes, eu diria, muito com base na ideia de que - talvez destacando aqui o terceiro elemento aqui desse eslaide - uma sociedade tão estruturalmente desigual como a brasileira precisa dar uma atenção especial ao potencial discriminatório dos sistemas de IA. É por isso que nós, então, colocamos um direito à não discriminação, colocamos vários mecanismos de correção de vieses. E trouxemos, inclusive, alguns conceitos que não estavam ainda totalmente, eu diria, inseridos no nosso ordenamento, como a discriminação direta e a discriminação indireta.
R
Além disso, houve um pleito muito grande da sociedade civil e de muitos especialistas no sentido de que o projeto teria que ser um pouco mais específico para que ele pudesse, de fato, orientar fornecedores, provedores e usuários; ou seja, há uma necessidade de normas mais concretas e não apenas de princípios. Esses são importantes, eles estão no projeto, mas a gente também precisa de regras mais concretas.
Na estrutura do projeto de lei, a gente tem cinco grandes eixos: princípios, direitos, categorização de risco, medidas de governança, supervisão e responsabilização.
Eu queria encerrar dizendo que - vou chegar já no último eslaide - existe um valor muito importante em uma regulação horizontal, porque nós precisamos enxergar o ciclo todo da inteligência artificial e não apenas alguns estágios, não apenas, por exemplo, a coleta de dados, não apenas a decisão automatizada, como hoje é regulada pela LGPD, mas é importante regular o ciclo inteiro, desde o modelo de treinamento até mesmo a aplicação desse modelo. E é a isso que o projeto de lei visa e tem o objetivo de trazer.
É fundamental ter uma coordenação central junto com essa regulamentação geral, porque nós sabemos que, sem um enforcement, sem uma estrutura, uma arquitetura que possa aplicar essa lei, ela não será, digamos, efetiva.
Com isso, eu queria dizer, então, terminando, que, por mais complexo que o tema seja, hoje está muito claro que nós precisamos também, por um lado, acertar a mão, porque é um tema muito delicado. Então, a gente precisa atingir um equilíbrio muito delicado, que é o que a gente tentou fazer certamente na Comissão, como o Ministro Cueva já comentou, mas a gente também precisa ser rápido, porque, como os senhores podem perceber, já são sistemas que estão sendo utilizados não só na área da comunicação social, de que eu comecei tratando, mas também em todas as outras áreas.
Então, com isso, eu me coloco aqui depois à disposição para perguntas e agradeço imensamente o convite feito por este Conselho.
Muito obrigada.
O SR. PRESIDENTE (Miguel Matos) - Muito obrigado, Dra. Laura.
Eu estava fazendo aqui um comentário com o Ministro Cueva no sentido de que o projeto tem um dado curioso: em algum momento, o projeto de lei diz que você pode solicitar a participação de um humano para poder resolver um problema. É curioso isso, mas é absolutamente real.
Concedo a palavra, então, por 15 minutos, ao Dr. Walter Carnielli, matemático, filósofo e professor da Unicamp, titular de Lógica da Unicamp.
O SR. WALTER CARNIELLI (Para expor.) - Quero começar agradecendo a S. Exas. o Ministro Rodrigo Pacheco e o Ministro Miguel Matos, pelo convite para participar desta Comissão. É uma satisfação poder contribuir com o ponto de vista da academia, digamos assim, com esse debate sobre o marco legal da inteligência artificial.
Quero cumprimentar os demais colegas, juristas, professores e membros da Comissão.
Eu queria começar deixando claros três pontos. Eu vou trazer aqui uma perspectiva que pode parecer um pouco cética, mas é um ceticismo crítico que eu acho que deve ser levado em conta.
Começo esclarecendo três pontos basilares: o primeiro é que a inteligência artificial, embora realmente não tenha tanto de inteligência, é um tsunami. O que está acontecendo é um tsunami, ainda que o conteúdo de inteligência não seja muito, e esse tsunami se explica pelo fato de ser uma grande ferramenta para tratar a linguagem. E a linguagem é um esteio da racionalidade. O outro é a lógica, a matemática, a probabilidade, etc., mas grande, grande parte do que nós humanos fazemos - indústria, área jurídica, área legal, contratos, jornalismo, mídia - é baseado na linguagem. Então, se eu tenho uma enorme ferramenta, um monstro que trata da linguagem, ele está provocando um tsunami e podemos esperar coisas mais interessantes, mais complexas aparecendo, ainda que o conteúdo da inteligência não seja muito grande.
R
O segundo ponto é deixar bem claro que a ideia de regulamentar a inteligência artificial é absolutamente óbvia, necessária, clara. Então, o que o Brasil está fazendo é louvável, o que a Comissão de Juristas fez. O relatório é de exatamente, Dr. Cueva, 909 páginas. Precisaria de mais ou menos 18 GPT-4 trabalhando simultaneamente, se nós conseguíssemos, para analisar aquilo. Então, já não cabe. Precisamos de humanos aí, não é? Então, o que está sendo feito é muito inteligente, o projeto é ótimo, a Comissão de Juristas produziu um documento extraordinário. Mesmo assim, cabe sempre uma perspectiva crítica, no melhor dos sentidos, não é?
E o terceiro ponto a levantar é que tem várias coisas acontecendo nos aspectos sociais e econômicos que eu gostaria de, ligeira e rapidamente, deixar claro.
O próximo, por gentileza. O próximo eslaide, Ricardo.
Bem, do que vamos falar? Rapidamente, o que é inteligência artificial; muito rapidamente, o que é o ChatGPT, o que são os modelos grandes de linguagem; já chegamos à verdadeira inteligência geral? - a inteligência artificial geral seria aquela superinteligência que trataria de tudo: da lógica, da linguagem, das probabilidades, da matemática, da literatura, do cinema, da arte e tal; não chegamos a isso, mas eu vou deixar claro -; riscos sociais e econômicos; um aspecto importante para ser levado em conta é o poder das big techs, o enorme poder que elas têm; as dificuldades em se conceituar a inteligência artificial; e as consequências para a sociedade, rapidamente.
O próximo.
Eu não vou falar disso em detalhe, mas existem três grandes correntes na inteligência artificial: a inteligência artificial simbólica, que é mais aplicação da lógica, baseada em conhecimento e lógica, que não é esta que nós estamos vendo agora; a conectivista, baseada em redes neurais, que é o que nós estamos vendo; e o terceiro ponto é a inteligência artificial evolutiva, baseada em algoritmos genéticos, que nós ainda não estamos vendo na prática - na prática -, mas que poderá aparecer. Então, tem várias fontes - eu só coloquei as três principais aqui - que tornam impossível prever, nos próximos cinco anos, o que vai acontecer, sem falar, por exemplo, numa ideia de ficção científica que está me ocorrendo. Que tal a inteligência artificial quântica? Os computadores quânticos estão aparecendo e logo não vai ser mais baseado em probabilidades e coisa desse tipo, mas talvez na Teoria Quântica de Campos. Por que não, não é?
Próximo.
Bom, o que faz esse Generative Pre-trained Transformer (GPT)? Ele transforma basicamente tudo. Para quem ainda não tem uma ideia clara, talvez, muitos de nós já temos, ele transforma tudo em linguagem, ele completa textos baseados em bilhões de dados e treinamento. Por exemplo, eu vou dar um exemplo aqui que é didático, que eu já dei em algum lugar e funcionou. Temos uma frase assim: "Numa manhã de 'x', crianças vão ao 'y' para andar de 'z'". Qualquer ser humano consegue completar essa frase de maneira coerente, mas o GPT poderia perfeitamente, digamos assim, gramaticalmente e conceitualmente completar assim: "Numa manhã de tempestade, crianças vão ao aeroporto para andar de tanque de guerra". E todo mundo ia rir disso, embora não seja nem impossível, nem errado. Mas o que está por trás? A ideia da probabilidade. Ele avalia as probabilidades condicionais e vê que esse tipo de resposta possível estaria em último lugar. O que estaria em primeiro lugar? Talvez alguma coisa como: "Numa manhã de primavera, crianças vão ao parque para andar de bicicleta", digamos. É isso que ele faz. Próximo.
R
Então, é um modelo de linguagem de grande escala; é capaz de compreender a linguagem natural em vários idiomas, gera respostas que parecem humanas. O GPT sequer sabe que você está atrás da tela ou que você existe, ou que ele existe. Ele não sabe nada, absolutamente. A ideia de saber, de conhecimento, como na filosofia se coloca, não se aplica a ele aqui. É um grande "copia e cola" com gramática correta. Bom, mas isso é mau? Isso não é mau.
Próximo.
Isso não é mau porque, na verdade, a linguagem, como eu estou dizendo, é uma enorme parte do nosso dia a dia, do nosso uso. Então, se temos uma enorme ferramenta que trabalha com a linguagem, ainda que ela não seja lógica... Ele não é lógica. Olha, isso é interessante: se você der brincadeiras lógicas para ele fazer, ou ele copia de algum lugar, ou ele não resolve. É diferente de outras tecnologias de inteligência artificial simbólica, como o Prolog ou coisa desse tipo, que conseguem deduzir coisas altamente complexas, até demonstrar teoremas matemáticos altissimamente complexos, mas tão complexos que uma equipe de humanos leva dez anos, como aconteceu - eu não vou dar detalhes, tenho até um artigo sobre isso -, leva dez anos e não consegue melhorar a máquina. Então, há nichos fabulosamente complexos em que tem inteligência de certa maneira. Aqui, não temos tanto.
Como é a matemática do GPT? Basicamente - eu nem vou ler o eslaide inteiro, porque eu quero me ater ao tempo - ela usa álgebra linear, cálculo e estatística. Usa uma matemática simples que, basicamente, um bom aluno de engenharia de uma boa escola, no 2º ano, já consegue dominar. Não há coisas muito complexas. Há uma inteligência muito boa dos programadores, que aproveitaram tudo isso para fazer uma ferramenta fantástica. Isso eles conseguiram. Mas o que está por trás é simples e não é sequer lógica. Veja bem, é bem interessante a gente ver isso. Álgebra linear, cálculo e estatística, probabilidades condicionais, o que, então, vai levar a um ponto que daqui a pouco eu vou anotar.
Bom, como pode ser usado o GPT?
O próximo, por gentileza. Isso.
Basicamente, eu vou resumir o meu eslaide aqui. Já temos o GPT-4, que é dez vezes mais poderoso. Eu já comecei a usar, aqui muitos de vocês já começaram a usar também. Melhora, mas ainda não consegue resolver tudo, ainda alucina, etc., e tem vários problemas aí - é, tem casos de alucinação, vou até contar um caso. E o que ele faz, basicamente? Por que é que ele programa bem, por exemplo? É um bom programador em linguagens de computação, como Python ou outra desse tipo, ou até em Prolog, coisa assim, e várias desse tipo, técnicas que eu não vou dizer. Por que é que ele consegue fazer isso? Pela grande inteligência? Não.
R
É porque ele transforma tudo em linguagem e a linguagem toda em probabilidade, então, é probabilidade e linguagem. Em tudo o que depender de probabilidade e linguagem - que é uma grande parte do que nós fazemos, uma enorme parte do que nós fazemos - ele consegue mexer. É por causa disso.
Próximo.
O que melhora no GPT-4? Muita propaganda, tem muita propaganda e tem vários outros modelos saindo, tem modelos menores, modelos que rodam em máquinas menores, modelos que não custam, de software aberto, etc. Há uma porção de coisas maravilhosas saindo por aí que eu nem sei colocar aqui para vocês, mas muitos dos meus colegas especialistas podem, talvez, ajudar.
O GPT-4 tem uma diferença interessante: ele não gera imagens, mas ele recebe imagens como entrada. E isso já modifica muito. Se ele recebe imagens como entrada, eu posso fotografar minha geladeira, botar para ele e perguntar o que eu posso cozinhar na próxima semana com o que tenho na geladeira. Ele vai fazer um cardápio para mim. Aí eu pergunto assim: "É um cardápio saudável?". Ele diz: "Ah, você quer saudável? Tudo bem, faremos saudável". Então, ele consegue ter imagens como entrada. O ponto de vista de misturar a linguagem escrita ou falada, gramatical, com imagens, melhora muito a capacidade dele. Ainda continua não sendo inteligência, mas continua se aproximando, num limite, cada vez mais.
Próximo.
Um exemplo interessante é que a inteligência artificial alucina e não sabe tabuada. Vocês podem fazer essa experiência. Eu fiz várias vezes e ele continua errando. Qualquer calculadora sabe que 75.257x98.729 dá sete milhões, quatrocentos e trinta mil e tantos. O GPT errou oito vezes essa conta e continua errando. O resultado que ele dá é outra coisa, é de 743 milhões... Completamente errado. Então, como é que eu vou usar uma coisa desse tipo para controlar o Orçamento da União, o meu Imposto de Renda, a contabilidade da minha empresa? Ele não sabe fazer contas. Tem IA de matemática? Muitas, maravilhosas, muitas e fabulosas. Não é este o caso. Então, não é o caso, acabou. Por isso aqui... Outra: eu perguntei a ele quantos livros o Pelé escreveu. Ele me deu uma lista de dez livros. (Risos.)
Nenhum deles existe. Alguns deles falam sobre o Pelé, nem sequer foram publicados. Alucina redondamente e em muitas mais coisas desse tipo.
Próximo, por favor.
Isso tudo é mesmo inteligência ou só é artificial? A Dra. Laura citou uma coisa: que não é nem inteligência nem artificial. Eu diria que ela poderia ser chamada de habilidade cognitiva digital. Eu vou ter a coragem, aqui, de lançar uma proposta, que pode ser rebatida, evidentemente: habilidades cognitivas artificiais. Vamos chamar isso de HCD, habilidades cognitivas artificiais, porque muitas vão surgir e todas elas se enquadram dentro da história do que poderiam chamar de inteligência ou de artificial.
O próximo.
Ela não é uma inteligência, eu diria que ela é apenas uma habilidade cognitiva digital. O que falta para ela hoje em dia? Falta a capacidade de generalização e de abstração. Ela não consegue abstrair, pegar poucos casos e fazer um passo indutivo, ela não tem dedução e consequência. Ela não sabe a consequência dos atos dela, ela não tem compreensão contextual. Ela não consegue entender piadas e coisas desse tipo. Ela não tem explicação. Basicamente, esse é um grandessíssimo problema. Ela não explica nada; ela fala sobre correlações, mas não sobre causa e efeito.
R
Falta a noção de causa e efeito, que é muito parecida com explicação. Não tem aprendizado autônomo, como já foi dito. Ela aprende por exemplos, por vários exemplos. E não tem interação física com o ambiente.
Isso seria uma grande...
Quando tivermos um robô ambulante, com um GPT-8 na cabeça, andando e sentindo as coisas, aí sim, começamos a melhorar as coisas.
O próximo, por favor.
Tem várias limitações. Não vou me deter aqui.
Riscos econômicos e políticos. Já foi falado muito disso. Acho que o relatório ressalta muito esse ponto.
Eu queria só...
Próximo, por favor
Mais um.
Tem o Midjourney. Não vou ter tempo para falar sobre isso.
Mais um.
Tem o DALL-E, em homenagem a Salvador Dalí...
(Soa a campainha.)
O SR. WALTER CARNIELLI - ... que coloca as imagens.
Mais um, por favor, porque este é engraçado.
Mais um.
Eu pedi para o GPT-4 fazer uma imagem dos Senadores brasileiros discutindo a inteligência artificial, ele fez isto daí em 32 segundos. (Risos.)
Eu não coloquei "acirradamente discutindo". Ele fez uma imagem até engraçada.
Vejam: o que significa essa brincadeira?
O próximo, por favor.
Significa o seguinte...
Mais um.
Significa que o poder generativo de fake news é enorme, na hora em que ele pode misturar imagens, textos. Eu fiz uma brincadeira, logicamente, em trinta e poucos segundos. Mas ele pode fazer imagens realistas, pode fazer deepfakes, as chamadas deepfakes, em que o Papa está com casaco de pele, coisas desse tipo. Então, um grande gerador.
Chamo a atenção para uma coisa que eu acho que podia se chamar "unipólio". O que seria isso? É mais do que um monopólio, por exemplo, o metaverso seria, na minha opinião, uma tentativa de "unipólio", e outras iniciativas virão, que pretendem fidelizar o usuário. Por exemplo, corremos o risco de que o seu carro seja um googlecar, o seu banco seja um googlebank; o seu plano de saúde, um googlehealth, etc. E vai ter o metabank, o metahealth, etc. E tudo fica dominado, todos os setores da economia. Muito mais do que um monopólio, eu chamaria de "unipólio". E podemos ficar dominados por tudo isso.
Esse é um risco que se tem, real, usando a inteligência artificial, misturado com as redes sociais.
Próximo.
Eu queria falar sobre a carta aberta do Instituto Future of Life.
Só lembro que, sobre as big techs, eu fiz uma conta das grandes big techs e do que elas faturaram em 2022. Próximo, por favor. E não é uma conta de economista. É uma conta feita na minha calculadora. Próximo. Mais um. O total dá US$1 trilhão, que é mais ou menos metade do PIB do Brasil.
Essas big techs, munidas dessa inteligência artificial, que não é nem inteligência, podem comprar uma ilha, fundar um país e entrar no Conselho de Segurança da ONU. Por que não?
Quer dizer, isso é um risco que o nosso projeto vai ajudar a mitigar. Claro que nós não vamos chegar lá. Mas está aí no horizonte essa possibilidade.
Então, as grandes dificuldades... Por exemplo, eu vi no projeto que a definição, no projeto de lei, no art. 2º, I, considera sistema de inteligência artificial utilizando abordagem baseada em aprendizagem de máquina e/ou lógica e representação de conhecimento. A minha observação é: só? Não é só isso.
R
Se eu colocar a inteligência artificial como fundamentada em lógica, representação de conhecimento e aprendizagem de máquina, eu deixo de levar em conta outras possibilidades, como eu falei, a possibilidade de uma inteligência artificial quântica, biológica ou sei lá o quê, ou bacilar, ou baseada em micro-organismos, ou sei lá o que seja. Então, é muito difícil realmente definir. E o projeto deveria tomar cuidado, na minha opinião, em deixar aberto, não definir, não definir mesmo; definir, talvez, pelas consequências - não é, doutor? Talvez, vocês concordem comigo.
E o que ela pode fazer? Por meio de dados etc., etc., pode ler a sua mente. Se misturarmos a inteligência artificial com as ciências cognitivas, ela lê a sua mente, baseada na sua capacidade neuronal. Onde vai ser isso? Talvez sem fio, talvez leia a sua mente sem fio.
Bem, eu queria terminar com o último eslaide, lembrando... Como eu disse, eu trago aqui uma perspectiva cética, lembrando o nosso grande filósofo Sexto Empírico, do século II d.C., que diz o seguinte: "Pode ser e pode não ser". Vamos levantar o juízo e trabalhar com cautela.
Muito obrigado. Era essa a mensagem que eu queria deixar a vocês, e fico à disposição para perguntas, discussões e debates. Seria uma satisfação.
Muitíssimo obrigado.
O SR. PRESIDENTE (Miguel Matos) - Agradeço ao Dr. Walter Carnielli e passo imediatamente a palavra à Dra. Dora Kaufman, Professora do Programa de Tecnologias da Inteligência e Design Digital, da Faculdade de Ciências e Tecnologia da PUC de São Paulo.
A SRA. DORA KAUFMAN (Para expor.) - Bom dia a todos!
Muitíssimo obrigada pelo convite. É uma honra estar aqui. Como disse gentilmente a Laura Schertel, eu venho acompanhando o processo de regulamentação, aqui no Brasil, desde o início, com o PL 21/2020. Eu quero saudar especialmente a Comissão de Juristas, na pessoa do Ministro Cueva e da Relatora. Acho que eles fizeram um trabalho muito importante para a nossa sociedade.
Eu quero fazer algumas considerações. Bom, primeiro, quanto ao ChatGPT. Eu acho que ele trouxe uma importância, além de várias outras, mas há o fato de que ele colocou na pauta a inteligência artificial, na pauta da sociedade, de uma forma que não estava anteriormente. E o ChatGPT também gerou uma série de... Uma série não, mas algumas manifestações, cartas, manifestos que tiveram grande repercussão, alertando sobre o risco de extinção da humanidade. Na minha opinião - e eu li todos esses documentos, todas as análises que foram feitas sobre esses documentos -, nós estamos ainda no plano da ficção científica. Eu acho que não tem nenhum indício concreto de que isso possa acontecer. Eu acho que os signatários, alguns muito importantes na comunidade de inteligência artificial, têm misturado os interesses, as motivações dos signatários. Então, eu acho que pensar no risco de extinção da humanidade tira o foco dos problemas reais que estão acontecendo e que são inúmeros, já com o uso da inteligência artificial, que não é novo. Já temos, pelo menos, uma década que a inteligência artificial está se disseminando na sociedade.
R
Hoje, de fato, a inteligência artificial está mediando a comunicação e a sociabilidade dos cidadãos do século XXI, com impactos, inclusive, sobre a democracia e sobre o meio ambiente. Então, regular a inteligência artificial, para mim, é mandatório, mas não é trivial. Trata-se de uma tecnologia de propósito geral.
E o que é uma tecnologia de propósito geral? É uma tecnologia que muda a lógica e o funcionamento da sociedade, da economia. Então, não é trivial, não é à toa, não é por coincidência que, no mundo ocidental, até agora, nós não tenhamos, apesar de essa década ter, como eu já disse no início, disseminado fortemente o uso, a adoção da inteligência artificial; até agora nós não tenhamos um marco regulatório. Temos, agora, a perspectiva, no dia 11 de junho, de o projeto da Comissão Europeia ser votado. Mesmo assim, vai demorar. A expectativa de quem está liderando o processo é de dois, três anos para entrar efetivamente em vigor.
Em qualquer ambiente democrático, nós já temos um desafio de partida: o processo de regulamentação tem que ser discutido, debatido com a sociedade. Em paralelo, o avanço da inteligência artificial está muito acelerado. Então, para quem acompanhou a primeira versão da proposta de regulamentação da Comissão Europeia, por exemplo, que saiu em 21 de abril de 2021, sabe que ela não contava com a característica, a natureza, por exemplo, das IAs negativas e, fundamentalmente, de uma solução como o ChatGPT. Nos primórdios, na primeira versão, a única coisa que ela mencionava sobre o chatbot é que o provedor deveria avisar para o usuário se ele estava interagindo com um chatbot ou com um ser humano. O ChatGPT modifica a relação com o que era o chatbot. Então, teve toda uma modificação e, em novembro do ano passado, já se tinha três mil emendas. Então, essa é a primeira coisa que eu queria pontuar.
Então, eu acho que o PL 2.338, de fato, é inspirado nessa proposta da Comissão Europeia, mas a inspiração é válida, inclusive porque é o projeto de regulamentação mais robusto que nós temos no mundo ocidental, e a tradição da Europa é regulatória, e o processo, que se iniciou desde 2018, teve inúmeras etapas. Agora, se, por um lado, foi inspirado na proposta da Comissão Europeia, o processo foi radicalmente distinto. E eu acho que é aí que tem o primeiro problema que eu gostaria de pontuar.
O PL 21/2020 entrou em tramitação em caráter de urgência, e eu acho que isso foi... Na época, eu já questionei várias vezes a Relatora, a Deputada Luisa, e, depois, o próprio Deputado Eduardo Bismarck, sobre a razão do caráter de urgência. Eu acho que isso precipitou sem necessidade. Para mim, isso dificultou e tornou frágil o processo de discussão da regulamentação no Brasil.
Quando a gente pensa... Eu não sou jurista, e me perdoem por entrar nessa seara, mas pensar sobre uma regulamentação, sobre uma norma, é pensar para que ela vem? Ela vem para resolver ou mitigar, ou regular mesmo, como o próprio nome diz, as questões que já estão acontecendo na sociedade. Então, distinto... Por exemplo, qual foi a primeira ação, só para a gente fazer um paralelo, da Comissão Europeia?
R
Ela criou, em 2018, um observatório. Então, ela fez um levantamento de como a inteligência artificial estava sendo usada na Europa, e nós não fizemos isso aqui no Brasil. Então, nós não temos, pelo que eu saiba, pelo que eu tenho acompanhado, o que se chama de um diagnóstico. Como que a inteligência artificial está sendo usada efetivamente no Brasil? Eu acho que esse levantamento, como qualquer trabalho que a gente faça em qualquer área de consultoria ou de desenvolvimento de um novo projeto, sempre todo mundo que tem experiência de coordenar, tocar projetos sabe que a primeira etapa é justamente o diagnóstico. Então, como que a inteligência artificial está sendo usada no Brasil? Quais são os danos reais que estão acontecendo? Eu acho que esse é o ponto de partida que faltou no processo aqui no Brasil e que eu acho fundamental. Eu gostaria muito que o Senado aproveitasse essa etapa para voltar um pouco atrás e fazer esse levantamento, estabelecer uma comissão que levante o que está acontecendo no Brasil.
Bom, deixem-me ver aqui as minhas anotações.
Então, eu acho que o Poder Público... A regulamentação é fundamental, é mandatória, como eu já disse, mas ela também não é trivial, como eu também já disse.
Então, o que eu sugeriria ao Senado? Que fizesse, primeiro, esse levantamento, criasse uma comissão que levantasse, porque, aí, nós vamos partir de alguma coisa real. Não é a abstração, não são as questões gerais do que está acontecendo em relação à inteligência artificial e também não é o que está sendo discutido no mundo, mas, de fato, o que está acontecendo no Brasil. Eu acho que isso vai dar um quadro muito importante.
Segundo, a minha sugestão é que o Senado traga para o debate as agências regulatórias setoriais. Do meu ponto de vista, é muito importante. Vamos pegar só um exemplo: o sistema bancário, no Brasil, tem usado intensamente a inteligência artificial há muitos anos. Então, cabe, por exemplo, ao Banco Central... Eu imagino que o Banco Central esteja acompanhando esse processo. Então, ao Banco Central, para mim, é obrigatório que participe dessa discussão de regulamentação. É só um exemplo de uma agência regulatória. Então, o Banco Central... Como que o mercado bancário, financeiro está usando a inteligência artificial? Quais são os riscos que são intrínsecos a esses sistemas que o sistema bancário está usando? E assim vão todas as agências: a Anvisa e todas as agências regulatórias. Eu acho que isso é um processo muito importante. Do meu ponto de vista, o protagonismo cabe às agências regulatórias setoriais.
Essa é uma conversa que eu tive já algumas vezes com membros da Comissão do Senado sobre ter uma agência regulatória geral ou ter as agências regulatórias setoriais como protagonistas. Eu admito até ter uma agência geral, assim como ter um marco geral sobre a inteligência artificial, mas, como diz o próprio nome, eu acho que tem que ser geral, principiológico. Eu acho que cabe efetivamente regular e, principalmente, fiscalizar as agências regulatórias setoriais. Por quê? Porque, quando a gente faz a implementação de uma inteligência artificial, de um sistema de inteligente social, a gente envolve, no mínimo, dois domínios: o domínio do campo da inteligência artificial, que é complexo, nada simples, e o domínio de aplicação. A vantagem do protagonismo de uma agência setorial é o fato de que, pelo menos, o domínio de implementação supõe-se que ela domine, que ela conheça. Então, ninguém melhor, por exemplo, voltando ao exemplo do mercado bancário, ninguém melhor do que o Banco Central para conhecer o que está acontecendo no mercado. Além disso, não adianta só regulamentar se você não tem condições e instrumentos de fiscalização. Isso é fundamental, porque você precisa fiscalizar e punir o desenvolvimento e uso que estiver em compliance com a lei que foi definida, com a regulamentação que foi definida.
R
O tempo é muito curto para um tema tão complexo. Eu queria falar algumas...
Uma outra observação geral, antes de entrar no PL 2.338, é: o que aconteceu em relação ao ChatGPT e outras IAs generativas? Nós temos uma técnica, que se chama redes neurais profundas, que é a técnica que predomina em praticamente todas as implementações dos últimos dez anos na sociedade. Ela tem uma categoria chamada IA preditiva e ela tem uma categoria chamada IA generativa. O conjunto de soluções de IA generativa, onde está inserido o ChatGPT, mudou o foco, mudou a abordagem regulatória, pelo menos no caso da Europa, de um sistema para uso do sistema, porque nos modelos de IAs preditivas, cada sistema tinha uma função. Então, se eu monto, por exemplo, um sistema para reconhecer se a imagem de uma tomografia é cancerígena ou não, e se eu quero que reconheça a imagem de um cachorro, eu tenho que montar outro sistema. A IA generativa é multitarefa. Eu imagino que todos aqui já experimentaram de alguma forma o ChatGPT, por exemplo. O ChatGPT serve para inúmeras tarefas. Então, tem um deslocamento do foco de regulamentar sobre o sistema em si para o uso do sistema. Essa é uma mudança importante que reflete na nova versão, por exemplo, da proposta de regulamentação da Comissão Europeia.
Sobre o PL 2.338, a primeira observação é que tem várias questões. Acho que de fato tem que ter um processo de discussão, mas ela é infinitamente superior ao PL 21, de 2020, cuja primeira audiência pública foi em julho de 2021, e foi votado no Plenário em 29 de setembro. Talvez tenha sido o período de consulta pública mais curto da história. Qual é a importância de um período longo de discussão? Primeiro, os legisladores precisam se familiarizar com o tema, o objeto sobre o qual eles vão regular. Então, precisa de tempo; precisa de a sociedade participar. Então, como eu já disse: as agências reguladoras têm um papel estratégico, as universidades têm um papel estratégico, algumas instituições têm papel estratégico, ministérios, o Governo Federal. Então, o processo é quase tão importante, ou, eu diria, tão importante quanto o resultado final. Se o processo é negligenciado, nós corremos o risco de ter uma regulamentação inócua ou uma regulamentação que freie o desenvolvimento da IA, que é fundamental para o desenvolvimento do país, e que também não proteja os cidadãos. Então, para mim, não precisa ter pressa. Eu sou contra - eu alerto desde o início - o caráter de urgência. Eu acho que a gente tem que se inspirar no processo da Comunidade Europeia, que levou anos, foi muito longo. Sobre o PL 2.338, especificamente, eu acho que...
R
(Soa a campainha.)
A SRA. DORA KAUFMAN - Bom, sobre a definição, eu tenho várias questões para dizer, mas o tempo já está se esgotando. Não é fácil também definir em todos os âmbitos. Nos Estados Unidos, na Europa, na China, a definição é uma questão. Mas eu queria falar que, primeiro, os custos e riscos que o país está indo comprar são muito altos, na minha opinião. Isso pode desestimular o desenvolvimento e principalmente o uso de sistemas de IA, e ajudar a concentração de mercado, porque se o custo é alto, do ponto de vista de processos, de resposta, de cuidados que o desenvolvedor e o usuário, enquanto empresa, precisam ter, isso favorece as grandes empresas, que têm mais condições de se equipar para tal.
O foco da proposta não são apenas implementações de alto risco, que eu acho que tem que ser o foco. Não faz sentido regulamentar quando não tem um risco alto para a sociedade. E o que define o risco alto? É fundamentalmente o potencial de dano e a extensão do dano. Então, quando eu sugiro que se faça um estudo, um diagnóstico, de como está sendo usada e implementada a inteligência artificial no Brasil, nesse estudo vai ficar mais evidente quais são os usos com potencial de alto risco e qual deveria ser o foco de uma regulamentação.
A abordagem tem algumas... São 45 artigos. São novecentas e poucas páginas, mas tem 45 artigos o PL 2.338. Tem um conjunto de artigos que é diferente da proposta da Comissão Europeia, que é o direito do usuário. Eu também tenho várias questões para serem debatidas nesse conjunto de artigos, e me chama a atenção a preocupação de que qualquer usuário afetado pode recorrer, pode entrar com um processo contra o fornecedor do sistema. Qualquer decisão automatizada pode ser contestada. Eu acho que está muito amplo e muito em aberto.
Quatro. A opção de comissão por uma autoridade reguladora e fiscalizadora, centralizada, em linha com a proposta europeia, julgo um complicador, dada a característica transversal, dinâmica e complexa da IA, que na implementação lida com no mínimo dois domínios. Isso é o que eu já falei.
O PL 2.338, o trabalho da comissão de juristas, define o desenvolvedor e o usuário. Eu acho que deveria também distinguir o fornecedor. Principalmente no Brasil, não necessariamente o fornecedor é quem desenvolveu o sistema. Então, eu acho que o fornecedor tem outro papel que deveria ser destacado. O direito à explicação é sempre limitado. Por isso também é importante que os reguladores conheçam a natureza da tecnologia. Ela tem um limite, do ponto de vista da explicabilidade. Então, isso precisa ser conhecido para ser relativizado.
Arbitragem. Vários artigos do PL. Parece não trivial como a autoridade regulatória vai arbitrar no nível de detalhe proposto, e consequentemente de complexidade. Conheço pouquíssimas pessoas hoje no Brasil capazes de dar conta da maior parte dessas interpretações ou auditorias.
Quem e como definir o que seja envolvimento humano significativo? Uma proposta de lei, quando fala "significativo", é um adjetivo. O que significa? Quem vai arbitrar o que é envolvimento significativo de um ser humano ou não?
R
Todas essas questões precisam ser, na minha visão, muito discutidas e melhor...
Autonomia é mínima. O órgão não acrescenta nenhum elemento novo. Esse envolvimento humano...
Bom, a sistemática de atualização da lista de riscos excessivos e altos me parece pouco prática. Não seria mais fácil determinar que a inclusão e a exclusão cabe à agência setorial, assim como a Comissão Europeia tem uma lista anexa dos casos?
Eu acho complexo você estabelecer a atualização desse anexo por parte de uma agência geral. Eu acho que essa lista caberia - nesse caso, parece-me, sem dúvida - às agências reguladoras e fiscalizadoras setoriais.
Então, à medida que o mercado - por exemplo, voltando ao exemplo do Banco Central, que é mais claro -, à medida que o mercado bancário fosse agregando, utilizando novos sistemas de IA, o Banco Central atualizaria essa lista do que entra na regulamentação.
O art. 20, por exemplo - adoção de medidas técnicas para viabilizar a explicabilidade do sistema de IA -, não é trivial e tem como barreira de definição a própria natureza.
Bom, isso eu já falei.
Estímulo e desenvolvimento de código de boas práticas. É extremamente positivo. Isso faz parte da proposta. Eu estou envolvida em algumas iniciativas para criar governança de IA, exatamente, diretrizes de IA para as organizações, independente da regulamentação pelo poder público. Parte dessa governança de IA, é evidente, à medida que tenha uma lei, vai ter que estar em compliance também com essa lei, mas independentemente disso o que a gente observa é que as empresas estão utilizando, adotando inteligência artificial e, em geral, sem avaliação, sem consciência, sem conhecimento sobre os riscos que estão infringindo. Infringindo não, que estão correndo, desculpe-me. Bom, é isso.
Para resumir, eu acho que a gente não precisa ter pressa. Eu acho que o processo é tão importante quanto o resultado final; acho que a sociedade precisa participar muito mais do que apenas em consultas públicas, que são sempre limitadas, por razões óbvias; e sugiro: a Comissão Europeia, por exemplo, na partida, constituiu uma comissão de especialistas, de 54 especialistas, que passaram um tempo, quase dois anos, debatendo e produziram um documento. Então, eu sugiro isso também, que o Senado monte uma comissão de especialistas que possam discutir, com tempo, e oferecer os seus comentários; que traga as agências setoriais e fiscalizadoras para o debate; que traga as universidades para o debate.
Hoje nós temos no Brasil alguns centros de pesquisa ligados à inteligência artificial e algumas universidades públicas fundamentais. Esses centros têm que estar discutindo, porque parte do desenvolvimento da inteligência artificial é originado, por exemplo, nas universidades.
Então é isso. Eu agradeço mais uma vez e estou absolutamente à disposição. Para mim, é uma honra e é mandatório. Eu me sinto, como cidadã, na obrigação de participar desse processo.
Muito obrigado.
O SR. PRESIDENTE (Miguel Matos) - Obrigado, Dra. Dora Kaufman.
Por fim, concedo a palavra, por 15 minutos, ao Dr. Juliano Carvalho, Professor do Departamento de Comunicação Social da Unesp.
O SR. JULIANO CARVALHO (Para expor.) - Bom dia a todas e a todos.
Eu agradeço e, na pessoa do Presidente Miguel Matos e do Ministro Ricardo Villas Bôas, saúdo meus colegas da Mesa. É uma alegria estar aqui com vocês e, em função da exiguidade do tempo, eu quero ter uma conversa rápida sobre os impactos disso na nossa área.
R
Eu sou jornalista, estou nisso há três décadas, e me parece essa uma agenda precípua para a sociedade brasileira, para a democracia, num estágio importante do que significam os conteúdos e a disseminação desses conteúdos a partir da introdução dessa agenda da inteligência artificial.
Vou pedir, se eles puderem projetar.
Eu começo dizendo, rapidamente, sobre o trabalho que a Comissão desenvolveu. Então, quero saudar o Ministro e a Comissão, a Profa. Laura e toda a equipe - pode passar -, especialmente pelo processo conduzido, a partir dessa brilhante iniciativa do Senador Rodrigo Pacheco, de constituir um grupo que trouxesse não só um substitutivo, mas que criasse um processo - e que, nesse processo, houvesse uma discussão preliminar com a sociedade brasileira -, tivesse o cuidado de olhar as melhores práticas que estão sendo realizadas em âmbito internacional e que essas melhores práticas pudessem ser discutidas nesta Casa, como foram, em seminários nacionais e internacionais, redundando nesse documento de 900 páginas.
Passo ao próximo eslaide, chamando a atenção para os avanços...
(Intervenção fora do microfone.)
O SR. JULIANO CARVALHO - Tudo bem?
... para os avanços que o projeto traz. Aqui já bastante delineados pela Profa. Laura Schertel; e eu quero chamar a atenção para a regulação da garantia de direitos; o combate - a preocupação com o combate - à desinformação; a regulação de riscos; a preocupação com governança das empresas; a responsabilização que consta no projeto; a ideia de criar sandbox regulatórios para que a inovação não fosse atrofiada; a preocupação de uma autoridade nacional; uma ideia preliminar sobre literacia, ou seja, aprendizagem e alfabetização para quem vai fazer uso da inteligência artificial; e as duas preocupações, de natureza mais eminentemente técnica, que são a explicabilidade e a preocupação da regulação dos vieses que a inteligência artificial traz no seu conteúdo.
Muito bem, aí vou para o terceiro... já para o quarto eslaide, agora sim, projetado. Pode passar. Primeiro, segundo, terceiro... é isso, pode ficar aí.
Agora, trazendo então o assunto para esta Casa, quero saudar este Conselho, que tem uma capacidade enorme de contribuir com esse projeto.
Eu começo com essa frase do Sam Altman, o CEO da OpenAI, em que ele diz: "Acho que esse é o legado. [...] Imagens, vídeo, áudio - eventualmente, tudo será gerado. Acho que isso vai se espalhar por toda parte."
Estamos num Conselho, estamos num momento da humanidade em que a mediação cultural, a produção de conteúdo, a responsabilidade e os impactos disso para o desenvolvimento econômico, para a cultura e, fundamente, para a democracia, passam pela capacidade que nós temos de refletir sobre a importância que isso tem.
E essa frase não só conota, mas denota, de maneira muito objetiva, o que isso pode desencadear no médio e longo prazo.
Pode passar para o próximo.
Em função disso, eu começo perguntando os impactos que isso vai ter, primeiro, para os setores criativos de um modo geral. Estamos num país de uma identidade, de uma vocação enorme para a indústria criativa, para a economia da criatividade, para a sua capacidade de bens simbólicos, que são altamente mobilizados por meio dessas tecnologias.
Então, deixo uma primeira pergunta: em que medida o comprometimento do poder público deve assumir para mitigar o impacto da IA nas cadeias produtivas dos setores criativos?
Eu estou começando a fazer... Vou fazer algumas perguntas e deixar algumas propostas no final.
E a pergunta aqui está sendo feita no seguinte sentido: ainda que a Comissão de Juristas - e esse trabalho extraordinário que fora feito - tenha se comprometido muito mais com uma natureza principiológica, muito mais com uma natureza de não engessar o seu regulamento - como fora sugerido por "n" participantes dos seminários aqui, em 2022 -, é evidente que setores específicos e cadeias relativas à produção do conhecimento devem ser incorporados e este Conselho pode dar essa contribuição importante na tramitação desse projeto, nessa incorporação.
R
A segunda pergunta: como a adoção da inteligência artificial está impactando a sustentabilidade do modelo jornalístico, em termos de qualidade, ética e diversidade de conteúdo? Eu estenderia o jornalismo para o radialismo, para a internet e para outros setores, para o cinema e para a produção audiovisual. É uma responsabilidade enorme o que isso significa.
Pode passar.
No próximo, eu chamo a atenção, então, para três dimensões mais específicas que o projeto: a primeira, quanto à natureza do trabalho jornalístico, que deve ser considerada nesta regulação, a exemplo do que está acontecendo em outras experiências internacionais, que é a preocupação se há condições suficientes para esse desenvolvimento não ser contemplado com uma especificidade deste projeto.
A segunda dimensão são os problemas de natureza ética. Ainda que o projeto trate disso e esteja fortemente comprometido com essa dimensão na relação com o usuário, a preocupação, aqui já mencionada pelo Prof. Walter, mencionada pela Profa. Laura, é indiscutível, hoje - não só em função do ChatGPT, em função das inteligências mais conhecidas e massificadas, nos últimos cinco meses, que tomaram a agenda da sociedade em âmbito global -, fundamentalmente, a apropriação, a dimensão e os riscos que nós corremos de não colocarmos sobre a mesa uma agenda que discuta a dimensão ética com outras características que não só aquelas que estão contidas no projeto.
Uma terceira, para a qual eu quero chamar a atenção, é a sustentabilidade dos setores criativos, é a sustentabilidade das áreas de geração de conteúdo, especialmente, no que concerne ao direito autoral. O projeto traz, lá no seu artigo, as definições que entende que deveria abordar sobre direitos autorais, legando a outros marcos regulatórios, como a Conferência Ibero-Americana, a natureza de se pensar os direitos autorais.
Eu entendo que as condições mínimas deveriam estar contidas aí, para que nós pudéssemos refletir sobre os problemas que podem ser causados. Há um impacto do direito de autor e há um impacto sobre as condições dos produtores de conteúdo na apropriação que a inteligência artificial faz, parcial ou totalmente, de conteúdo, criando práticas recombinantes e outras experiências que são próprias das inteligências artificiais.
Próximo, por favor.
Obviamente, não poderia passar por aqui sem ter o cuidado de discutir os ecossistemas de desinformação. Não estamos falando, simplesmente, sobre inteligências artificiais que dão respostas equivocadas ou sobre o cálculo matemático desacertado. Estamos falando da apropriação de uma ferramenta que está alimentando, quer seja no mundo educacional, quer seja no mundo informacional, quer seja no cotidiano da produção e disseminação de informações, sem aquilo que é muito importante que nós tenhamos, que é a responsabilidade que a mediação humana tem que ter, porque, como muito bem disse o Prof. Walter, a inteligência artificial não tem decisão moral. Em tese, não toma decisão.
A responsabilidade com os ecossistemas de informação. Nós assistimos isso, recentemente, em vários países do mundo, inclusive neste, há uma responsabilidade enorme sobre produção de conteúdos que podem levar a opiniões, que podem levar a comportamentos, que podem levar a desastres, do ponto de vista da capacidade que a sociedade terá para responder a esses dilemas. Então, eu enumero alguns aqui, como, por exemplo, a capacidade de produzir deepfake, eu chamo a atenção para a capacidade de ampliar notícias falsas...
R
Então, ainda que o projeto trate disso, regulamente e responsabilize aqueles que estão envolvidos, eu estou entendendo que mecanismos que possam chamar a atenção para esses riscos, como está aparecendo na estratégia americana, que é chamar a atenção efetivamente na regulação da inteligência artificial para os cenários dos ecossistemas de desinformação - a regulação do Reino Unido está tratando disso. Ou seja, é preciso que estejamos vigilantes em relação ao desenho que esses cenários podem produzir.
É preciso que nós compreendamos que não estamos simplesmente regulando uma tecnologia ou um processo tecnológico com suas camadas com um grau apenas de mediação. Estamos regulando uma tecnologia e um processo que têm implicações do ponto de vista da cultura, que têm implicações do ponto de vista das artes, que têm implicação do ponto de vista da capacidade de prepararmos as novas gerações para se apropriar da tecnologia com outro tipo de alfabetização, e esse diálogo tem que vir à mesa.
Pode passar. A próxima.
E aí eu chamo a atenção para essa Recomendação sobre a Ética da Inteligência Artificial feita pela Unesco:
Tecnologias de IA desempenham um papel cada vez mais importante no processamento, estruturação e disponibilização de informação; as questões do jornalismo automatizado, do fornecimento de notícias por meio de algoritmos e da moderação e curadoria de conteúdo nas redes sociais e motores de buscas são apenas alguns exemplos que levantam questões relacionadas com o acesso à informação, desinformação, informações falsas, discurso de ódio, surgimento de novas formas de narrativas sociais, discriminação, liberdade de expressão, privacidade e alfabetização midiática e informacional (AMI), entre outros.
Essa recomendação da Unesco, desse documento, e o relatório que subsidiou esse conjunto de sugestões que a Unesco produziu nos dizem muito e me parecem, em larga medida, uma referência importante para este Conselho e para como esse debate vai se dar aqui, no Congresso Nacional. Por quê? Porque esse grau de especificidade, ainda que não tenha sido, originalmente, o objeto e a vocação da Comissão de Juristas, deveria vir à tona neste momento, porque nós não estamos distantes desse cenário.
Pode passar, por favor.
E aí faço alguns apontamentos de aspectos que poderemos considerar para o debate:
Um: elevar o setor da comunicação e informação para uma área de interesse prioritário no marco regulatório da IA como estão dispostos os dispositivos.
Dois: expandir as competências da autoridade nacional do marco legal priorizando a composição de diversidade e pluralidade. Setores fundamentais que devem compor o processo decisório, que devem participar das escolhas... O projeto trata, por exemplo, da criação de listas e de outras regras que a autoridade possa criar. É muito importante que nós entendamos que, a exemplo do que fora desenvolvido pela Lei Geral de Proteção de Dados, a autoridade nacional, nós tenhamos uma capacidade de uma representação multissetorial, especialmente desses setores que estão aqui contidos, para desenhar e para se preocupar com esse norte.
Três: ressaltar as funções especificamente de jornalismo do art. 17 do projeto.
R
Quatro: avaliar a operacionalidade do incentivo às bases de dados de IA em língua portuguesa.
Pode parecer uma coisa muito casuística, muito específica, quando se está pensando em tecnologias que são construídas em âmbito global, mas a identidade nacional, a cultura, o idioma, os nossos símbolos e significados em termos de país devem ser uma preocupação e devem ser ressalvados no interior dessa regulação.
Cinco: avançar nas implicações sobre trabalho e mediações por meio de plataformas.
Gente, em qualquer aplicativo de pedido de alimentação que você faça, de mobilidade urbana, tudo tem inteligência artificial e, obviamente, um dos grandes debates que têm sido feitos nos últimos anos é sobre as condições laborais, como essa relação havida com a inteligência artificial impacta o mundo do trabalho, impacta as nossas relações profissionais, desumaniza as relações que nós produzimos no nosso cotidiano. Parece que nós, de repente, entendemos que, entre a tela e os produtos, há um pensamento mágico, não existem relações construídas de pessoas que estão sendo subsumidas em condições bastante degradantes.
Não é que um PL de inteligência artificial vá resolver essas agruras, mas ignorá-las e não trazer essa agenda e esse nível de especificidade pode nós causar uma perda histórica, especialmente em função de como a apropriação do trabalho por meio das inteligências artificiais está se dando nas plataformas neste momento da história.
Seis: direito à comunicação.
Esse é um debate antigo muito importante feito no campo comunicacional...
(Soa a campainha.)
O SR. JULIANO CARVALHO - ... que ressalva esse detalhe de que o direito à informação, à comunicação precisa, com apuração, com domínio ético, tem que ser um dos direitos consagrados no PL.
E o último: aliança global.
Essa não é uma conversa só de Estados nacionais, é uma conversa do mundo inteiro, por isso é preciso sinalizar a importância de alianças globais, de uma concertação em âmbito internacional para pensar, como os próprios players do mercado já estão defendendo. Neste momento, os Estados Unidos, o Reino Unido e a Europa estão discutindo pontos em comum sobre a regulação. Trata-se do espírito de que este Parlamento e o Governo brasileiro tenham de colocar isso em uma agenda internacional.
Próximo.
Deixo esta frase final, também da Unesco:
A coexistência das inteligências artificiais no trabalho comunicacional é um cenário promissor. [Ninguém aqui está negando a tecnologia.] Reconhecemos as potencialidades ao delegar tarefas repetitivas e rotineiras às máquinas. Porém, estamos cientes das incertezas diante dos rápidos avanços tecnológicos e da ausência de regulação adequada.
Agradeço muitíssimo a oportunidade e espero que a gente possa conversar mais sobre isso. É uma honra estar aqui. Muito obrigado.
O SR. PRESIDENTE (Miguel Matos) - Muito obrigado, doutor.
Acabou que nós tivemos uma visão bem holística do projeto, ficou uma coisa muito interessante, várias frentes.
Agradeço a todos os expositores.
Vamos abrir agora as inscrições para o uso da palavra pelos Conselheiros. De acordo com nosso regimento, cada Conselheiro pode fazer uso da palavra uma vez só por até cinco minutos.
Quem eu vejo aqui que já se inscreveu? O Conselheiro João Camilo, a quem concedo a palavra.
O SR. JOÃO CAMILO JÚNIOR - Bom dia a todos e todas!
Muito obrigado por nos iluminar aqui. É muito bom ter a presença do Ministro, a presença da Profa. Laura Schertel e a presença de vários acadêmicos, porque eu acho que falta essa questão da qualificação do debate. É muito bom ver academia tão qualificada aqui no Conselho de Comunicação. Então também agradeço por isso.
R
Eu acompanhei o trabalho da Comissão de Juristas e testemunho que foi um trabalho muito árduo e muito bem-feito. O texto foi balizado em premissas ótimas, excelentes, que são a liberdade de pensamento, a liberdade de expressão, a defesa do cidadão, a proteção de dados, a responsabilização e o não sufocamento da inovação, que era uma grande preocupação na construção dessa norma, desse regramento.
Isso posto, e muito bem lembrado pela Profa. Dra. Dora, nós temos o PL 21, de 2020, aprovado na Câmara dos Deputados, inclusive sob a acusação de açodamento da discussão. Nesse contexto, eu gostaria de deixar uma pergunta para a mesa e para quem se sentir mais à vontade em responder, porque para nós seria esclarecedor, na visão de vocês, entender quais são as principais inovações em relação ao texto da Câmara que foi aprovado no ano passado. Então, eu queria saber, do que foi trazido pela Comissão de Juristas neste texto apresentado, não como substitutivo ao texto da Câmara, mas como um texto novo, de autoria do Senador Rodrigo Pacheco, assinado pelo Senador Rodrigo Pacheco, Presidente desta Casa, seria interessante a gente saber: na opinião de vocês, quais são as principais inovações em relação aos dois textos.
O segundo ponto que eu coloco é que uma das coisas mais importantes sobre a qual o Conselho de Comunicação Social se debruça é a harmonização das normas. Foi muito bem colocada aqui a existência do marco civil da internet, da LGPD, para trazer essa conformidade com o texto construído pela Comissão de Juristas. Como os senhores sabem, nós temos um PL, o PL 2.630, que está em discussão na Câmara dos Deputados. Ele já foi aprovado aqui no Senado Federal e ele traz uma série de conceitos, de regramentos e de responsabilizações sobre as big techs, outro tema colocado aqui em relação à questão dos poderes, muito bem colocado pelo Prof. Carnielli.
Então, eu gostaria de saber, na opinião de vocês, em relação a essa harmonização desse projeto, se aprovado, qual o impacto que ele teria nesse texto. Qual a importância dele também nessa discussão? Ou se seria mais importante hoje nós debatermos o marco da inteligência artificial e depois o tema tratado no PL 2.630, infelizmente nomenclaturado como PL das fake news.
Eu queria fazer mais duas perguntas, mas, em respeito aos colegas que também querem ter a oportunidade de se debruçar sobre o tema, deixo essas duas perguntas para a mesa.
Obrigado.
O SR. PRESIDENTE (Miguel Matos) - Obrigado, Conselheiro.
A Dra. Dora responde então a essa pergunta.
A SRA. DORA KAUFMAN (Para expor.) - Muito obrigada, Sr. Camilo, pelas perguntas, são excelentes.
Eu não tenho tempo suficiente para comparar o PL 2.338 em relação ao PL 21/2020, porque é radicalmente distinto. O PL 21/2020, na minha opinião, é principiológico e inócuo. São nove artigos que colocam princípios muito gerais, nem estimulam o desenvolvimento da inteligência artificial, muito menos protegem a sociedade e o cidadão brasileiro em relação aos potenciais danos. Então, para mim, são projetos incomparáveis. Como eu disse no início, o PL 2.338 é muito mais complexo, é um ponto de partida, apesar de eu ter várias críticas, mas é um ponto de partida muito mais robusto para a gente ter.
R
Sobre a questão da harmonização, eu acho também muito interessante, por exemplo, o art. 20 da Lei de Proteção de Dados já remeter à inteligência artificial, porque dá o direito ao usuário afetado de contestar uma decisão automatizada e com base em dados. Isso remete diretamente ao sistema de inteligência artificial.
Então, dentro do trabalho de rever o 2.338 e de fato criar um marco regulatório definitivo no Brasil, eu acho que também parte essa harmonização. E agora nós temos uma nova que é o PL 2.630... E não só, o direito do consumidor também tem questões importantes.
Além do diagnóstico que eu acho que tem que ser feito e que eu sugeri de como está sendo usado, eu acho que também tem que ter um diagnóstico de quais são as leis, quais são as diretrizes já vigentes no Brasil que remetem de alguma forma, direta ou indiretamente, à inteligência artificial.
Então, eu acho que esses dois diagnósticos são fundamentais para a gente ter um marco que de fato converse com o que já tem hoje vigente do ponto de vista de regulamentação no país.
Então, é isso. Obrigada.
O SR. PRESIDENTE (Miguel Matos) - Obrigado, doutora.
Passo a palavra ao Conselheiro Flavio Lara Resende para o uso da palavra.
O SR. FLAVIO LARA RESENDE - Bom dia, Presidente; Patricia, Vice-Presidente! Cumprimento a todos da mesa na pessoa do Ministro Villas Bôas Cueva, dizendo que é muito importante a gente ter essas visões e visões totalmente diferentes.
E quero dizer o seguinte. Eu, na quinta-feira passada, como Presidente da Abert recebi uma homenagem em Belo Horizonte das forças de segurança do Estado de Minas Gerais pelo Dia da Imprensa. E muito interessante foi que um tenente coronel que é subchefe da Comunicação da Polícia Militar começou a fala dele dizendo exatamente do perigo da inteligência artificial. Dizendo o seguinte: os robôs estão todos aqui rindo da gente porque nós estamos aqui discutindo inteligência artificial, que foram os próprios humanos que criaram. Então, isso é uma coisa muito interessante, eu acho que é muito importante.
O Dr. Juliano colocou aí uma coisa muito importante sobre os jornalistas. E a minha empresa, que é o Grupo Bandeirantes de Comunicação, já tem usado inteligência artificial no jornalismo, e a gente brinca lá porque surgem coisas surpreendentes quando você... Usamos para consultas, para uma série de coisas, logicamente que amparado pela inteligência humana. Mas surgem coisas surpreendentes quando você corre atrás da pesquisa, como disse o Dr. Walter ali que não consegue fazer conta. Então, você pergunta quantos livros o Pelé escreveu, surgem dez livros. Então, você tem que tomar um cuidado enorme para poder utilizar isso.
Eu queria pedir, Presidente - e por causa disso nós temos tido algumas coisas engraçadas lá no nosso grupo -, eu queria pedir: eu tenho um filmezinho que eu recebi no WhatsApp de dois minutos sobre inteligência artificial. Já está com o Walmar, se pudermos passar rapidamente dentro do meu tempo.
É um negócio de humor, bastante...
O SR. PRESIDENTE (Miguel Matos) - Perfeito.
O SR. FLAVIO LARA RESENDE - Muito obrigado.
R
(Procede-se à exibição de vídeo.)
O SR. PRESIDENTE (Miguel Matos) - Excelente!
Passo a palavra à Conselheira Sonia Santana para o uso da palavra.
A SRA. SONIA SANTANA - Muito bom dia.
Primeiro, quero agradecer pela oportunidade desta mesa. É um assunto que realmente nos traz bastante preocupação e muita curiosidade.
Eu sou representante do audiovisual, e o audiovisual é um setor que vai se utilizar muito da inteligência artificial.
Várias questões citadas, inclusive pelo Dr. Juliano, me trazem alegrias, porque falamos em direitos: em direitos de imagem, em direitos autorais, em direitos que a gente espera que esse marco venha trazer, esse estudo, porque temos certeza de que essa inteligência facilitará muitos trabalhos, eliminará diversas atividades e funções, criará outras e, ao mesmo tempo, deixará um vácuo de pessoas que não teriam o que fazer.
Então, também, junto a esse marco, teremos que buscar políticas públicas, políticas sociais de abrigamento, de acolhimento de atividades que serão extintas com o uso da inteligência artificial.
Temos certeza de que o amadurecimento vai trazer muitos benefícios.
Temos que tomar muito cuidado com o uso indevido, como criar e como descobrir meios de controle de uso dessa inteligência, na medida em que ela pode ser transformada no que se quiser, com a evolução - a gente tem visto uma evolução muito grande.
Basicamente, é isso.
R
A minha preocupação com relação aos direitos, funções que vão desaparecer, evoluções que são muito bem esperadas e, principalmente, ter acesso à informação e aos métodos que se possa utilizar da inteligência artificial para o bem. Temos visto diversos exemplos na medicina, na saúde, no sistema bancário, em diversas situações em que ela tem uma grande presença e pode ter uma atividade mais próxima do humano, sendo um auxiliar em diversas situações complexas e em atividades de risco.
Então, é isso. A minha preocupação está gerada aqui nas questões da segurança que nós temos, do acesso à informação de uma maneira clara, enfim, porque o mundo não é de acadêmicos e todo mundo precisa entender do que nós vamos falar, do que nós vamos trabalhar.
Basicamente é isso. Agradeço muito a oportunidade e esperamos que esta seja a primeira de uma série de reuniões, porque a evolução disso é tão grande que nós debateremos esse tema ao longo dos dois anos.
Muito obrigada.
O SR. PRESIDENTE (Miguel Matos) - Obrigado, Conselheira Sonia.
Eu vou passar a palavra para a Dra. Laura Schertel, que vai dar mais uma contribuição para nós.
A SRA. LAURA SCHERTEL (Para expor. Por videoconferência.) - Obrigada, Presidente, Dr. Miguel. Eu, muito rapidamente, queria apenas agradecer aqui todas as manifestações dos Conselheiros.
Em relação à primeira pergunta, sobre a comparação dos projetos, queria falar, talvez muito rapidamente, que o PL proposto pelo Presidente do Senado, o 2.338, deste ano, traz direitos que não estão hoje no PL 21/20, como um direito a explicação, relacionado à transparência. Sempre quando você estiver interagindo com um sistema de IA, esse sistema tem que deixar clara essa interação. Então, um direito a explicação, um direito a contestação. Então, você tem uma série de direitos que não estão presentes no outro projeto. Você também tem uma categorização de riscos, para ficar claro, e aqui - acho que também o Ministro comentou, já esclareceu esse ponto - há toda uma abordagem de riscos por trás desse projeto; ou seja, aqueles sistemas de maior risco merecem ou precisam estar sujeitos a critérios mais rígidos. E, para isso, então, temos uma categorização de riscos, uma lista daqueles sistemas de alto risco. Também não existe essa categorização no outro projeto aprovado na Câmara. Então, acho que essa categorização é muito importante, até para trazer segurança jurídica a todos os fornecedores, aos setores econômicos, para ficar clara qual a utilização, em que contexto e em qual setor é uma aplicação de alto risco. Para além disso, essas aplicações de alto risco estão submetidas a obrigações específicas. Por exemplo: a de fazer um relatório do impacto algorítmico, que também não está previsto no outro projeto. E uma série de outras obrigações, como gestão de dados para evitar discriminação. Então, toda uma obrigação também de transparência, de explicação. Tudo isso também não está no outro projeto.
E, por fim, lembro que esse projeto não cria, até porque não poderia criar, um órgão ou uma entidade de regulação ou de supervisão, mas ele diz que é preciso ser atribuído, que o Executivo precisa atribuir para algum órgão já existente, e, aí, traz uma série de competências, inclusive essa articulação, que a Profa. Dora também comentou. Há também isto no projeto: uma articulação entre essa regulação, essa governança setorial com uma governança centralizada. Então, a ideia é, de fato, trazer um marco geral, por isso que assim temos chamado, um marco geral da IA. Essa é a ideia que o PL 2.338 traz.
Isso seria muito rapidamente, Dr. Miguel, mas eu fico aqui à disposição também para as outras perguntas.
O SR. PRESIDENTE (Miguel Matos) - Obrigado, Dra. Laura.
R
Eu passo a palavra agora à Conselheira Maria José para fazer uso da palavra.
A SRA. MARIA JOSÉ BRAGA - Bom dia a todos e todas. Obrigada, Presidente.
Agradeço imensamente a todos os nossos convidados. Certamente, esta audiência pública está contribuindo muitíssimo para o debate que o Conselho de Comunicação Social tem de fazer sobre a questão da inteligência artificial.
E eu começo dizendo que a gente está falando de linguagem, como o Prof. Walter enfatizou isso, e a gente insiste numa linguagem que me parece inadequada ao chamar todo esse processo de inteligência artificial. Faço coro com a Dra. Laura de que não é nem inteligência, nem artificial, e gostei muito da sugestão do Prof. Walter de a gente tratar por um outro nome e passar a designar isso de uma forma que seja menos atrativa, menos propagandística esse processo.
Eu tenho duas questões específicas, uma para o Prof. Walter: eu queria que ele falasse um pouquinho mais sobre como ele entende que o PL poderia conceituar a partir das consequências e não da tecnologia em si.
Eu tenho uma questão para a Profa. Dora, apesar de que ela já mencionou: gostaria de insistir que ela nos esclarecesse mais sobre essa posição de que nós tivéssemos regulações setoriais. Mesmo tendo uma regulação geral, qual é o risco das regulações setoriais? Uma autonomia setorial ou uma discrepância regulatória setorial? E como é que a gente poderia trabalhar para evitar isso, colocando numa regulação geral, vamos dizer assim, as atribuições e as limitações das regulações setoriais?
E para o Prof. Juliano: eu queria que ele falasse um pouquinho mais sobre os impactos da tecnologia sobre as atividades criativas e aí entre elas o jornalismo, colocando o jornalismo como essencial para a manutenção e a consolidação do direito à informação, principalmente colocando o jornalismo como uma atividade que, como princípio, exige a mediação humana justamente porque é a mediação humana que pode estabelecer critérios humanos para as prioridades humanas.
Muito obrigada.
O SR. PRESIDENTE (Miguel Matos) - Sim, o Dr. Walter começa.
O SR. WALTER CARNIELLI (Para expor.) - Bom, de fato existe um grande risco...
(Interrupção do som.)
O SR. WALTER CARNIELLI - ... e por várias pessoas pedindo a moratória de inteligência artificial, que, olhando do ponto de vista cético, a gente não tem certeza se aquilo não é uma peça de propaganda para supervalorizar a inteligência artificial, primeiro lugar. E segundo lugar, uma moratória para parar o jogo porque os outros players estão jogando. Então paremos aqui como fazem no basquete: "Para um pouquinho aqui para a gente reorganizar o nosso jogo". Existe esse risco aí. Então é uma superpropaganda que claro, a hora que você instaura o medo, isso é uma estratégia de fácil... É uma estratégia muito conhecida do pensamento crítico na argumentação: na hora em que você instaura o medo você escraviza, você fideliza. Então, isso é verdade.
R
Quanto ao ponto de vista de se chamar de habilidades cognitivas artificiais, talvez fosse a ideia, porque muita coisa que é vendida como inteligência artificial são apenas algorítimos clássicos que todo mundo quer dizer que tem agora. Alguns algorítimos só, grandes e complexos, que não são inteligência por si só, são algorítimos que já existiam aí faz ... a ideia de algoritmo todo mundo sabe o que é, tem 50 anos ou mais.
Então, qual é a ideia do ponto de vista de regular pelas consequências? Eu acho que a Profa. Dora já falou e a Laura também já disse, mas basicamente, concordando com elas, é a questão de ver o seguinte: o enjaulamento da inteligência artificial não deve ser o caso, ninguém pretende enjaular nem mitigar, nem torcer o pescoço da inteligência artificial ou da habilidade cognitiva. O que a gente quer é medir o risco e se preocupar em regular aquela coisa onde tem risco.
E onde é que tem risco? Bem, risco econômico, risco à democracia, risco de desinformação, etc., etc., etc. Esses são os grandes riscos, os riscos da falta de liberdade, risco de sequestrarem os nossos dados, porque é isso que se faz. Nós somos praticamente gado informático na mão dessas grandes big techs.
Eu acho que essa é a ideia, a ideia seria ver onde estão os pontos críticos e tentar seguir por aí, mas não enforcar a tal inteligência ou esse grande mecanismo de linguagem, que é útil, que gera economia também, de um lado, que gera bem-estar, etc., progresso. É inevitável.
Obrigado.
(Intervenção fora do microfone.)
A SRA. DORA KAUFMAN (Para expor.) - Obrigada pela pergunta.
Eu acho que o termo inteligência artificial foi cunhado quando se criou o campo em 1956. Há várias discussões sobre se é apropriado ou não. Eu mesma, na minha coluna da Época Negócios, em que eu só escrevo sobre inteligência artificial, já fiz um artigo sobre isso, baseada até no livro que a Profa. Laura mencionou, mas eu acho que o fato é que é um termo universal. Então, eu acho que nós não temos como fugir de estar discutindo que se trata do campo da inteligência artificial, de tecnologias de inteligência artificial, mesmo que a gente possa julgar que o termo não é apropriado.
Em relação à colaboração entre uma suposta agência reguladora geral e as agências regulatórias setoriais, o PL 21, que é uma diferença sobre o que o João Camilo tinha até perguntado, o PL 21, de 2020, ela propôs a criação de agências regulatórias setoriais. O PL 2.338 vai no sentido oposto. Como a Profa. Laura falou, não tem o poder de criar, mas eu acho que no texto do PL 2.338, o protagonismo das agências setoriais, reguladoras e fiscalizadoras setoriais está muito diluído.
Então, na minha opinião, eu acho que pode até ter uma agência reguladora geral que seja coordenadora, mas ela tem que estar trabalhando muito de perto com as agências reguladoras setoriais, porque, como eu disse, não adianta regular se você não fiscaliza. Dada a complexidade da tecnologia de inteligência artificial, dado o fato de que ela é transversal, é usada em praticamente, hoje, em todos os setores, para todas as atividades e as tarefas, eu não consigo imaginar quem seriam os membros de uma comissão geral para regular e fiscalizar todo o seu uso, ainda mais considerando que todo o tempo tem novas soluções e avanços acelerados?
R
Então eu acho que o protagonismo é, assim, eu criaria talvez uma comissão geral principiológica, que coordenasse o trabalho. Mas o trabalho efetivo de regulamentar no detalhe e principalmente o de fiscalizar e punir, eu atribuiria o protagonismo às agências setoriais - e elas já existem, não é? Não tem nenhuma novidade. Elas já existem e elas já desempenham um papel nas suas áreas, nos seus domínios específicos.
A SRA. MARIA JOSÉ BRAGA (Fora do microfone.) - Não na comunicação... (Risos.)
O SR. PRESIDENTE (Miguel Matos) - Bom...
A SRA. DORA KAUFMAN - É verdade.
A SRA. MARIA JOSÉ BRAGA (Fora do microfone.) - Não temos nada, na verdade.
O SR. PRESIDENTE (Miguel Matos) - Temos o Conselho de Comunicação Social do Congresso Nacional. (Risos.)
O SR. JULIANO CARVALHO - Maria José, obrigado pela pergunta, conselheira.
O Goldman Sachs falou em março que a IA pode afetar 300 milhões de empregos no mundo. Talvez... Não dá para ninguém calcular isso do ponto de vista econômico, mas eu acho que, quando nós estamos pensando em impacto, a gente tem que olhar, pelo menos, em duas frentes importantes: uma são as condições amorais - as que já estão dadas pelas tecnologias, porque o mundo não começou depois do ChatGPT, em final de novembro de 2022. Tudo está aí faz bastante tempo. O Conselheiro Lara Resende já mencionou: "Nós usamos isso no Grupo Bandeirantes." E você pega a London School of Economics e tem cento e tantos projetos de inteligência artificial voltados ao jornalismo. Então, isso não é novo no universo do trabalho que nós desenvolvemos.
Ocorre que têm dois processos sobre a mesa. Acho que existe algo que é a forma como nós, enquanto país, queremos entender a substituição parcial ou total da mediação humana na produção de conteúdo. Essa é uma pergunta que nós temos que nos fazer, porque esses desenvolvimentos foram acontecendo e ninguém parou para perguntar em que medida nós concordamos com a apropriação.
Você olha para uma publicação do ChatGPT, ele vai lá e se apropria do trabalho jornalístico, do produtor de conteúdo, do radialista, do cineasta, do produtor audiovisual. Essas informações estão colocadas ali, e você às vezes não sabe a fonte, e você não... Então, eu acho que tem uma pergunta muito objetiva sobre um pacto, que é: uma, o desaparecimento e a transformação da percepção de mundo que nós temos quando tem uma mediação humana. Essa é a palavra-chave. O quanto isso nos importa.
O Presidente, quando chamou a atenção aqui, logo no início, para um projeto de lei que tem intervenção humana, é exatamente isso. Por quê? Porque nós, de novo, não estamos demonizando nenhum tipo de tecnologia. Essas coisas estão aí e ficarão. A pergunta que nós temos que nos fazer é: o arcabouço legal, a regulação, quem que irá assegurar as atividades da sociedade que são fundamentais para o seu desenvolvimento cultural, econômico, político, etc. Essa me parece assim uma pergunta central.
E aí eu não tenho dúvida de que o jornalismo...
E é só nós assistirmos ao papel que o jornalismo tem cumprido e cumpriu recentemente, como um elemento fundamental não só para as democracias, mas fundamental - acabamos de sair de uma grande hecatombe da humanidade que foi o período pandêmico -, como o papel que o jornalismo, que a apuração, que a informação checada, que a prestação de serviço para a sociedade faz.
A inteligência artificial vai nos ajudar nisso? Enormemente! Ela, por si só, vai criar isso. Eu não estou nem dizendo que ela vai contar uma boa história jornalística, mas a apuração, a ideia de que há uma sensibilidade produzida sobre a realidade social que o jornalismo produz, eu não visualizo e não vislumbro - isso eu disse para os meus estudantes de jornalismo há muito tempo - ainda sendo substituído por modelo de linguagem, neste momento da história.
R
A SRA. DORA KAUFMAN - Eu queria só acrescentar sobre a observação final que ela fez: onde não tem agência regulatória e fiscalizadora, tem um ministério, não é? Então, no caso da comunicação, temos o Ministério das Comunicações; no caso da educação, temos o MEC. Então, cabe também aos ministérios a função de regular, fiscalizar e criar comissões específicas para essa função.
O SR. PRESIDENTE (Miguel Matos) - Obrigado.
Passo a palavra agora à Conselheira Bia Barbosa para fazer uso da palavra.
A SRA. BIA BARBOSA - Bom dia.
Obrigada, Presidente.
Primeiro, eu quero saudar os colegas Conselheiros e Conselheiras. Eu não tive oportunidade de estar aqui na posse. Eu estava fora do país e hoje estou na minha primeira reunião. É muito bom rever vários e conhecer outros aqui.
Agradeço muitíssimo as contribuições para a audiência pública. Acho que, sem dúvida nenhuma, o Conselho de Comunicação Social, mais uma vez, acerta num tema e amplia a discussão para a sociedade.
Eu queria dialogar um pouco com algumas falas que foram feitas e deixar duas perguntas rapidamente.
Eu acho que a gente evoluiu bastante, a Casa evoluiu bastante ao sair, como muito bem a Profa. Dora definiu, de um projeto principiológico para um projeto que traz especificações importantes, que foi fruto do trabalho da Comissão presidida pelo Ministro Cueva. Parabenizo-o aqui também. Tive a oportunidade de acompanhar à distância os trabalhos. E acho que a gente está num caminho correto para essa discussão, sem, obviamente, deixar de reforçar a importância de esse debate ainda ser ampliado aqui na Casa e de a gente conseguir ouvir mais setores envolvidos e afetados.
Acho que a gente precisa avançar numa discussão regulatória sobre a inteligência artificial baseada em riscos, mas, principalmente, numa regulação baseada em direitos, numa regulação que venha afirmar a garantia de direitos para os cidadãos e para as cidadãs que são não só os usuários dessas tecnologias, mas que são, muitas vezes, os que correm os maiores riscos quando elas não são reguladas efetivamente.
Concordando com a Profa. Dora de que a gente precisa ampliar o debate, eu queria só comentar que eu acho que a gente já tem, professora, muitos indícios, estudos e pesquisas que mostram os danos que essa área pode e tem causado no Brasil, na nossa realidade, principalmente em um país que é tão marcado por opressões históricas de gênero, de raça, de identidade sexual, de diversidade sexual e de identidade de gênero, e acho que a gente precisa avançar a partir desses fatos que a gente já tem mapeados e das pesquisas que a academia e as organizações da sociedade civil tão bem têm apontado sobre as preocupações em torno da inteligência artificial.
Acho que o Juliano - fiquei feliz de ter um colega jornalista na mesa; muito bom revê-lo, Juliano - trouxe muito bem as preocupações em torno da questão democrática da agenda de desinformação. Isso, somado ao que o Prof. Walter trouxe sobre a concentração dessas empresas e o poder monopolístico que o uso de dados para a utilização da inteligência artificial traz, eu acho que tem uma questão bastante significativa aí para a gente do ponto de vista do que a comunicação pode sofrer com essa concentração e com ferramentas de inteligência artificial não reguladas a partir da perspectiva do direito.
R
E, nesse sentido, eu queria deixar-lhe uma pergunta, Juliano, sobre como você entende que a gente possa colocar para dialogar com essas duas legislações. Essa e a regulação de plataformas de redes sociais, de ferramentas de buscas e serviços de mensageria, que estão colocados no Projeto 2.630, que têm, por exemplo, em um dos seus aspectos, em um dos seus artigos, a questão da transparência e da regulação algorítmica. Quer dizer, como é que essas coisas podem conversar e vir em um cenário que nos ajude a enfrentar os desafios que estão colocados, não só do ponto de vista mais macro da regulação de plataformas, mas do ponto de vista específico da regulação da inteligência artificial?
E queria fazer uma pergunta específica para a Laura, porque eu sei que ela também já refletiu bastante sobre esse tema, não é muito objeto do nosso Conselho, aqui, de Comunicação Social, mas tem muito a ver com a agenda de inteligência artificial, que são os potenciais discriminatórios decorrentes do uso da inteligência artificial para reconhecimento facial.
Esse é um debate que, em vários países do mundo, em várias democracias, tem sido feito a partir inclusive dos riscos que são colocados para o uso do reconhecimento facial na área da segurança pública e me parece que aqui no Brasil a gente tem uma banalização do uso da tecnologia...
(Soa a campainha.)
A SRA. BIA BARBOSA - Para concluir, eu estou, neste momento, pessoalmente comprando uma briga com o condomínio de minha casa, onde eu moro, que não quer me deixar entrar se eu não fizer o reconhecimento facial, se eu não entregar os meus dados biométricos e os de reconhecimento facial para poder continuar morando no prédio.
Acho que a gente tem uma banalização da tecnologia e há riscos enormes. A gente tem o uso de reconhecimento facial na área da educação, o que coloca uma preocupação ainda maior para a questão da proteção de dados pessoais sensíveis de crianças e adolescentes.
Então, se a Profa. Laura puder abordar um pouco essa agenda do reconhecimento facial e da importância da regulação da inteligência artificial para essa agenda também, eu agradeceria muito.
Obrigada.
O SR. PRESIDENTE (Miguel Matos) - Obrigado, Bia Barbosa.
Nossa inteligência, que não é artificial, e que é a assessoria aqui do Senado, nos recomendou que fizéssemos da seguinte maneira, só uma pequena mudança do cronograma, os conselheiros fazem as perguntas e, depois, nós respondemos em bloco.
Então, já vou passar a palavra ao Conselheiro Daniel Queiroz para o uso da palavra.
O SR. DANIEL JOSÉ QUEIROZ FERREIRA - Bom dia a todos e todas.
Queria, primeiro, parabenizar todos os envolvidos que fizeram a gente chegar aqui hoje nesse contexto de discussão já tão amadurecida, mesmo que ainda não seja o fim, então, foi um trabalho acho que muito importante e significativo.
Quero registrar também o privilégio de estar podendo fazer parte desta discussão e estar aqui com vocês para poder buscar o melhor caminho, tanto para o país como para as pessoas diretamente envolvidas.
Eu achei muito legal quando o Presidente Miguel falou que nós estamos nos antecipando. Isso não é um uma prática muito comum quando a gente fala de regulamentação ou de lei, a gente está falando de um assunto extremamente complexo e crítico, que está em alta e nós estamos meio que em paralelo discutindo uma regulamentação que seja importante do ponto de vista de proteção. E é sobre proteção que eu quero falar, no sentido do que a Dra. Kaufman falou quando disse que a gente precisa regulamentar, fiscalizar e punir.
E aí eu pergunto: Como é que a gente vai conseguir fechar esse ciclo, ou seja, chegar até o punir, quando boa parte ou talvez a grande parte das empresas que vão pautar essa tecnologia são big techs, são empresas de atuação internacional e, talvez, muitas delas nem terão base legal, jurídica, formal no nosso país? Então, como é que a regulamentação e a lei vão falar, ou vão se conectar, do ponto de vista internacional, para punir quem não está aqui formalmente, mas que está diretamente atuando e influenciando na falta de proteção às pessoas e os riscos reais que elas trazem - como Dra. Laura colocou muito bem aqui?
R
O SR. PRESIDENTE (Miguel Matos) - Perfeito. Muito obrigado, Conselheiro.
Passo a palavra, claro, agora, para o Conselheiro Fabio Andrade.
O SR. FABIO ANDRADE - Presidente, obrigado. Queria cumprimentar a Mesa, queria cumprimentar todos os colegas, e queria fazer uma pergunta ao Dr. Walter, uma pergunta talvez um pouco mais técnica.
É o seguinte, Dr. Walter: caso o projeto tenha andamento e se torne uma lei, que venha algum tipo de proteção ou de diferenciação do uso da inteligência artificial no Brasil, como o senhor vê a coisa funcionando na prática, já que os sites, os centros são todos hospedados no exterior, os servidores são hospedados no exterior? Eu queria saber como o senhor vê isso funcionando na prática, dentro do campo do limite jurídico que a gente tem no Brasil e do limite da tecnologia, que não vê fronteiras.
O SR. WALTER CARNIELLI - Acho que eu... Respondo rapidamente ou espero?
O SR. PRESIDENTE (Miguel Matos) - Acho que pode ser depois.
O SR. WALTER CARNIELLI - Está bem.
3
O SR. PRESIDENTE (Miguel Matos) - Só para a gente continuar na sequência aqui.
Passo a palavra ao Conselheiro José Antônio.
O SR. JOSÉ ANTÔNIO DE JESUS DA SILVA - Bom dia! Quero cumprimentar a Mesa e os meus colegas Conselheiros, e dizer que é um momento de aprendizado para mim. É um tema de que, apesar de trabalhar em campos de alta tecnologia, a gente vê que não sabe absolutamente nada. É uma aula hoje para mim sobre inteligência artificial.
Trabalho na Bandeirantes, grupo do meu colega aqui, e lá a gente tem sentido as grandes transformações sob a ótica da inteligência artificial. A gente tem equipamentos fazendo as operações robóticas dentro das empresas de comunicação social, dentro da comunicação no Brasil hoje. E a gente não sabe qual é o nosso futuro.
Quando se iniciava o debate sobre transformação tecnológica no meio, a nossa preocupação era do posto de trabalho. A gente dizia... Eu lembro porque eu trabalho com transmissão. A gente dizia que o futuro era muito negro - não no sentido da palavra discriminatória, mas "negro" no sentido do buraco, que a gente não consegue enxergar onde vai parar - e que hoje essas novas tecnologias vêm transformando de fato o mundo do trabalho, onde uma pessoa simplesmente faz a função de dez e a gente não consegue enxergar no debate - seja ele feito pela Comissão ou seja feito pelos doutores e professores que estão pensando a IA - como proteger o campo de trabalho dos profissionais, não só de comunicação, mas todos os outros. A gente vê os bancários perdendo seus postos de trabalho porque os robôs estão assumindo. Nós estamos vendo os mercados sendo transformados e os trabalhadores perdendo seus postos de trabalho, porque já se passa direto ali, paga-se direto no caixa, sem nenhum.
R
Então, a nossa grande preocupação, e quero perguntar aos doutores, professores presentes: de fato, temos condições de começar a medir o impacto real no mundo do trabalho, especificamente, especialmente, no setor de comunicação?
A outra pergunta.
(Soa a campainha.)
O SR. JOSÉ ANTÔNIO DE JESUS DA SILVA - É possível, no debate do projeto, a gente se preocupar com a garantia dos direitos fundamentais dos trabalhadores, ou a gente vai viver, como há seis anos, a transformação do Michel Temer e do Presidente que acabou de passar - que é difícil a gente citar até o nome dele, que destruiu os direitos dos trabalhadores, acabando com a aposentadoria e com os direitos básicos dos trabalhadores? E a gente precisa se preocupar com o Presidente Lula...
E esse projeto é fundamental para que a gente faça o debate dos direitos mínimos dos trabalhadores, porque nós vamos perder mais postos de trabalho com essa tecnologia de transformação mental da sociedade mundial. Na realidade, não é nem no Brasil, é no mundo. O impacto dessa transformação está vindo.
São essas perguntinhas, para ver se a gente consegue pelo menos chegar em casa com mais tranquilidade, porque é assustador, viu?
O SR. PRESIDENTE (Miguel Matos) - Conselheiro José Antônio, somam-se à pergunta do senhor as perguntas que chegaram também pelo e-cidadania, da Christiene Carvalho, do Rio de Janeiro, e da Nathaly da Silva de Pernambuco neste mesmo sentido do impacto nos empregos.
Passo a palavra agora ao Conselheiro Davi Emerich.
O SR. DAVI EMERICH - Sr. Presidente, Ministro, Profa. Dora Kaufman, Juliano, Walter Carnielli, nossa Relatora, que está nos acompanhando e dando informações importantes, Relatora do projeto, essa questão, o nosso Conselho de Comunicação Social, é uma determinação constitucional, portanto a gente se atém muito à comunicação social. O IA é algo muito amplo, que este Conselho certamente não abarcará, mas o tema vai entrar com muita força aqui no Congresso Nacional. Primeiro, porque foi um trabalho magistral, coordenado pelo Ministro, trabalho impressionante da Relatora, e que foi apresentado ao Senado Federal, como substitutivo, pelas mãos do Presidente do Senado, o Pacheco.
Então, não é um projeto em que se tem Senadores melhores ou piores. Não, os projetos tramitam de forma igual, mas, no momento em que o Presidente do Senado chancela um projeto desse, no sentido de acelerar, porque dá uma credibilidade grande ao projeto, que já vem de uma comissão... E, recentemente, o Senador Eduardo Gomes deu uma indicação no Senado, lá no Plenário, de que vai ser formada uma Comissão Especial, talvez, de Senadores, para acompanhar esse projeto. Então, parece-me que o foco nesse projeto vai ser muito importante.
E é importante que a sociedade brasileira, a academia, os professores e os estudiosos foquem nesse projeto, porque eu acho que nós temos tudo para já, a partir de um projeto excelente, termos um projeto ainda melhor.
Acho que é um projeto que vem, vai tramitar, vai ter força e vai realmente ter uma importância nos nossos marcos legais.
R
Não estou muito preocupado... Claro que me preocupo. Tem aquela frase: "É a economia, seu estúpido", e tal. Claro que a IA está condicionada pela economia, ou seja, vai fazer uma revolução nesse campo e tal, mas eu confesso que, vindo lá da comunicação social, preocupam-me duas dimensões: a dimensão da veracidade das informações, como o Juliano colocou muito bem, e também a questão da alma, da alma da cultura nacional. Eu nem estou falando em economia criativa, que realmente é uma coisa importantíssima. Eu estou falando é da cultura nacional, que tem 500 anos, que se desdobrou em linguagens, como o nosso Walter Carnielli, com o qual eu falei várias vezes pelo WhatsApp...
Então, eu quero saber o seguinte: nós precisamos preservar duas coisas, a veracidade da informação e a alma do povo brasileiro, que é dada em linguagem, dada em criatividade, longe até da economia. Eu estou falando realmente dessa capacidade criativa, e eu acho que o nosso projeto, se ele conseguir pegar esses dois campos, seria muito importante.
Eu queria fazer uma pergunta, primeiro talvez para o Juliano. Fala-se muito em deep fake - estou aqui com o nosso amigo Gonçalo, que é um estudioso do Instituto Modal e que provavelmente deve usar a palavra ainda hoje aqui também -; fala-se muito em deep fake e eu faço uma outra pergunta: a inteligência artificial, que, em tese, baseia-se em informações científicas, informações verdadeiras - em tese se basearia nisso, porque ele vai buscar bancos de dados estruturados, mas me parece que, no momento em que você tem narrativas, ele também acessa narrativas - é possível que a inteligência artificial seja um grande instrumento para combater fake news? A inteligência artificial pode vir como grande instrumento nosso, no sentido de trazer a informação verdadeira ao cidadão - informação verdadeira de forma larga -, ou ela inevitavelmente vai caminhar para deep fake?
Eu acho que essa é a questão que a gente coloca.
A segunda questão que eu gostaria de perguntar diretamente ao Ministro e que a gente vem conversando com o Gonçalo é sobre a velocidade da IA - e eu também não vejo nada como catástrofe, embora tenha sido um tsunami, como afirmou o professor Walter Carnieri -, que é uma coisa impressionante. Se há três, quatro meses, por exemplo, para você fazer um treinamento de máquina em IA custava perto de US$1 bilhão; em três, quatro meses, isso despencou. Então você faz um treinamento hoje...
(Soa a campainha.)
O SR. DAVI EMERICH - ... de máquina a um custo muito menor.
Então, Ministro, eu perguntaria o seguinte: Como é que a legislação que está sendo discutida e criada não fica ossificada ante a velocidade das transformações que a tecnologia IA coloca? O projeto cria algum mecanismo de gatilho, no sentido de, em havendo alguma modificação que não foi pensada, que pode vir em três, quatro, cinco meses, esse projeto ficaria dependendo da evolução dos debates ideológicos e de partidos políticos no Congresso Nacional ou a lei pode criar algum gatilho para fazer frente a essa velocidade?
Então, eu gostaria que o Ministro pudesse tecer algumas considerações sobre isso.
O SR. PRESIDENTE (Miguel Matos) - Perfeito.
Obrigado, Conselheiro Davi.
Passo a palavra à Vice-Presidente do nosso Conselho, a Conselheira Patricia Blanco.
A SRA. PATRICIA BLANCO - Obrigada, Presidente.
Bom dia a todos, aos Conselheiros com que eu não pude conversar ainda.
Duas ponderações muito rápidas para a gente prosseguir o debate.
Primeiro, quero cumprimentar a todos aqui da mesa. Foi realmente muito importante ouvi-los e também ouvi-las, Profa. Laura, Profa. Dora, nessa loucura que a gente vive hoje da discussão sobre inteligência artificial, sobre como os robôs podem superar os humanos e como nós, profissionais da comunicação, podemos sobreviver - não é, José Antonio -, daqui para a frente.
R
Eu queria, primeiro, cumprimentar o Prof. Juliano, porque ele trouxe uma questão que eu acho extremamente relevante: o empoderamento do cidadão, a partir da educação, no caso específico que ele traz da Unesco, da alfabetização midiática informacional ou da educação midiática, que eu vejo como fundamental.
O projeto de lei traz, no seu art. 2º, item 10, a questão, justamente, da educação do cidadão, para que ele possa entender e interpretar os conteúdos ao qual ele é exposto e, principalmente, como os dados dele, como toda essa questão relacionada à inteligência artificial, de nós, cidadãos, para o cumprimento dos direitos, pode ser trabalhado e a necessidade de ampliar um pouco mais esse ponto.
Eu queria trazer uma pergunta específica ao Ministro, já o cumprimentando pelo excelente trabalho da Comissão, sobre a questão que eu acho que o Conselheiro Davi colocou muito bem, sobre, primeiro, se o marco legal da inteligência artificial não se tornará obsoleto imediatamente após a sua aprovação e, mais especificamente, sobre formatos e como fiscalizaremos o cumprimento desse marco legal.
A Prof. Dora trouxe a sugestão muito pertinente de se trazer as agências regulatórias setoriais para o debate, mas de que maneira esse projeto de lei trata a questão da fiscalização e também dessa entidade reguladora ou fiscalizadora? Como é que isso funcionaria, pensando que, mais do que aprovar um marco legal, como que a gente fiscaliza e como que a gente vê a sua implementação de fato?
Obrigada.
O SR. PRESIDENTE (Miguel Matos) - Obrigado, Conselheira Patrícia.
Eu vou fugir aqui um pouco do regimento. Abro, por cinco minutos também, e pergunto se querem fazer uso da palavra o Prof. Mamede e o Prof. Gonçalo. (Pausa.)
Está facultado ao senhor.
O SR. MAMEDE LIMA-MARQUES (Para expor.) - Gostaria de agradecer muito a possibilidade de dar uma opinião. Fico bastante entusiasmado com o trabalho desenvolvido sob a coordenação do Sr. Ministro Cueva e, na sua pessoa, cumprimento a todos.
É indubitável a necessidade de uma regulamentação, principalmente nesses pontos que foram levantados em relação ao tratamento de posições, digamos assim, geradas de ponto de vista falacioso, como o Prof. Juliano colocou de forma bastante precisa.
Como um contraponto a tudo isso, acho que devemos considerar, fundamentalmente, as contribuições positivas que isso pode também acarretar para toda a sociedade e, obviamente, buscar um tratamento adequado para isso.
É interessante, inclusive, a questão de "Bom, será que a inteligência artificial não pode combater as próprias fake news?". Mas por que não? Por que não transformar isso em elementos contraditórios, no sentido de contrapor, realmente, os pontos que ficariam mais sensíveis do ponto de vista de geração de problemática como um todo?
R
Fazer com que esse tipo de ferramenta consiga desenvolver bons resultados também é uma responsabilidade importante. Obviamente, a regulamentação vem no sentido de fazer uma proteção geral em relação a tudo isso que está sendo observado, e, obviamente, isso é um ponto fundamental, mas, realmente, fazer com que não haja, digamos assim, obstáculos do ponto de vista científico, do ponto de vista tecnológico e que isso possa gerar benefícios para toda a sociedade é um ponto, na minha consideração, importante e que deve ser observado de forma bastante, digamos assim, refinada pela Comissão.
Muito obrigado aí pela deferência.
O SR. PRESIDENTE (Miguel Matos) - Muito obrigado, Prof. Mamede.
Passo a palavra ao Prof. Gonçalo Teixeira Nunes.
O SR. GONÇALO TEIXEIRA NUNES (Para expor.) - Muito obrigado.
Saudações a todos!
Eu vou tentar estender um pouco as preocupações do Conselheiro Davi Emerich. Isso pode parecer um pouco fora de propósito, mas é bom lembrar que há cinco anos um produto como o ChatGPT era considerado fora de propósito. Então, a tecnologia evolui muito rápido.
Era minha crença, assim como a de muitos estudiosos, pesquisadores, desenvolvedores ou mesmo simples interessados, que a inteligência artificial evoluiria no sentido de dar atenção a problemas dos menos abstratos aos mais abstratos. Dessa forma, a ênfase inicial da IA estaria em aplicações para atividades físicas tipo de chão de fábrica, evoluíram para atividades de escritório e, em seguida, para atividades de especialistas e, apenas como etapa final, para as funções cognitivas humanas por excelência, como criatividade e arte.
Bom, como bem observou Sam Altman, recentemente - Sam Altman é o CEO da OpenAI, que nos trouxe o ChatGPT -, o que se tem constatado é uma evolução na direção inversa. Temos já sistemas que produzem arte na forma de poemas, textos literários, imagens, vídeos, etc. E é bom lembrar que os estudos seminais de Noam Chomsky, ainda em meados do século passado, nós sabemos que o cérebro é pré-configurado para o processamento da linguagem natural. E foi um imenso salto nessa direção, na direção do processamento de linguagem natural, propiciado pela arquitetura transformer de rede neural que tem viabilizado tudo isso.
Então, eu pergunto: seriam, então, as funções cognitivas elevadas do ser humano meras consequências emergentes de nossa capacidade rica e poderosa de processamento da linguagem natural? Se for assim, nós estaríamos a um passo da senciência não biológica ou teríamos, como uma espécie de última defesa, última instância de proteção, a ausência do qualia, que são as percepções sensoriais? Aí eu coloco: como o advento da IA senciente impactaria esse marco legal que a gente está discutindo agora?
Muito obrigado.
R
O SR. PRESIDENTE (Miguel Matos) - Muito obrigado, Dr. Gonçalo.
Bom, deixo mais duas perguntas aqui que vieram pelo e-Cidadania que são no mesmo sentido, da Mayane Batista, do Amazonas, e do Taylor Pedro, do Distrito Federal, que questionam qual vai ser a ética que vai ser gerada em torno da responsabilidade ligada à inteligência artificial.
Bom, para a gente finalizar, passo a palavra, pela ordem inicial das falas, para algumas respostas às perguntas que foram feitas e para as considerações finais também.
Começo com V. Exa., Ministro Cueva.
O SR. RICARDO VILLAS BÔAS CUEVA (Para expor.) - Muito obrigado.
Tivemos uma grande oportunidade para expor um pouco o trabalho da Comissão, que foi muito bem apresentado pela Relatora, Profa. Laura Schertel Mendes, e para aprender com as contribuições, perguntas, dúvidas, indagações e anseios que foram apresentados aqui hoje.
O trabalho da Comissão, como bem dito, não pretende ser exaustivo, obviamente, e também não teve a pretensão de regular a inteligência artificial em caráter tão abrangente e amplo como a Comissão Europeia, que tem recursos e tempo incomparáveis com os que têm uma comissão de juristas no Senado Federal do Brasil. Não podemos replicar aqui nos trópicos as mesmas condições que a Comissão Europeia vem tendo para desenvolver um trabalho ao longo de anos, com estudos, mas é claro que, valendo-se do trabalho que ela faz, é possível extrair algumas lições úteis, e foi isso que se procurou fazer no trabalho da Comissão, que se distingue daqueles projetos da Câmara basicamente pela maneira como se define a inteligência artificial. Aliás, o Prof. Walter deixou claro aqui que talvez isso nem devesse ser feito, já que uma definição tenderá a engessar a noção do que seja inteligência artificial.
Inovou-se bastante ao criar alguns direitos básicos dos cidadãos, de todos aqueles que são afetados pela inteligência artificial, na linha da tradição brasileira que eu mencionei antes e que pode, sim, gerar uma litigiosidade excessiva, mas que talvez seja a maneira mais efetiva de fazer com que os problemas reais, que já têm ocorrido com a inteligência artificial, cheguem ao Judiciário ou cheguem às autoridades competentes.
A abordagem baseada em riscos tem a vantagem exatamente de procurar evitar uma ossificação, ou de impedir que o texto de lei se torne obsoleto, na medida em que esses riscos são reclassificáveis e eles vão sendo reavaliados no tempo de acordo com a evolução da tecnologia, que é, de fato, extremamente rápida.
A questão da responsabilidade civil também, como dito, é outro ponto que distingue o texto da Comissão dos projetos de lei anteriores.
E a questão da governança é uma questão muito delicada, de fato, porque não há uma resposta simples para isso. Alguma autoridade deverá haver para que faça essa supervisão, aplique sanções e faça um controle de compliance de caráter geral das operadoras de inteligência artificial, mas não se sabe exatamente como.
R
Para evitar o risco que se materializou na tramitação da Lei Geral de Proteção de Dados (LGPD), que levou um veto por vício de iniciativa, optou-se por deixar ao Poder Executivo a definição de uma autoridade que possa desempenhar esse papel. Em alguns países, a autoridade de proteção de dados tem sido também utilizada para esse fim, o que não seria uma má ideia, desde que ela tivesse condições mínimas de trabalho, já que há uma afinidade muito grande em relação à proteção de dados pessoais com a proteção que é exigível aqui no caso da inteligência artificial, embora se trate de matérias diferentes.
Nos Estados Unidos, que tem uma certa aversão hoje à regulação, a própria presidência americana, há pouco tempo, divulgou um roteiro de diretrizes básicas que deverão ser seguidas para uma regulação setorial da inteligência artificial. A proteção de dados está ali entre elas, a questão da discriminação algorítmica, tem a questão da segurança propriamente dita da operação dos sistemas de inteligência artificial.
Existe um princípio muito lembrado hoje na área da informática que é o princípio da resiliência. É preciso que os sistemas, quando deixem de funcionar, voltem a funcionar com toda a sua capacidade, ou seja, é preciso não apenas prevenir o risco de mal funcionamento ou de crise ou de deficiência, que vai ocorrer necessariamente, mas é preciso garantir que o sistema volte a funcionar e que dê respostas. Então, são desafios muito grandes.
A questão da veracidade que hoje se coloca diante do desenvolvimento dos chatbots ou da inteligência artificial generativa realmente é assustadora, na medida em que se dissemina muito o uso da inteligência artificial nas escolas, na imprensa, em todas as profissões, e com resultados alarmantes.
Vimos agora, recentemente, na semana passada, o caso de um advogado americano que foi elaborar uma contestação inteiramente baseada no ChatGPT, que criou alguns precedentes e não se deu ao trabalho de verificar se os precedentes existiam ou não. O juiz e o advogado da outra parte, obviamente, ao depararem com aquilo, ficaram alarmados. Como assim? Precedentes que resolvem os casos, mas que foram inventados? Essas questões obviamente serão objeto de regulação específica de cada um dos setores envolvidos.
Eu imagino que as ordens de advogados do mundo terão que criar sanções específicas para esse tipo de comportamento, elas já existem, os tribunais também e por aí vamos. Nós teremos agências dedicadas a regular o uso da inteligência artificial em cada setor. Um diagnóstico médico, por exemplo, o uso da inteligência artificial na medicina, tudo isso será objeto de normas próprias.
O que se pretende, em caráter urgente, é regular a assim chamada inteligência artificial em caráter geral.
Muito obrigado a todos novamente.
O SR. PRESIDENTE (Miguel Matos) - Perfeito, muito obrigado, Ministro.
Passo a palavra agora à Dra. Laura Schertel. Guten tag! (Risos.)
R
A SRA. LAURA SCHERTEL (Para expor. Por videoconferência.) - Maravilha. Dr. Miguel, Presidente deste Conselho, eu queria, então, primeiro agradecer, mais uma vez, pelos excelentes comentários e pelas interessantes perguntas, eu acho que de todos os conselheiros. Isso mostra, acima de tudo, como o tema não só é complexo, mas também como ele é amplo. E eu acho que isso mostra que esse projeto de lei é o primeiro passo, como muito bem disse o Ministro: é um passo para trazer parâmetros básicos de aplicação e de uso da IA.
Os senhores trouxeram problemas, por exemplo, da área do trabalho; há muitas questões relacionadas ao meio ambiente; há questões relacionadas, por exemplo, à esfera penal, à esfera cível. Então, isso mostra que esses sistemas vão trazer impactos muito amplos. Os senhores também comentaram sobre problemas relacionados à democracia, desinformação; ao jornalismo, o impacto ao jornalismo de uma forma geral.
Então, eu acho que isso tudo mostra que a gente precisa, sim, ficar atento à ideia de trazer os primeiros parâmetros básicos num projeto de lei. A gente considera que isso tem uma certa urgência, dado que esses sistemas já estão entre nós, já estão funcionando, já estão tomando decisões sobre as pessoas, mas que esse é apenas um primeiro passo.
Há toda uma reflexão mais profunda que é preciso ser feita, sim, em torno de grandes temas e que certamente precisarão também de regulações, como a gente chama de regulações verticais. Se essa é uma regulação horizontal, geral, como o Ministro muito bem colocou, nós precisaremos certamente também de regulações verticais, que em certa medida às vezes até existem setorialmente e que certamente terão que passar, terão que também tratar em alguma medida sobre a aplicação desses sistemas nesses contextos diversos também.
Então, eu acho que toda essa discussão mostra como nós precisamos, sim, de uma reflexão mais profunda e mais ampla. Mas, de novo, repito que é urgente que a gente pelo menos comece com parâmetros muito básicos sobre riscos muito básicos como discriminação, como erros, como ampliação de desinformação. Esses riscos muito básicos precisam ser combatidos, então, com parâmetros muito básicos como, por exemplo, de que esses sistemas precisam ser transparentes, de que as pessoas precisam saber que estão lidando com esses sistemas.
E tudo isso, esses parâmetros básicos, que a gente acha que são plenamente viáveis em termos de implementação, que eles possam então, digamos, ser aprovados e em complementação a essas discussões mais complexas.
Eu queria aqui rapidamente responder à pergunta da Conselheira Bia - Beatriz Barbosa -, sobre a questão do reconhecimento facial. Acho que esse é um tema muito sensível, especialmente no Brasil. De novo falando do nosso racismo estrutural, da discriminação estrutural na nossa sociedade. A gente sabe que esses sistemas têm índices altíssimos de erros em relação à população negra, em relação também a mulheres. E é fundamental que a gente não banalize essa utilização. A gente discutiu muito isso e o projeto traz um condicionamento para que esses sistemas possam ser utilizados somente quando você tiver um projeto de lei específico com algumas garantias. Então, essa é a ideia do projeto de lei.
Independente disso, eu queria destacar, Conselheira, que é fundamental que a gente aplique a LGPD. Então, para muitas situações, você já tem, sim, a Lei Geral de Proteção de Dados e ela pode ser utilizada. Ou seja, para a gente entender: quais são as bases legais desses sistemas? Há base legal? O princípio da finalidade, da necessidade, é respeitado?
R
Então, acho que isso também é importante de a gente lembrar - de novo, saindo da ficção científica e trazendo aqui para os problemas muito reais e concretos - que a gente já tem diversas leis que podem ser aplicadas, e isso eu acho fundamental, inclusive, para que a gente aplique a Lei Geral de Proteção de Dados, para que a gente aplique o marco civil da internet, enquanto esse novo marco regulatório não for aprovado, esse PL 2.338, que certamente ainda será discutido e cujas contribuições deste Conselho, deste Senado e também da Câmara dos Deputados serão muito valiosas. Então, acho tudo isso em relação a esse ponto.
Por fim, em relação, talvez, aos meus comentários finais, eu acho que a gente tem que ter - é muito importante - essa reflexão sobre esses impactos, porque, quando a gente fala de sistemas de inteligência artificial, ao fim e ao cabo, a gente está falando de poder: nós estamos falando de um poder econômico, nós estamos falando de um poder relacionado aos dados, nós estamos falando, inclusive, de um poder preditivo, e esse poder está muito ligado, como aqui já foi comentado, a essas tecnologias e à forma que nós estamos utilizando essas tecnologias... Elas permitem de uma forma, talvez nunca antes vista, uma concentração de poderes, e talvez um tema que é muito importante para este Conselho seja uma concentração também de poderes ligados ao discurso.
Quando estamos falando dessas tecnologias de IA generativas, qual é o discurso que vai prevalecer? Quais são os dados - como aqui também foi comentado por vários Conselheiros e por vários ilustres membros deste painel -, os textos de quem serão utilizados para alimentar? A arte de quem será utilizada?
Então, acho que isso também é muito relevante, e é por isso que é tão fundamental, não só a regulação, iniciarmos essa discussão da regulação, como também iniciarmos essa discussão mais ampla sobre esses reflexos mais amplos, porque, ao fim e ao cabo, estamos falando, então, da nossa democracia.
Parabéns ao Conselho. Parabéns, Presidente, por esta importante audiência pública, e me coloco à disposição para a gente continuar debatendo.
Muito obrigada.
O SR. PRESIDENTE (Miguel Matos) - Wunderbar! Muito bom.
Passo a palavra ao Dr. Walter para as considerações finais e para as perguntas.
O SR. WALTER CARNIELLI (Para expor.) - O.k., obrigado.
Eu quero agradecer pelas excelentes questões que têm aparecido. Vou tentar responder diretamente.
Primeiro, ao Conselheiro Fabio, que perguntou sobre como poderemos controlar uma força que não mora no Brasil, que não vem daqui. Como poderíamos fazer isso?
Eu não vejo como. É como controlar a dark web, é como controlar a deep web. Não há maneira de fazer isso. O que nós podemos fazer é controlar as empresas brasileiras que se utilizam dessa tecnologia. Elas têm que ser sinceras e francas, têm que ter transparência.
Se um banco, se um sistema bancário, se um sistema de seguros - ou de qualquer coisa -, utiliza uma tecnologia tal, ela vai ser responsável. É a única maneira, não vejo outra, a não ser que meus ilustres colegas juristas imaginem algum dispositivo - eu não consigo imaginar. Essa é a primeira questão.
A segunda pergunta, ao Conselheiro João Camilo, sobre a questão de como assegurar os empregos no Brasil que vão ser destruídos pela inteligência artificial. Vão ser destruídos, sim. Muitos empregos que têm a ver com linguagem, basicamente, como secretárias, até jornalistas, como a gente sabe e já viu, talvez não todos, mas alguns, como secretárias e contabilistas etc., muita gente que lida com linguagem, muita, muita gente. Bom, mas também vão ser criados trabalhos, oportunidades de trabalho.
R
Um ponto importante a lembrar é que, no Brasil, tem um apagão de TI. Há - e eu vi algumas estatísticas, não sei se alguém sabe dos números melhor que eu -, ao que parece, 700 mil vagas de TI que precisam ser criadas. Então, o que nós temos que fazer é educar melhor as pessoas, educar para que elas preencham essas vagas. É uma maneira. Não vejo uma maneira, talvez, sindical de resolver isso; eu não vejo.
A terceira pergunta que apareceu, do Conselheiro Davi Emerich, sobre se a inteligência artificial pode, ela própria, combater as fake news. Eu acho que claro que pode. Por exemplo, nós temos um sistema de inteligência artificial que verifica um plágio feito pelos próprios GPT-3 e GPT-4. Ele verifica se houve plágio e te diz. Acho que foi isso que aconteceu com esse advogado norte-americano. O advogado da outra parte pegou a contestação dele, colocou no sistema antiplágio, que disse assim: "Olha, aqui há 97% de chance de ter sido criado pelo GPT-4 ou pelo GPT-3". Há perfeitamente! Agora, a pergunta é: a quem interessa isso? Interessa às big techs isso? Não vejo como. Não vejo interesse delas em fazer isso. E elas é que dominam. Então, como nós vamos fazer? Que existe a possibilidade científica, tecnológica, sem dúvida nenhuma que existe. O problema é a quem interessa. Então, talvez, nós aqui, como utilizadores, tenhamos a tarefa de tentar desenvolver isso de alguma maneira, em pesquisas, em projetos e tal. Não é uma coisa simples, nem fácil, mas é possível.
E, para o Dr. Gonçalo, eu gostaria de dizer o seguinte: eu não concordo, Dr. Gonçalo, com a ideia de que a inteligência artificial está ficando senciente. O que eu acho é que a inteligência artificial, o ChatGPT foi a nossa avant-première de encontrar um extraterrestre. É como se nós tivéssemos um amiguinho ET ao nosso lado, que está aprendendo e está aprendendo de uma maneira que não é a nossa. Então, não é que eles vão ficar sencientes como nós somos. Eles vão ficar de uma outra maneira, assim como um avião jamais voa como um passarinho, como um besouro ou como uma libélula. É um outro voo, é uma outra inteligência, é uma outra tecnologia. Até eu prefiro não chamar de inteligência, prefiro chamar de habilidade cognitiva artificial, digital ou que quer que seja. Mas eu vejo que há uma dicotomia aí; é uma ramificação, uma outra coisa acontecendo.
Bem, eu agradeço a participação. É uma honra poder participar, é uma honra trazer aqui um pouco da visão dos acadêmicos, dos filósofos, dos lógicos, dos matemáticos, que acho que é importante e que conta bastante.
Muito agradecido a todos.
O SR. PRESIDENTE (Miguel Matos) - Nós que agradecemos.
Passo a palavra à Dra. Dora.
A SRA. DORA KAUFMAN (Para expor.) - Bom, obrigada pelas questões que foram levantadas pelo Conselho.
Eu vou começar pela Conselheira Bia Barbosa.
De fato, existem vários estudos desenvolvidos por ONGs, instituições da sociedade civil, pela universidade, mas não existe um documento que sistematize esses estudos, muito menos que esteja sendo base do processo de regulamentação. Então, é muito distinto. Eu acho que isso é fundamental: o que, de fato, está acontecendo. Por exemplo, tem mais de 20 estados... Tem um estudo, que foi feito por uma organização da sociedade civil, que mostra que, em mais de 20 estados, a segurança pública está usando o reconhecimento facial, mas, pelo menos, do que eu tenho acompanhado, isso não tem feito parte do pressuposto do ponto de partida para uma regulamentação.
R
Quem desenvolveu esses sistemas? Quem oferta esses sistemas? Quais são os riscos reais que estão acontecendo com esses sistemas? E aí vai em várias áreas. Na área de educação, por exemplo, tem alguns sistemas educativos que estão sendo adotados por algumas escolas, mas também não tem nenhum posicionamento, nenhuma análise, nenhuma auditoria por parte do MEC. Inclusive, a minha impressão é que nenhum deles de fato usa inteligência artificial, mas algumas escolas pressupõem que usam, porque há uma confusão entre automação e inteligência artificial.
Em relação à pergunta do Conselheiro Daniel Queiroz, de fato eu acho que existam duas questões distintas. Semana passada, num fórum na Europa, na Suíça, começou uma discussão entre representantes da Europa e dos Estados Unidos até ter um marco regulatório - que para entrar em vigência deve demorar. Mesmo agora, em junho, dia 11, será votada na Comissão Europeia a criação de um código de conduta para inteligência artificial entre os dois países. Então, eu acho que o Brasil precisa, do ponto de vista do Governo brasileiro, entrar nessa discussão. A Europa, os Estados Unidos e o Brasil são os mais avançados hoje no âmbito ocidental nessa discussão. Então, eu acho que a gente precisa entrar.
Por outro lado, os sistemas que estão sendo utilizados no Brasil como na segurança pública, na educação, na Justiça, pelo que eu tenho acompanhado, foram desenvolvidos no Brasil. Nós temos mais de 700 startups com foco em inteligência artificial já oferecendo soluções no mercado e sendo utilizadas. Tem um conjunto de utilizações que foram desenvolvidas no Brasil e que estão sendo ofertadas por instituições brasileiras.
Então são duas questões diferentes, por isso é que eu insisto na importância de ter um diagnóstico do que está acontecendo, senão a gente não sabe... A gente fica perdido sobre o que nós vamos regulamentar, com base em quê? Quais são os danos de fato e quem está gerando esses danos? E de onde estão vindo? Qual o papel, por exemplo, das universidades, principalmente as públicas na pesquisa e no desenvolvimento da inteligência artificial? Estão sendo relevantes ou não? Temos que olhar para criar código de ética ou estimular a criação de código de ética na universidade? Todas essas discussões derivam de um diagnóstico inicial.
Bom, o Conselheiro José Antônio falou sobre a questão do emprego. Isso, para mim... A inteligência artificial... O maior impacto, do ponto de vista social, é sobre o trabalho em várias frentes - não é só o deslocamento do trabalhador. À medida que a automação inteligente que se chama automação com inteligência artificial, está expandindo, já em curso a automação programada... O processo de automação já começou fortemente em meados... Principalmente no final do século passado. Então, o que está expandindo é que está entrando com funções cognitivas, mas é um processo - parte do que alguns de vocês comentaram - que tem a ver com a automação programada, que já está... Isto, às vezes, se confunde: o que é automação e o que é o uso da inteligência artificial. Mas essa discussão sobre trabalho é fundamental, e eu acho que precisa de políticas públicas em relação a essa questão.
O Conselheiro Davi? Está ali. Um pouco ao contrário, Conselheiro. O custo para rodar esse sistema só tem aumentado, porque está aumentando a quantidade de dados. O ChatGPT usou 175 bilhões de parâmetros de dados. Então, quanto mais dados você traz ao sistema, mais robusto ele é, maior o custo de rodar e, consequentemente, maior dano ao meio ambiente, porque você usa mais energia e emite mais CO2. Só para dar uma referência, custa à OpenAI para rodar por dia o ChatGPT US$700 mil. Então, esse é um dos fatores da enorme concentração de mercado, porque os sistemas robustos requerem grandes infraestruturas maquínicas e isso são poucas... Só para dar uma ideia, o ChatGPT proposto pela Meta, que é a holding do Facebook, divulgou que usou duas mil e poucas GPTs para rodar. Na USP, por exemplo, um sistema com o máximo de GPUs que nós temos - na USP - é cem. Então, olha a diferença, olha o que implica do ponto de vista de concentração de mercado.
R
A Conselheira aqui ao meu lado, a Patricia, ressaltou de empoderar o cidadão. Isso é muito importante. Eu faço uma analogia, que não é perfeita - longe disso - sobre o carro. Nós, como motoristas de carro, não sabemos em geral fazer um carro nem consertar um carro, mas nós sabemos como um carro funciona. A gente sabe que tendo um obstáculo tem-se que desviar; que se se parou no sinal, tem que frear e não acelerar. Então, eu acho que, do ponto de vista da inteligência artificial, do cidadão do século XXI, ele precisa ter uma noção desse funcionamento, qual é a lógica. Isso requer todo um tempo de assimilação, de divulgação de trabalho nesse ponto de vista. Como se capacita o cidadão do século XXI para ele entender pelo menos a lógica desse sistema?
Bom, para finalizar eu queria, na minha consideração final, primeiro agradecer extremamente ao... Cadê o Dr. Miguel? Saiu. (Risos.)
E à Comissão de estar participando desta consulta pública hoje.
Eu acho que a gente também, nessa discussão, precisa um pouco... Esse marco regulatório da inteligência artificial não vai resolver todos os problemas do Brasil. Então, a gente tem que, um pouco, separar: o que diz respeito à inteligência artificial; o que são outras questões a serem tratadas em outros fóruns, inclusive, com política pública. Senão a gente acaba confundindo e diluindo o foco que eu acho que a gente precisa ter.
Então é isso. Eu acho que nós temos um... A PL 2.338 é um excelente ponto de partida para discussão, mas eu faço um apelo a todos vocês, ao Congresso, ao Senado, que não precipitem a discussão, que levem em conta que o processo é tão importante quanto o resultado final e que nós precisamos ter alguma coisa de fato que reflita um estágio de maturidade dos legisladores, da sociedade em relação a essa questão. Nós precisamos de tempo para isso.
Então, muito obrigada mais uma vez.
O SR. PRESIDENTE (Miguel Matos) - Nós é que agradecemos.
Passo a palavra ao Dr. Juliano Carvalho.
O SR. JULIANO CARVALHO (Para expor.) - Vou tentar ser bastante breve com as perguntas que foram feitas.
Eu começo dizendo, respondendo à Bia - é uma alegria te reencontrar -, que eu acho que existem muitas questões lacunares entre esse projeto e o outro projeto, o substitutivo do Deputado Orlando, especialmente sobre a regulação algorítmica. E eu acho que a gente tem que conversar sobre isso.
R
Eu acho que o cenário recente, sobretudo o que foi dito nessa mesa, sobre esse tsunami que o ChatGPT e outras IAs generativas estão colocando, acho que, de fato, enseja o repensar sobre o que está previsto lá e o que está previsto aqui. Eu te diria assim inicialmente.
Agora, eu estou entendendo que tanto esse projeto quanto aquele - e Bia eu quero concordar muito contigo - é um projeto que garante direitos, mas é olharmos o tempo todo para a diversidade e a pluralidade que somos enquanto país. Há minorias e setores que são marginalizados e que precisam ter lugar de voz e de vez, porque, assim, é uma pergunta que todo mundo pode fazer, não é? Ou seja: onde é que estão os bancos de dados, a que muito bem se referiu a Profa. Dora, da OpenAI? Como é que eles são alimentados?
Tem até uma reportagem sobre banco de dados, neste final de semana, na imprensa, dizendo como é que elas estão sendo treinadas, inclusive o próprio acervo dessa empresa. E isso é algo que nos importa muitíssimo, para entender não tão-somente sobre os elementos idiossincráticos que eles estão produzindo, mas o significado que eles têm para nós.
Eu chamaria a atenção, respondendo ao José Antônio sobre o impacto, para o fato de que eu acho que têm vários estudos sendo produzidos nesse sentido. Não dá para afirmar assim peremptoriamente: "Olha, o impacto seria esse". A única coisa objetiva que a gente tem observado é que, no nosso campo comunicacional, setores criativos, etc., etc., isso já está em curso há muito tempo. E nós não estamos falando só de redução de postos de trabalho. Veja que essa não é uma audiência sobre direitos trabalhistas, mas, se nós desconsiderarmos que, junto com a apropriação do conteúdo, significa as transformações das cadeias produtivas, nós estaríamos ignorando algo que está passando junto. E por isso: fazer essa reflexão nesse lugar.
E me parece também a pergunta que foi feita pela internet, da Christiene Carvalho, sobre a maneira como esses direitos estão sendo pensados. Eu acho que ela deveria vir para a agenda desse PL. Eu acho que essa relação com os aplicativos deveria vir. Isso precisa ser colocado pelo Parlamento.
Conselheiro Davi, que alegria ouvi-lo falar aqui!
Eu vou divergir um pouco dos colegas e dizer que eu não acredito que a inteligência artificial, do jeito que ela está colocada hoje, vá combater fake news. Ao contrário. Ao contrário: ela vai ampliar exponencialmente. Estou muito preocupado com o que as crianças estão acessando, neste momento, na sala de aula. Estamos muito preocupados sobre o significado que tem sobre o Brasil e sobre a sociedade brasileira, sendo construído com vieses neste momento por essas inteligências. E essas coisas estão sendo dadas como verdade, muito embora todos aqui saibamos que a verdade é uma construção filosófica. Ainda que assim o seja, quem é que empresta a verificação dos fatos? Quem é que cria as condições de esclarecermos sobre isso?
E nós não podemos passar por isso, achando que tão-somente estamos fazendo uma regulação sobre direitos, princípios e elementos, com toda a qualidade que o projeto tem. Nós precisamos dar um passo um pouco mais adiante e enxergar que nós temos muitas assimetrias nesse país, inclusive assimetrias de apropriação tecnológicas, assimetria de alfabetização digital. E se nós não conversamos sobre isso, nós estamos legando à sociedade brasileira uma apropriação da tecnologia, como outrora fizemos com outras tecnologias, como se nós estivéssemos num baita nivelamento, do ponto de vista de uma apreensão coletiva sobre o conhecimento - e isso é mentira.
Nós temos que enxergar as assimetrias. Não podemos dizer que nós estamos o tempo todo regulando, quando muito bem foi dito pelos Conselheiros que todo mundo é acadêmico, que todo mundo tem uma certa literacia sobre tecnologia, que olha para elas e sabe fazer exatamente a pergunta correta para o ChatGPT ou outras IAs que estão na mesa. Não é verdade! As pessoas não só fazem algumas perguntas... Gente, um dado objetivo: nós somos um dos países que mais consome áudio no WhatsApp, porque nós somos um povo de tradição oral. Como é que isso vai significar para nós e como é que isso perpassa mais adiante?
R
Indo para a conclusão, eu queria falar rapidamente sobre...
Cumprimento, mais uma vez, a Comissão que elaborou o PL. Ele é um avanço. Eu acho que ele é uma baita conquista que os juristas fizeram e que é uma iniciativa muito importante.
Quero saudar o Presidente Miguel Matos e o Conselho, por essa altivez, pela capacidade de trazer esse debate, pela honra de poder contribuir com vocês.
E quero entender, gente, que, do meu ponto de vista, essa conversa é um ponto de partida e não de chegada, tanto no âmbito deste Conselho, no âmbito do Parlamento com no da sociedade brasileira, até porque a forma como isso está ganhando a sociedade em âmbito planetário, seja de temas mais delicados e sensíveis, como segurança nacional, a temas educacionais, eu acho que isso tem que ganhar outros foros, como muito bem disse a Profa. Dora.
Quero chamar a atenção para coisas... Não estamos falando de coisas triviais - o ChatGPT, em três meses, alcançou 100 milhões de usuários -, não estamos falando de uma apropriação, de narrativas que estão sendo construídas: "Ah, tem quatro, cinco pessoas usando isso", isso é exponencial; daí a preocupação como conversamos rápido sobre isso e traçamos a importância.
Dois últimos aspectos: a questão da autoridade ou da agência, como defende a Dora. Eu acho que nós temos que pensar nessas competências e no aspecto multissetorial. Isso é muito importante. Aí eu acho que tem um lugar especial para a área da comunicação.
E quero terminar com uma metáfora de meio-dia.
Certa ocasião, o repórter cinematográfico, que cobriu, fez aquela reportagem do massacre de 1996, em Eldorado dos Carajás, disse: "Naquele momento, quando eu estava com aquela câmera de vídeo filmando aquele massacre, aqueles sem-terra que estavam sendo assassinados, eu não tinha a chance de movimentar a câmera, de sentir outras emoções, eu tinha que filmar [e aqui vêm as aspas], porque, naquele momento, os meus olhos eram os olhos do mundo".
Não acredito numa comunicação que não seja mediada humanamente, porque a nossa história, o nosso legado, a nossa língua, Conselheiro Davi, dependem, fundamentalmente, das escolhas que nós estamos fazendo.
A tecnologia é neutra, mas o interesse que se tem sobre os grandes acervos dessa tecnologia pode ser impactante para as gerações futuras. Eu não queria que o meu filho, os nossos filhos e as próximas gerações tivessem um legado que nós não soubemos prever, de quanto a nossa capacidade de produzir a cultura e de ressignificá-la deveria ser uma arte nossa.
Muito obrigado pelo convite.
O SR. PRESIDENTE (Miguel Matos) - Obrigado.
O nosso Conselho de Comunicação Social, que é um órgão previsto na Constituição da República, tem a função de ser auxiliar do Congresso Nacional, e esta audiência pública nos trouxe valorosos ensinamentos que vão nos ajudar a, depois, elaborar um parecer sobre o projeto. Claro, como disse o Conselheiro Davi Emerich, esse projeto abarca uma grande gama de assuntos; nós só vamos tratar, especificamente, dos assuntos que são relativos à comunicação.
Eu queria registrar a presença de todos os Conselheiros, tanto dos que falaram como daqueles que não fizeram uso da palavra: Conselheiros Flavio Lara Resende, João Camilo, Valderez Donzelli, Maria José Braga, Elizabeth Costa, José Antônio, Fabio Mateus, Sonia Santana, Patricia Blanco, Davi Emerich, o nosso decano Fabio Andrade, Angela Cignachi, Daniel Queiroz e Bia Barbosa.
R
Agradeço, pela última vez, aos expositores, ao Exmo. Ministro Ricardo Villas Bôas Cueva, à Ilma. Dra. Laura Schertel, ao Ilmo. Dr. Walter Carnielli, à Ilma. Dra. Dora Kaufman e ao Ilmo. Dr. Juliano Carvalho.
Lembro aos membros do Conselho que, a partir das 14h, retornaremos a esta sala para a segunda parte da nossa reunião, de modo que - com uma refeição frugal, para podermos voltar a tempo - declaro suspensa a reunião.
(Iniciada às 09 horas e 06 minutos, a reunião é suspensa às 12 horas e 12 minutos.)
R
(Suspensa às 12 horas e 12 minutos, a reunião é reaberta às 14 horas e 05 minutos.)
O SR. PRESIDENTE (Miguel Matos) - Boa tarde a todos.
Declaro reaberta a 2ª Reunião, Ordinária, de 2023, do Conselho de Comunicação Social do Congresso Nacional, que, segundo o art. 39, §6º, do Regimento Interno, será dividida em cinco fases. Na verdade, nós vamos ter seis fases, mas enfim.
I - Leitura do Expediente.
II - Ordem do Dia:
- Item 1 - Posse das Conselheiras Patrícia Blanco, Elisabeth Villela da Costa e Bia Barbosa;
- Item 2 - Voto de aplauso ao Conselheiro Nascimento Silva;
- Item 3 - Esse item nós adiamos, eu explico daqui a pouco;
- Item 4 - Definição de convidados e datas de audiência pública sobre violência contra profissionais de comunicação e valorização da comunicação social;
- Item 5 (extrapauta) - nós vamos designar uma comissão para estudos, de modo a alterar a nossa legislação do Conselho de Comunicação Social e o nosso Regimento Interno.
III - Relatório de andamento dos trabalhos das comissões a serem proferidos pelos coordenadores.
O item IV nós ainda não temos.
IV - Comunicações dos Conselheiros.
V - Participação da Sociedade Civil.
Esta reunião será realizada em caráter interativo com a possibilidade de participação popular. Para isso, as pessoas que tenham interesse em participar com comentários ou perguntas podem fazê-lo por meio do Portal e-Cidadania, www.senado.leg.br/ecidadania, e do Alô Senado, pelo telefone 0800 0612211.
Comunico às Sras. Conselheiras e aos Srs. Conselheiros que temos, sobre a mesa da Presidência, para apreciação, a Ata da 1ª Reunião de 2023, enviada, com antecedência, por e-mail.
Não havendo objeção, proponho a dispensa de leitura e a discussão da ata.
As Sras. Conselheiras e os Srs. Conselheiros que a aprovam permaneçam como se encontram. (Pausa.)
Aprovada.
Comunico que foi expedido o Ofício do Conselho de Comunicação Social nº 2/2023, nos termos do art. 11 do nosso Regimento Interno, comunicando o Presidente do Conselho Nacional, Senador Rodrigo Pacheco, a ocorrência de seis vagas na composição deste Conselho:
I - titular de representação das empresas de imprensa escrita, diante da renúncia de Ricardo Bulhões Pedreira;
II - titular de representação dos artistas, diante da renúncia da artista Zezé Mota;
III - titular da sociedade civil, diante da renúncia de Luis Roberto Antonik;
IV - suplente da representação das empresas de televisão, diante da renúncia de Juliana Noronha;
V - suplente da representação das empresas de imprensa escrita, diante da renúncia da Conselheira Juliana Toscano Machado;
VI - suplente da sociedade civil, diante da renúncia de Dom Joaquim Giovani Mol Guimarães.
Informo ainda que esta Presidência recebeu, em 26 de maio, ofício do Sindicato dos Artistas e Técnicos em Espetáculos de Diversões do Estado do Rio de Janeiro, sugerindo o nome do Sr. Hugo Gross para a vaga de titular da representação dos artistas.
R
Em 2 de junho, recebemos cópia do ofício conjunto da Abert, Abratel, ANJ e Aner indicando Samir Nobre Maia e João Camilo Júnior para a representação das empresas de televisão, e Rafael Menin Soriano e Julio Cesar Vinha para a representação das empresas de imprensa escrita.
De acordo com o art. 4º, §2º, da Lei 8.389, de 1991, as entidades representativas dos setores mencionados podem sugerir nomes à Mesa do Congresso Nacional. Os novos Conselheiros precisam ser eleitos em sessão conjunta do Congresso Nacional.
Comunico que foram expedidos Ofícios nºs 3 e 4, de 2023, circular, informando aos Senadores e Deputados Federais a instalação do Conselho de Comunicação Social do Congresso Nacional. O ofício informa a atual composição do conselho, descreve as atribuições e anexa a Lei 8.389, de 1991, e o Regimento Interno do Conselho de Comunicação Social do Congresso Nacional.
Atendendo a pedido realizado pela Conselheira Maria José Braga, na primeira reunião de 2023, a secretaria do conselho realizou um levantamento dos projetos em tramitação, no Conselho Nacional, relacionados com a comunicação social. O levantamento foi enviado para todos os senhores e senhoras, por e-mail, separando os projetos que estarão em tramitação no Senado Federal e na Câmara dos Deputados.
Os documentos explicam os critérios de pesquisa utilizados para a listagem dos projetos.
Caso algum conselheiro queira incluir projetos na lista, basta informar o número do projeto à secretaria do conselho.
Acerca deste item da pauta, eu pergunto aos conselheiros se já conseguiram compulsar os projetos e se tem algum projeto o qual gostariam de fosse submetido ao Conselho, para deliberação de relatoria e eventual discussão depois? (Pausa.)
Ainda não?
A SRA. MARIA JOSÉ BRAGA - Presidente, recebi o material e mais uma vez agradeço a competência da equipe que nos assessora, mas é muita coisa, ainda não tive condições de fazer uma análise do que é o conteúdo daqueles projetos, para estabelecer o que, por exemplo, eu apontaria como prioridade de discussão aqui no CCS.
Então, a minha sugestão é para que a gente tome essa tarefa e na próxima reunião a gente venha, cada Conselheiro aí, apontando o que considera como prioridade de posicionamento do Conselho.
O SR. PRESIDENTE (Miguel Matos) - Perfeito.
Eu faço só uma colocação que o nosso decano, Davi Emerich, já tinha feito, que é para verificar também, além do projeto, da temática, em qual estado está o projeto, porque às vezes o projeto não foi nem deliberado ainda por uma relatoria, esse projeto não teve sequência, então nós vamos debater um projeto que nem sequer nós sabemos se teve sequência. Então, é preferível priorizar o que já está na ordem do dia, o que já está na pauta, para a gente poder discutir.
Mais alguém quer falar?
O SR. RENATO GODOY DE TOLEDO (Por videoconferência.) - Presidente?
O SR. PRESIDENTE (Miguel Matos) - Sim.
R
O SR. RENATO GODOY DE TOLEDO (Por videoconferência.) - Renato aqui, online.
Então, a minha dúvida...
Primeiramente, boa tarde a todas e todos.
Uma dúvida: então, a gente faria essa deliberação e essa distribuição das relatorias na próxima reunião, em julho? Ou a gente faria isso ao longo do nosso mês de trabalho aqui?
O SR. PRESIDENTE (Miguel Matos) - Não, não. Nós faríamos... As deliberações são feitas sempre publicamente na sessão.
O SR. RENATO GODOY DE TOLEDO (Por videoconferência.) - Correto.
Então, a gente tem como tarefa aqui fazer esse pente-fino e identificar quais estão com tramitações mais avançadas. E voltamos na próxima reunião.
O SR. PRESIDENTE (Miguel Matos) - Claro, claro. Perfeito.
O SR. DAVI EMERICH - Presidente, eu acho o seguinte: a pandemia nos colocou, inclusive para o Conselho, uma nova realidade. Antigamente, praticamente não havia concordância nenhuma aqui em se discutir projetos em rede, em meios virtuais e tal. O Senado e a Câmara passaram a adotar, nas Comissões e principalmente no Plenário, sessões plenárias virtuais.
Parece-me muito difícil para nós manter a mesma posição anterior do Conselho de só deliberar ou, então, só analisar matérias a partir de definição das reuniões ordinárias. Por quê? A política é algo muito dinâmico. Ela é muito dinâmica. É algo muito dinâmico. E, de repente, entra um projeto em pauta que não dá para esperar um mês para o Conselho se pronunciar.
Eu não sei se é o caso de decidir isso aqui agora, mas nós vamos ter de criar um procedimento para dar mais agilidade a acompanhar projetos ricos, vivos, que estão na Ordem do Dia ou que entrem na Ordem do Dia, porque muitas vezes alguém pega um projeto desse e coloca... Quando você vai acordar para aquilo, já passou, e o Conselho acaba não se pronunciando sobre ele.
Então, em função até de o Senado já fazer isso, de a Câmara fazer isso e de as Comissões fazerem isso, eu acho que nós temos de pensar seriamente em distribuir relatorias mesmo fora das reuniões ordinárias e até, talvez, deliberar fora das reuniões ordinárias.
Eu não sei se é com o Walmar, se isso pode ser feito dentro de algum aplicativo da Casa, mas eu acho que o Conselho tem de inovar nisso urgentemente, porque não dá para ficar esperando, de mês em mês, porque a gente fica fora do processo político real.
O SR. PRESIDENTE (Miguel Matos) - Sim, mas são reuniões extraordinárias. Nesse caso da Câmara...
O SR. DAVI EMERICH - Sim, seriam extraordinárias, mas a distribuição você pode ter tanto em reuniões extraordinárias como a distribuição de projetos fora de reunião ordinária. Então, você não precisa de uma reunião extraordinária para distribuir uma relatoria.
O SR. PRESIDENTE (Miguel Matos) - Sim.
O SR. DAVI EMERICH - Eu acho que aí o Presidente, ouvindo, sei lá, parte ou todo o grupo, fala: "Nós vamos indicar fulano, para que, na próxima reunião, daqui a 10 ou 15 dias, já possa trazer um parecer". Você não tem que esperar a reunião acontecer, para indicar o Relator e esperar para a próxima reunião do dia 30... Aí Inês já é morta.
Então, eu acho que a gente tem de criar mecanismos para modernizar um pouco essa dinâmica aí do Conselho.
O SR. PRESIDENTE (Miguel Matos) - Está bem. Nós vamos avaliar isso e, eventualmente, a gente já toma essa decisão.
Mais alguém? (Pausa.)
Bom, sobre a convocação de suplentes para reuniões do Conselho, informo que, nos termos do art. 16, parágrafo único, do nosso Regimento Interno, em casos de presença do membro titular à reunião, não serão custeadas as despesas do seu respectivo suplente para comparecer à reunião, salvo quando, a juízo do Presidente, for imprescindível para o Conselho a presença do suplente.
Lembro que, de acordo com o caput do citado no artigo, o membro suplente do Conselho de Comunicação Social poderá comparecer às reuniões, podendo participar dos debates e apresentar sugestões. O que não há é o custeamento das despesas do deslocamento.
E, agora, com a possibilidade de as reuniões serem híbridas, a participação ainda fica totalmente ampla.
R
Assim, gostaria de deliberar com o Conselho o estabelecimento de um critério para a convocação excepcional de suplentes que não estejam substituindo seus respectivos titulares, ressalvando que, quando se tratar de audiências públicas, os suplentes podem participar de forma remota, nos termos do art. 5º, inciso II, do Ato da Comissão Diretora 1/2023.
Em discussão.
Eu só queria, antes, fazer uma ponderação com os senhores, dizer que nós ficamos com o Conselho sem instalação durante um longo período e nós temos responsabilidades orçamentárias às quais nós devemos nos adequar também para não onerar o Legislativo com muitos gastos, além do que nós pretendemos fazer... Hoje, por exemplo, a reunião foi extremamente profícua. Se nós pudéssemos fazer isso outras vezes...
Os nossos Conselheiros suplentes, de fato, são muito relevantes, mas a participação seria, quando fosse, na minha opinião, de fato, essencial; ou seja, se formos tratar aqui de um projeto de lei que diga respeito aos artistas, é preciso ter os artistas aqui, tanto o suplente quanto o titular; se fôssemos tratar de um projeto de lei sobre os radialistas, teríamos que ter os dois, o titular e o...
Acho que, dessa forma, a gente consegue atender às regras de Tribunal de Contas, que obviamente vai querer escrutinar. E nós temos compromisso com a legalidade e com o bom andamento dos trabalhos aqui no Conselho. Enfim, eu estou me adiantando aqui.
Em discussão. (Pausa.)
Com a palavra, Conselheira.
A SRA. MARIA JOSÉ BRAGA - Obrigada, Presidente.
É claro que o Conselho é um órgão do Congresso Nacional, segue as regras do Congresso Nacional, e nós, como Conselheiros, temos uma preocupação, sim, com o funcionamento do Conselho e com o financiamento do Conselho.
Mas eu queria ponderar a importância da incorporação dos suplentes nos trabalhos do Conselho de Comunicação. Nós temos um número de Conselheiros pequeno. Eu creio que, se a gente... Os conselhos, geralmente, são muito mais numerosos. Nós temos um número pequeno de Conselheiros, e a contribuição dos suplentes para o trabalho...
Eu acredito que, no nosso caso dos jornalistas, cuja categoria é representada aqui por mim e pela Beth, é fundamental que nós tenhamos condições de trabalho conjunto, porque nós somos representantes dos trabalhadores, nós somos de entidades que não têm recursos para contratação de assessoria por fora, para elaboração de pareceres, para o acompanhamento. E aí, até pela própria proposição que o Conselheiro Davi acaba de fazer no sentido, inclusive, de que a gente não espere reuniões mensais para, eventualmente, se pronunciar, para ter análise de propostas que estejam tramitando, acho que a gente tem que fazer um esforço, sim, de ter os Conselheiros suplentes incorporados ao trabalho.
Eu não creio que haja impedimento no Regimento - creio que não -, e a gente tinha uma resolução interna da participação dos Conselheiros suplentes nas Comissões. Então, acho que a gente pode resgatar essa... É uma resolução... O Walmar pode me ajudar: se era uma resolução do próprio Conselho, se é esse nome que tecnicamente se dá - agora não me ocorre aqui de memória. A gente poderia fazer esse esforço e resgatar essa deliberação do passado recente deste Conselho, já que o Conselho é recente, e tentar fazer essa incorporação.
R
Obrigada.
O SR. PRESIDENTE (Miguel Matos) - Perfeito.
Conselheiro João Camilo.
O SR. JOÃO CAMILO JÚNIOR - Não, é só porque eu acho, Presidente, que nem todo mundo escutou quando o senhor falou, aquela vez, até foi fora do Conselho, sobre aquela questão do TCU. Eu acho que seria bom colocar todo mundo na mesma página por conta disso.
Concordo plenamente com a participação dos suplentes, não tem como discordar disso. Mas eu acho que é muito bom o senhor pontuar em relação à questão de que o Conselho já foi questionado pelo órgão de controladoria.
O SR. PRESIDENTE (Miguel Matos) - Sim.
A ideia das comissões foi um ato do Conselho, na verdade, não está no nosso Regimento. Nós vamos criar comissões... Até eu estou sugerindo uma comissão aqui nesse item, incluindo até Conselheiros que são suplentes, ou seja, na hora de dividir tarefas, nós vamos também ver, olhar para os suplentes que tenham capacidade para isso, nós vamos fazer da mesma maneira. Então, não vai haver essa restrição.
O que acontece só é que, como há hoje a possibilidade de fazer reuniões híbridas, não há justificativa... Veja, a lei é muito clara, a lei diz, porque o nosso Regimento é lei: "... for imprescindível para o Conselho a presença do suplente". É uma questão apenas de seguir a lei estritamente aqui, nos termos dela. Quando nós deliberarmos algum relatório de um suplente, por exemplo, no dia em que for feita a apresentação, é óbvio que é imprescindível. E, da mesma maneira, é como eu disse: se nós fomos deliberar sobre um assunto que diga respeito àquele setor, nós entendemos, podemos entender, de uma maneira um pouco mais ampla, que é imprescindível a presença dele também para poder ajudar nos debates. Então, eu acho que dessa forma acaba ficando todo mundo atendido.
O SR. DAVI EMERICH - Presidente...
O SR. PRESIDENTE (Miguel Matos) - Sim, Conselheiro Davi.
O SR. DAVI EMERICH - ... então, o senhor está afirmando o seguinte: qualquer perspectiva de autorizar a presença sempre de todos os suplentes está descartada, ou seja, há um modelo, o suplente será chamado em função de atividades concretas de relatórios, de comissão, é isso?
O SR. PRESIDENTE (Miguel Matos) - Exato, porque...
O SR. DAVI EMERICH - Então, essa discussão a gente não faz mais...
O SR. PRESIDENTE (Miguel Matos) - Essa discussão a gente não faz mais, e digo por que: é o que diz a lei. Senão, a lei diria o contrário. Ela diz justamente que é excepcional a vinda do Conselheiro suplente, é isso que está dizendo a lei. Então, nós vamos tratar como deve ser.
O SR. DAVI EMERICH - E nós estamos falando de passagem e de diária, porque quem mora em Brasília pode participar de todas as reuniões...
O SR. PRESIDENTE (Miguel Matos) - Sim.
O SR. DAVI EMERICH - ... e aquela entidade cujo suplente tiver condições, mesmo fora desses parâmetros que a Presidência está colocando...
O SR. PRESIDENTE (Miguel Matos) - Sim.
O SR. DAVI EMERICH - ... quem puder colocar o suplente aqui também tem toda...
O SR. PRESIDENTE (Miguel Matos) - Claro. Mas o suplente tem direito à fala aqui ou online o tempo inteiro. Estamos aqui. Se quiser se manifestar, inclusive, estamos...
A SRA. PATRICIA BLANCO - Eu acho que esse ponto é importante. É facultado o direito de participação do suplente. O que não é regimentalmente colocado dentro da lei é o subsídio para o pagamento de passagem do suplente, caso o titular esteja presente. Esse é o ponto.
R
O SR. PRESIDENTE (Miguel Matos) - Exatamente.
A SRA. PATRICIA BLANCO - Só para a gente definir do que a gente está falando. A gente está falando de uma questão orçamentária.
O SR. PRESIDENTE (Miguel Matos) - No caso, o Presidente responde, inclusive, pecuniariamente, porque eu vou alegar, vou ter que colocar a imprescindibilidade ou não. Então, precisa ter, de fato, o caráter imprescindível.
Conselheiro José Antônio.
O SR. JOSÉ ANTÔNIO DE JESUS DA SILVA - Só para ficar claro, para a gente entender o que seria imprescindível. Numa audiência pública, não seria imprescindível a participação de todos? Por ter interesse mais amplo, enfim.
O SR. PRESIDENTE (Miguel Matos) - Mas, da audiência pública, é possível participar via online, como é possível participar de todas as reuniões, inclusive.
O SR. FLAVIO LARA RESENDE - Presidente, eu acho que, como diz o João Camilo, realmente, podendo participar, é fundamental que participem os suplentes, mas eu acho que, como a gente cobra todos os dias do Congresso Nacional, a gente tem que dar exemplo também.
O SR. PRESIDENTE (Miguel Matos) - Conselheira Maria José.
A SRA. MARIA JOSÉ BRAGA - Bom, para as coisas ficarem bem claras e não ter absolutamente nenhuma dúvida do que eu estava dizendo, eu queria reforçar que o que eu disse é para nós incorporarmos os suplentes no trabalho. Ninguém está pedindo que suplente venha passear aqui no Congresso, até porque não é nenhuma vantagem e nenhum prazer passear no Congresso Nacional.
O que eu disse e reforço é a importância de incorporarmos os suplentes no trabalho do Conselho. Aí significa relatoria, significa estudos, significa pareceres. Os suplentes, contribuindo para o funcionamento deste importante Colegiado.
Obrigada.
O SR. PRESIDENTE (Miguel Matos) - Conselheira, perfeito.
Inclusive, essa foi a minha ideia original. Sempre que tivermos, nós não vamos abdicar de utilizarmos da mão de obra, da capacidade dos Conselheiros para isso.
Depois, nós vamos deliberar juntos aqui e vamos passar para os suplentes, se for o caso.
Bom, algum outro Conselheiro gostaria de falar sobre estes temas?
Vamos passar para a Ordem do Dia, então.
Perdão. Conselheiro Fabio.
O SR. FABIO ANDRADE - Primeiramente, um salve aos colegas Conselheiros.
Parabenizo esta primeira parte da manhã, que acho que foi um momento até histórico. É uma pauta que vai se perdurar durante muito tempo. E entramos com o pé direito. Foi uma manhã muito proveitosa.
Quanto a essa questão de suplente e titular, a gente também, quanto à questão dos artistas, acha importante a participação. Então, a gente ressalva a fala da Maria José nesse sentido e entende totalmente essa questão financeira e do trâmite legal das coisas. É importante a participação não ficar isenta.
Como o Presidente comentou, caso, salvo uma pauta exclusiva do tema, que aborde a necessidade da presença dos dois, do titular e do suplente, se puder ser contemplado, ótimo. Fica resolvida a questão.
Agradeço também o recebimento do material do Sindicato dos Artistas, especialmente, à Secretaria, que, sempre, prontamente, atente bem todas as necessidades do Colegiado
É isso.
R
O SR. PRESIDENTE (Miguel Matos) - Perfeito.
Não havendo mais manifestações, passamos à Ordem do Dia.
Posse das Conselheiras Patricia Blanco, Elizabeth Villela da Costa e Bia Barbosa.
Convido para assinar o termo de posse, inicialmente, a Conselheira Patricia Blanco, Conselheira titular, representante da sociedade civil, já aclamada como Vice-Presidente desta composição do Conselho.
Há um ato para tirar foto, um ato formal. (Pausa.)
Convido para assinar o termo de posse a Conselheira Elizabeth Villela da Costa, Conselheira suplente, representante da categoria profissional dos jornalistas. (Palmas.)
Convido para assinar o termo de posse a Conselheira Beatriz Costa - Bia Barbosa. (Palmas.)
Parabéns.
Declaro empossadas as Conselheiras Patricia Blanco, Elizabeth Vilela da Costa e Bia Barbosa.
Consulto se gostariam de fazer uso da palavra.
A SRA. PATRICIA BLANCO - Quero só agradecer, já fiz isso na primeira reunião...
O SR. PRESIDENTE (Miguel Matos) - A palavra está aberta. (Risos.)
A SRA. PATRICIA BLANCO - Obrigada. Muito obrigada, Presidente. Obrigada a todos.
Vamos lá, vamos trabalhar, que é o mais importante.
A SRA. ELIZABETH VILLELA DA COSTA - Eu também estou muito honrada de estar compondo o Conselho.
Lembrando um pouco, historicamente, foi na época em que eu era Presidente da Federação Nacional dos Jornalistas que a proposta do Conselho de Comunicação Social foi aprovada pelo Congresso Nacional, lá naquele momento histórico, depois de muita luta da sociedade civil para ele ser instalado.
Então, é muita honra agora participar como membro suplente desta brilhante profissional que é a Maria José Braga.
O SR. PRESIDENTE (Miguel Matos) - Conselheira Bia.
A SRA. BIA BARBOSA - Obrigada, Presidente.
Eu queria... Fiquei muito feliz de entrar hoje aqui, porque faz dez anos que eu acompanho as sessões do CCS, sentadinha aqui na última fileira, pela sociedade civil.
Como a Beth muito bem lembrou, acho que houve uma luta muito intensa da sociedade civil para que este Conselho fosse instalado e para evitar as vacâncias, os longos períodos sem funcionar. Espero que a gente consiga, nesta gestão, garantir a continuidade do funcionamento sem nenhuma pandemia no meio do caminho.
Queria agradecer muito ao Davi Emerich pelas trocas e contribuições. Vai ser uma honra poder ser sua suplente aqui e contribuir com o Conselho em nome da sociedade civil.
Obrigada.
R
O SR. PRESIDENTE (Miguel Matos) - Decano tem sempre o direito a falar.
O SR. DAVI EMERICH - É porque a palavra final sempre é do Presidente.
Presidente, eu fico muito contente quando eu vejo as mulheres se empoderarem em todos os lugares, mas principalmente aqui, no Conselho de Comunicação, onde a gente está neste momento.
Quanto à Patricia, assim, não é preciso falar nada. A Patricia já é quase um patrimônio deste Conselho de Comunicação Social, de uma competência enorme para acompanhar as questões de comunicação, exarar relatórios, a Patricia participa de seminários aqui, no Congresso. Então, é uma pessoa que eleva muito o nome do Conselho, e agora, na condição de Vice-Presidente, muito mais.
Quanto à Beth Costa, desde quando eu fui Diretor do Sindicato dos Jornalistas, a gente já ouvia falar da Beth Costa. Ela era brava, danada, brigona que só. Então, a Beth é uma referência no movimento sindical dos jornalistas, sempre na linha de frente, sempre ponderada com opiniões firmes. Dedicou a vida dela também à página da democracia no Brasil, à liberdade de imprensa. Então, eu também fico muito contente de tê-la aqui, do lado, juntamente com essa guerreira aqui, que também não é fácil não, briga bastante.
E a Bia é uma amiga. Talvez a Bia seja uma das pessoas que mais conhece tramitação de propostas, projetos no Congresso. É um quadraço da comunicação social. Eu não tenho dúvida de que ela vem para dar uma força. Mesmo na condição de suplente, certamente vai relatar muito projetos; aqueles mais trabalhosos vão cair na sua mão.
Então, realmente, eu fico muito contente, até orgulhoso, de estar numa formação do Conselho que tem a presença dessas companheiras e de outras obviamente.
O SR. PRESIDENTE (Miguel Matos) - Falando em nome do Conselho o decano, como deve ser. Está certo.
Bom, item 2 da pauta.
Voto de aplauso ao Conselheiro Nascimento Silva.
A partir de proposta dos Conselheiros José Antonio de Jesus e Edwilson da Silva, o Conselho de Comunicação Social do Congresso Nacional vem a público emitir um voto de aplauso ao Conselheiro Nascimento Silva por sua atuação como representante da categoria profissional dos radialistas na terceira e na quarta composições deste Colegiado, durante os anos de 2012 a 2017.
Nos dois mandatos em que atuou no Conselho de Comunicação Social do Congresso Nacional, o Conselheiro Nascimento Silva destacou-se pela maneira enérgica com que defendeu as pautas de interesse não apenas da categoria dos radialistas, mas também de todas aquelas que considerava de interesse da sociedade.
Mesmo morando no interior de Minas Gerais e precisando sair de sua cidade com dois dias de antecedência, esforçou-se para não faltar a nenhuma reunião do Conselho de Comunicação Social, especialmente quando ficou sem suplente durante a terceira composição.
Entre os trabalhos realizados pelo Conselheiro Nascimento Silva estão participações na relatoria do Estudo n° 1, de 2017, sobre projetos de lei que tratam de bloqueio de sites e aplicativos; do Parecer nº 6, de 2017, que analisa projetos de lei sobre restrições às transmissões radiofônicas e televisivas ao vivo ou gravadas de audiências e julgamentos; e do Parecer nº 5, de 2013, que analisa a federalização de crimes contra jornalistas e radialistas.
Este Conselho reconhece o trabalho de destaque realizado pelo Conselheiro Nascimento Silva e registra, em seus Anais, este merecido voto de aplauso. (Palmas.)
R
Consulto se algum Conselheiro gostaria de se manifestar. (Pausa.)
A SRA. BIA BARBOSA - Acho que, no mesmo espírito do que acabamos de falar aqui, eu queria reconhecer o trabalho do Nascimento, porque este é um Conselho tripartite, que tem representação da sociedade civil, dos setores de trabalhadores e das empresas, e o Nascimento, mesmo sendo representante de uma categoria trabalhista, assim como a Maria José, sempre foram pessoas às quais eu pude, durante muito tempo, enquanto sociedade civil, recorrer, para trazer as nossas demandas e os nossos pleitos e as nossas preocupações sobre os temas que estavam sendo discutidos aqui no Conselho de Comunicação Social. E, da mesma forma, as suplências da Fenaj, da Fitert também, na figura do Zé Antonio...
Então, eu acho que tem um espírito dos Conselheiros aqui muito colaborativo e acho que, na sessão inicial, na primeira reunião - na qual eu não estava presente, mas à qual assisti pela internet -, o Davi Emerich lembrou os acalorados embates entre o Nascimento e o Ceneviva, e eu acho que um Conselho tripartite vai ter acalorados embates e que vou protagonizar alguns aqui talvez.
Eu acho que sempre foi um espaço de muito respeito e de escuta e um exemplo de como o Congresso Nacional pode acolher diferentes setores e diferentes representações da sociedade civil, num esforço justamente de contribuir para o trabalho dos Parlamentares aqui, não só do Senado, mas da Câmara também, lembrando sempre que este é um Conselho do Congresso.
Então, eu queria deixar... Eu sei que o Nascimento deve estar assistindo a gente agora. Eu queria deixar um abraço muito grande agradecimento pelo trabalho dele, desejar pronta recuperação para os desafios que ele está enfrentando nesse momento, e parabenizar o Conselho, por ser esse espaço que permite esse tipo de participação e de representação. (Palmas.)
O SR. PRESIDENTE (Miguel Matos) - Conselheira Maria José?
A SRA. MARIA JOSÉ BRAGA - Obrigada, Presidente.
Eu também só queria dizer o quanto esse voto de reconhecimento do Conselho à participação do Nascimento aqui é importante para a história do Conselho, é importante para essa formação do Conselho, que tem esse caráter tripartite, e creio que seja bastante importante para o Conselheiro, que, neste momento, está com o desafio de se recuperar de um problema de saúde bastante grave.
O Nascimento, enquanto ele esteve aqui, teve o título de "briguento-mor", que agora o Davi quer atribuir a mim... (Risos.)
... mas eu quero dizer que o compromisso do Nascimento era com o debate franco, o debate aberto, o debate sem subterfúgios, para que nós tivéssemos aqui, neste Conselho, as melhores opiniões para serem levadas para o Congresso Nacional.
Esse foi o trabalho dele, e ele fez isso com muito afinco, fez isso, sim, com muita garra, com muita determinação, e eu fico muito satisfeita que isso seja reconhecido como uma virtude.
Muito obrigada. (Palmas.)
O SR. PRESIDENTE (Miguel Matos) - Eu ia propor um voto de censura ao Davi, que disse que a Conselheira é a mais briguenta, porque, não é verdade, ela é combativa, e é bom que as mulheres sejam assim.
(Intervenção fora do microfone.)
O SR. PRESIDENTE (Miguel Matos) - O item 3 da pauta é a designação de Comissão para acompanhamento de projeto da lei de fake news...
Eu queria fazer uma sugestão para a gente adiar esse tema, porque nós vamos tratar dele; na próxima sessão nós faríamos uma audiência pública.
R
Nós faríamos uma audiência pública. Eu achei que foi bem profícua a audiência, como eu já disse, e a gente pode repetir esse modelo, que acho que vai funcionar bem, para a gente poder aprender sobre os temas e poder discutir.
Seguindo o nosso compromisso, nós teríamos na próxima sessão, que vai ser no dia 3 de julho, audiência pública sobre violência contra profissionais de comunicação, do que nós vamos tratar, daqui a pouco, no próximo item.
E, na outra sessão, em agosto, nós iríamos continuar com este tema da inteligência artificial da seguinte maneira. Nós tivemos hoje um espectro grande sobre o assunto e iríamos reduzir para o item que nos interessa aqui na comunicação social. Eu sugeriria à Conselheira Patrícia Blanco para nos orientar nisso e nos trazer na próxima sessão já qual é o nosso escopo para que nós pudéssemos deliberar sobre quem nós convidaríamos para participar, mas aí já focado na nossa área de interesse. É claro que, mesmo sendo na nossa área de interesse, ainda vai ter uma certa amplitude, mas nós poderíamos reduzir um pouco o assunto para a gente não poder tratar de assuntos comerciais e de outras questões que não são do nosso tema aqui, objeto de discussão aqui do Conselho.
Depois dessa sessão de agosto, nós deliberaríamos por uma sessão em setembro para tratar de fake news. E aí a gente faria em outro modelo, tentaria atender todos os interesses, pois esse projeto é um projeto meio grande, e tentaria fazer de outra maneira. Se puder ser assim, a gente adia esse tema para a próxima.
No item 4, definição de convidados e datas de audiências públicas, sugiro o seguinte: hoje, neste modelo, para nós aprendermos um pouco, a sessão de audiência pública ficou um pouco mais longa do que deveria, na minha opinião, sobretudo porque o tema também demandava. Se nós pudéssemos diminuir um pouco o número de convidados, para que, em vez de quatro ou cinco, pudessem ser três ou quatro, isso facilitaria um pouco o andamento dos trabalhos. Em vez de ser às 9h, nós começaríamos às 10h para terminar ao meio-dia. Não sei se vocês concordam com isso... Seria uma maneira de... Sobretudo porque as pessoas que vêm de fora, às vezes, acabam chegando em cima da hora... Se puder ser dessa forma... Começando às 10h e com três pessoas, para que nós pudéssemos debater... Hoje, por exemplo, nós fomos ficando um pouco agredidos no horário e não conseguimos às vezes...
Pois não, Conselheira. É para falar mesmo...
A SRA. BIA BARBOSA - É só para deixar uma sugestão.
Eu acho que com três pessoas fica bastante restrito do ponto de vista da diversidade dos temas que a gente tem pela frente. Eu sugeriria que a gente mantivesse com quatro e que reduzisse um pouquinho o tempo de exposição de cada um. Hoje, cada um falou 15 minutos, mas a gente poderia reduzir para 10 minutos, para garantir. E aí faríamos um esquema de interlocução com os Conselheiros que foi o que a gente adotou da metade para frente, o que eu acho que é mais produtivo, pois são blocos de perguntas...
O SR. PRESIDENTE (Miguel Matos) - Ótimo.
A SRA. BIA BARBOSA - Com a gente fazendo uma pergunta, uma resposta, uma pergunta...
O SR. PRESIDENTE (Miguel Matos) - Ótimo.
A SRA. BIA BARBOSA - ... a tendência é a gente...
O SR. PRESIDENTE (Miguel Matos) - Repetir, não é?
A SRA. BIA BARBOSA - É. Então...
O SR. PRESIDENTE (Miguel Matos) - E repete os mesmos...
A SRA. BIA BARBOSA - Eu acho que é mais dinâmico, mas aí garante uma mínima diversidade na composição da mesa.
O SR. PRESIDENTE (Miguel Matos) - Eu concordo.
A SRA. PATRÍCIA BLANCO - Eu queria sugerir que a gente começasse às 9h30 e não às 10h, porque acho duas horas pouco tempo para esse tema. Acho que com duas horas e meia, seguindo essa recomendação de diminuir...
R
Podemos diminuir de cinco para quatro, ou até podem ser cinco, mas com dez minutos cada um, reduzindo o tempo dos Conselheiros, para ter uma rodada mais rápida de conversas, porque a conversa mais aprofundada sobre os temas a gente pode fazer na nossa reunião. Então, ficariam, durante as audiências públicas, mais perguntas do que colocações do Conselheiro. Deixaria assim para que a gente pudesse trabalhar o tema nas reuniões.
O SR. PRESIDENTE (Miguel Matos) - Conselheiro Flavio? Não? (Pausa.)
Conselheira Maria José.
A SRA. MARIA JOSÉ BRAGA - Eu acho que a gente não precisa de ter uma regra fixa para isso. A primeira questão. A gente vai ter audiências públicas com temas mais abrangentes, que vão exigir, portanto, uma diversidade maior de participação, e nós poderemos ter audiências públicas mais focadas, com temas mais específicos, em que a gente possa ter um bom debate com um número menor de expositores.
Então, como eu acho que a gente não precisa de definir: "Ah, vão ser quatro, vão ser cinco, vão ser três", e, em todas elas, nós vamos debater inclusive quem nós vamos convidar, a gente faz essa avaliação em cada caso.
É a minha ideia.
E, quanto ao tempo, acho que a gente pode começar 9h30, com previsão de encerrar ao meio-dia, mas obviamente podendo se estender 15 minutos, 20 minutos, para que o debate no Conselho não fique prejudicado.
O SR. PRESIDENTE (Miguel Matos) - Conselheiro Daniel.
O SR. DANIEL JOSÉ QUEIROZ FERREIRA - Eu acho dez minutos muito pouco. Não me coloque para falar em dez minutos, que eu não vou conseguir. Independentemente de quem tem o perfil ou não para falar rápido, a gente trata de assuntos complexos. Então, não dá para chamar uma pessoa, entendendo que ela vai contribuir com o tema expondo em dez minutos. Eu acho muito pouco.
O SR. PRESIDENTE (Miguel Matos) - Certo.
Conselheiro Flavio.
O SR. DANIEL JOSÉ QUEIROZ FERREIRA - Agora, só para, desculpa, reforçar, desculpe...
O SR. PRESIDENTE (Miguel Matos) - Claro.
O SR. DANIEL JOSÉ QUEIROZ FERREIRA - ... acho muito legal essa dinâmica de perguntas e depois a resposta, porque eu acho que isso resolve boa parte da otimização do tempo.
Desculpe a interrupção.
O SR. PRESIDENTE (Miguel Matos) - Sim.
Conselheiro Flavio.
O SR. FLAVIO LARA RESENDE - Eu acho que ele tem razão, dez minutos é pouco, mas eu acho que nós poderíamos pautar as pessoas que vierem, para que possam trazer uma apresentação mais rápida. Hoje, por exemplo, nós tivemos algumas apresentações que eu acho que demandariam uma discussão muito maior. Por exemplo, o Luciano fez uma apresentação superclara e super-rápida.
(Intervenção fora do microfone.)
O SR. FLAVIO LARA RESENDE - Juliano, desculpa. Juliano. Ele fez uma apresentação superclara e bastante rápida, apesar de ter tomado... Mas ele cravou no tempo certinho. Agora, entre dez ou quinze minutos, é igual artigo, não muda muito. Quinze minutos também é pouco. Então, dez minutos eu acho que seria um prazo bastante satisfatório, e nós teremos que discutir depois e pensar se não faremos mais uma audiência, se necessário, sobre o tema - quando assim for necessário.
O SR. PRESIDENTE (Miguel Matos) - Perfeito.
Conselheiro Davi, nosso decano. (Risos.)
O SR. DAVI EMERICH - Esse negócio de decano... ele está me sacaneando.
Presidente, eu acho o seguinte. Eu também acho que dez ou quinze minutos... O Presidente vai perceber muitas vezes que vai a 20 minutos; se o assunto estiver rico, vai a 20 minutos. Eu acho que se pode até estabelecer dez, mas com uma certa tolerância da Presidência para esticar ou diminuir.
R
Mas eu acho que o mais importante é definir o que nós queremos fazer. A gente já definiu que é um seminário... Não é contra profissionais da imprensa, não; é um seminário sobre violência contra os profissionais de comunicação - os profissionais da comunicação. E me parece que, como tudo está mudando, não é mais "assassinaram em Alagoas", "assassinaram um jornalista não sei onde"; é que tipo de violência que a gente vai abordar. Isso também, claro. Assassinato é o ápice da violência contra jornalistas. Mas, por exemplo, eu acho que a Beth, a Maria José e a Bia talvez estejam até mais "a amazona" - para não falar a cavaleiro - para cercar esse tema. De que violência nós vamos tratar? Por exemplo, a violência das PJs... PJ é uma violência? Trabalhar 24 horas em tempo real é uma violência? Assédio moral... Tem algum novo tipo de assédio moral na profissão?
Então, eu acho que nós temos de definir o escopo do seminário e sermos modernos no escopo do seminário.
O SR. PRESIDENTE (Miguel Matos) - Eu acho que nós temos que tomar cuidado só com o seguinte. Perdão interromper, mas é para a gente não entrar numa discussão em que nós vamos entrar em discussões trabalhistas. Essas questões acabam resvalando em questões que são trabalhistas, que não são objeto do nosso...
O SR. DAVI EMERICH - Sim, mas se você...
O SR. PRESIDENTE (Miguel Matos) - Isso é comissão de trabalho.
O SR. DAVI EMERICH - Se você for discutir violência contra jornalistas e redundar em assassinatos, é melhor não ter o seminário, porque é uma coisa já tão batida e tal...
O SR. PRESIDENTE (Miguel Matos) - Mas existem...
O SR. DAVI EMERICH - Eu acho que existe um nível de violência hoje... E não estou falando só contra o profissional, não; contra as empresas, os veículos das empresas, por exemplo. Têm que estar no rol dessa questão, por exemplo, as empresas que não conseguem trabalhar... Tem uma série de coisas. Então, eu acho que nós temos de definir com precisão o que vai ser o escopo do nosso seminário, senão, a gente se perde, entendeu? Até para poder convidar as pessoas certas para isso.
Eu acho que tanto o companheiro aí que está mais do lado das empresas como a Beth, a Maria José e a Bia talvez tenham até mais condições do que eu ou do que qualquer um da gente para definir isso, mas é preciso definir esse escopo.
O SR. PRESIDENTE (Miguel Matos) - E qual é o escopo?
O SR. DAVI EMERICH (Fora do microfone.) - Não sei.
A SRA. MARIA JOSÉ BRAGA (Fora do microfone.) - Posso falar?
O SR. PRESIDENTE (Miguel Matos) - Pode. Pode falar, Conselheira - desculpe, perdão.
A SRA. MARIA JOSÉ BRAGA - Bom, a Federação Nacional dos Jornalistas tem um longo trabalho aí de acompanhamento, claro, das questões trabalhistas, eminentemente sindicais, e há décadas a gente faz um monitoramento da violência contra jornalistas. E qual é a nossa distinção no que nós chamamos de monitoramento da violência contra jornalistas? Nesse monitoramento entra a violência que objetiva restringir a livre circulação da informação jornalística. Então, no nosso relatório da violência, não que não seja grave, não que nós não nos preocupemos, não que nós não atuemos, mas, por exemplo, não entram as questões que nós consideramos que são do mundo do trabalho: os assédios, a jornada excessiva, a falta de condições de trabalho, de salários, ou todas as questões trabalhistas que, claro, nos preocupam, mas que não objetivam - nem mesmo os casos de assédio que chegam ao nosso conhecimento têm esse objetivo - impedir que uma informação chegue ao público.
Então é esse o critério que nós utilizamos. E nós achamos que este Conselho, quando vai debater a violência contra jornalistas ou contra profissionais da comunicação, incluindo os radialistas, tem que se preocupar é com essa violência que tem um objetivo muitíssimo claro de restringir a livre circulação da informação jornalística.
R
Então, isso para nós é fundamental. E nós sabemos, porque estamos aqui neste Conselho desde que ele foi instalado, que este Conselho já se debruçou sobre esse tema. Nós temos, inclusive, importantes resoluções do Conselho tratando da questão da violência contra jornalistas e dos projetos de lei que tramitam na Casa sobre a questão da segurança dos jornalistas. Mas é claro que nós entendemos também que esse tema não pode cair no esquecimento. Por quê? Porque este Conselho é o único órgão de Estado que trata da comunicação, e nós não podemos deixar que um tema tão relevante, não para a categoria dos jornalistas, mas para a sociedade, não seja tratado aqui.
Mas também por entender que nós já abordamos esse tema em outras ocasiões é que, na nossa reunião passada, que definiu que nós iríamos realizar essa audiência pública, nós propusemos que tratássemos de uma dupla condição: a violência contra jornalistas e a valorização dos profissionais de comunicação... Gente, eu sempre falo jornalista e aí o José Antônio me olha, mas é porque é o hábito. É a violência contra profissionais da comunicação e a valorização da comunicação social como imprescindível para a sociedade.
O SR. PRESIDENTE (Miguel Matos) - Está ótimo. Está ótimo.
A SRA. MARIA JOSÉ BRAGA - É isso.
A SRA. PATRICIA BLANCO - Eu acho que, nesse ponto e até mesmo pelo fato de a gente já ter se debruçado tantas vezes sobre a questão da violência contra jornalista ou contra o exercício da profissão de comunicadores e afins, a gente tem que sempre atualizar esse dado. E hoje as formas de violência são diferentes. A gente tem visto uma mudança no ataque e no cerceamento até do próprio profissional de comunicação. Então, acho que trazer isso e atualizar o que tem acontecido em relação a isso é superpertinente e acho que a gente deve seguir nessa linha mesmo, com a valorização até do próprio jornalismo e da profissão de comunicador.
O SR. PRESIDENTE (Miguel Matos) - Conselheiro José Antônio.
O SR. JOSÉ ANTÔNIO DE JESUS DA SILVA - Presidente, esse tema é crucial para os trabalhadores de comunicação.
Apesar de representar os radialistas brasileiros, eu sempre me coloco como defensor dos trabalhadores de comunicação, porque acho que eu sou um deles. Trabalhei em cinema, trabalhei em teatro, trabalhei em rádio, trabalhei em televisão. Então, enfim, eu tenho que falar em nome dos trabalhadores de comunicação, que é quem sofre as consequências.
É ótimo e é plausível se a gente tiver condições, um dia, neste Conselho, de discutir as questões das relações do trabalho. É fundamental, porque a violência também perpassa pelas questões das relações do trabalho. Não é possível nem aceitável que a sociedade brasileira continue aceitando que um Presidente da República agrida um repórter, agrida um operador de câmera, agrida um operador de áudio. Não é aceitável. Essa violência é que nós queremos discutir. Nós queremos discutir isso. Não é possível um radialista ficar preso na sua casa, não poder ir ao estúdio da rádio porque, senão, ele pode ser morto. Não é possível isso. E é necessário que o debate seja cada vez mais amplo, porque a gente está sofrendo na pele - na pele - por não poder sair para fazer uma reportagem na rua. Aí a equipe da televisão é agredida, a equipe - e os equipamentos das rádios, das televisões - é violentada, é violada. Então, não é possível a gente fazer um debate restrito para dizer que vamos discutir apenas esse assunto. Não! Nós precisamos discutir a questão da violência contra os trabalhadores de comunicação no sentido mais amplo que a gente puder. Inclusive, um dia, sentando com os lá da Abert, daqui, e das outras federações e confederações, para discutir a questão das relações de trabalho, porque é ali que a gente precisa atingir, para que o repórter tenha um sistema de segurança mais garantido. É preciso olhar para o Estado brasileiro e dizer que o Estado brasileiro precisa discutir políticas públicas de proteção aos trabalhadores de comunicação. É esse debate que a gente precisa fazer. É esse debate.
R
Quando eu chamo a atenção de todas as autoridades brasileiras, e fora do Brasil, para dizer trabalhadores de comunicação, é porque é necessário a gente colocar todos que trabalham e que fazem a comunicação, para efetivar a democracia em nosso país e defender uma justiça plural para todos os trabalhadores, garantindo seus direitos no mais amplo sentido. É isso que nós precisamos.
O SR. PRESIDENTE (Miguel Matos) - Perfeito, conselheiro.
Passo a palavra à Conselheiro Bia Barbosa e depois acho que poderemos ir para o encaminhamento.
A SRA. BIA BARBOSA - Vou ser bem rápida, é só para dizer que eu acho, Presidente e colegas, que essas fronteiras não são tão nítidas entre o que é trabalhista e o que é uma violência. Eu acho que a Maria José trouxe a perspectiva em que a Fenaj trabalha, sobre violências que têm o objetivo de silenciar o trabalho da imprensa, mas quando a gente olha, por exemplo, nos dados dos jornalistas assassinados no Brasil, e a gente teve 30, na última década, a gente vê que os jornalistas mais... Os comunicadores em geral, os jornalistas, radialistas, comunicadores independentes são aqueles que não têm nenhuma proteção dos seus locais de trabalho, ou são aqueles que trabalham para cinco, seis emissoras de rádio, no interior do país.
Então, essas questões, essa fronteira não é muito nítida nesse sentido. Hoje mesmo, a gente marca um ano do assassinato do Dom Phillips e do Bruno Pereira. Hoje, 5 de junho, faz um ano que eles desapareceram e foram encontrados assassinados depois. O Dom Phillips era um jornalista britânico, que, em teoria, tinha o apoio de um veículo internacional para trabalhar na região da Amazônia, mas o local em que ele estava trazia todas as inseguranças e ele terminou assassinado junto com o Bruno Pereira. Então, eu só queria fazer esse comentário muito rápido, porque acho que a gente pode buscar uma abordagem que seja não estritamente trabalhista das questões, mas as questões trabalhistas vão aparecer necessariamente.
Sobre a questão do assédio, que a Maria José mencionou, tem outro tipo de assédio hoje que é fundamental a gente olhar, e o Conselho ainda não discutiu isso, que é o assédio judicial contra os jornalistas e profissionais da imprensa, que é usar a justiça para processar em massa comunicadores e comunicadoras, principalmente mulheres, visando ao silenciamento e ao impedimento da produção de informação de interesse público.
Então, para acrescentar um aspecto que eu acho que é bastante contemporâneo, infelizmente, das novas formas...
(Intervenção fora do microfone.)
A SRA. BIA BARBOSA - Não, mas no sentido de que isso aumenta exponencialmente. O número de casos de violação judicial, de assédio judicial é incomparável ao que a gente tinha dez anos atrás, e em todos os anos aumenta.
R
Então, tem um crescimento, do mesmo jeito que tem um crescimento da violência digital, que é constatada desde que a internet aí está, mas que ganha novas formas e novos contornos.
Então, é só para complementar as sugestões de escopo.
O SR. PRESIDENTE (Miguel Matos) - Está ótimo.
O SR. DAVI EMERICH - Presidente, eu acho o seguinte: o seminário já tem um nome. É "violência contra profissionais e valorização da comunicação". Eu acho que esse seminário podia ficar nesse tema... Como a gente ainda não sabe precisar essa nova violência, cada um tem uma opinião...
(Intervenção fora do microfone.)
O SR. DAVI EMERICH - Não, sabe, mas cada um tem um olhar diferente. Que sabe, sabe. Eu acho que qualquer entidade aqui ou empresário vai ter uma visão diferente e tal.
Eu acho que a gente poderia fazer um seminário de forma que ele resultasse numa espécie de um relatório, para a gente entender cada vez mais o que é isso, porque vão surgir coisas novas nesse seminário. Então, ao invés de estar preocupado... A gente não vai focar na questão do trabalho: "Não, porque não tem violência maior que o salário vil pago pelas empresas". Só que as empresas vão falar: "Vocês não sabem que as empresas estão quebrando, não sei o quê, não sei o quê". Embora esse tema vá ter de entrar. Claro que vai entrar.
Mas eu acho que o importante é saber escolher três ou quatro ou cinco expositores que possam trazer uma visão em forma de caleidoscópio, para que a gente possa ter um relatório e, a partir desse relatório, a gente começa a ter um entendimento melhor do que é a violência hoje contra os profissionais de comunicação e da questão da valorização, entendeu?
Eu acho que tem que ser realmente...
O SR. PRESIDENTE (Miguel Matos) - Para encaminhamento, eu sugiro o seguinte: que nós enviássemos, como nós fizemos da outra vez, até o dia 13, ou dia 14 - dia 13 é melhor, porque vai ter que emitir depois passagens, convites -, até o dia 13, para depois a gente deliberar, os nomes de sugestões de pessoas.
Acho que nós acabamos aqui falando, de uma maneira ampla, de vários assuntos, então a gente já tem pessoas... Na hora em que a gente foi conversando aqui, a gente lembrou de nomes que podem falar sobre o tema. Eu, na minha parte, lembro desse aspecto jurídico que ela falou. E, de fato, a Bia tem absoluta razão. O assédio judicial hoje contra as empresas e contra os jornalistas é absurdo - é absurdo! -, e a censura judicial é a pior de todas. Nós precisamos tratar desse tema, discutir esse tema. E aqui talvez seja o foro adequado, porque, em muitos lugares, as pessoas estão ficando sem coragem de falar. Então, os comunicadores têm mais facilidade para falar sobre esse tema.
E aí nós iríamos deliberar... Então, já deixaríamos marcado: 9h30 da manhã, faríamos a audiência, ou o seminário - não vai ser audiência, vai ser um seminário... Ou é uma audiência pública? Não sei qual é a terminologia. (Pausa.)
Pode ser audiência pública, de acordo com o nosso Regimento.
Então, vamos fazer uma audiência pública para tratar desse tema.
E, José Antônio, o que você disse sobre os jornalistas estarem sendo agredidos na rua ou em outros locais... Na valorização do trabalho da comunicação social, esse é exatamente um dos temas que a gente vai tratar. Tanto da violência... Não adianta a gente querer punir a violência se a gente não pensar também em como valorizar o trabalho do jornalista. É isso.
Bom...
A SRA. PATRICIA BLANCO (Fora do microfone.) - Dos jornalistas e dos comunicadores.
O SR. PRESIDENTE (Miguel Matos) - Dos jornalistas e... Não; dos comunicadores...
O SR. JOSÉ ANTÔNIO DE JESUS DA SILVA - Trabalhadores de comunicação.
O SR. PRESIDENTE (Miguel Matos) - Trabalhadores de comunicação.
O SR. JOSÉ ANTÔNIO DE JESUS DA SILVA - Radialistas, jornalistas, cinema...
O SR. PRESIDENTE (Miguel Matos) - Exatamente.
O SR. JOSÉ ANTÔNIO DE JESUS DA SILVA - ... teatro, enfim...
O SR. PRESIDENTE (Miguel Matos) - Bom, então, definido desta forma. (Pausa.)
R
Eu ia propor, no item 5, que é o item que foi acrescentado, uma designação de uma comissão para o estudo da nossa lei. Nós temos competência para fazer um esboço de um projeto para a nossa lei, a Lei do Conselho de Comunicação Social, e também, consequentemente, alterar o Regimento Interno.
A lei nossa é de 1991, e a comunicação é completamente diferente hoje. Nós temos outros profissionais que são comunicadores.
Acho que nós temos como fazer uma sugestão, nós temos competência para isso. Nós não temos competência para propor projeto de lei sobre outro assunto qualquer, mas do assunto do Conselho, especificamente, nós temos como fazer, nós temos competência para tratar desse tema. Seria designar uma comissão para tratar da reforma da nossa lei. É uma discussão que vai ser longa aqui, não vai ser simples.
A comissão que eu sugiro seja criada é uma comissão que vai definir, vai traçar, mas isso tudo fruto de discussão. Em todas as sessões, nós podemos trazer alguma coisa para discutir e deixar algum tempo do nosso dia, nas nossas sessões, para poder discutir isso.
Eu sugiro e ponho em votação que a comissão seja composta - sobretudo porque o nosso decano já disse dos atributos da Conselheira Bia Barbosa nesse aspecto de legislação - por ela, pela Conselheira Sonia e pela Conselheira Maria José. Faríamos uma comissão feminina para tratar desse tema, que vai ser amplamente discutido aqui, vai ser amplamente alterado, porque é como se fosse uma comissão de projeto. Na verdade, vocês iriam coordenar esse trabalho para que nós aqui deliberássemos. E a gente pode deliberar item por item, começar a discussão item por item, capítulo por capítulo, trecho por trecho, para a gente poder ir aprovando ou não. É complexo. A gente não sabe se vai chegar ao fim. A gente fez a alteração do Regimento aqui, e a alteração não foi aprovada na última legislatura, ou seja, a gente nem sabe se isso vai para frente. Mas eu acho que, se a gente fizer um trabalho sério, fizer um trabalho bem organizado e tiver consonância com a realidade, a gente vai conseguir produzir alguma coisa.
O fato é que o Conselho... Nós estamos assistindo a várias...
A Maria José está falando que o jornalismo não tem onde tratar, não tem um instrumento de regramento. Nós podemos trabalhar em cima disso. Nós estamos ouvindo que, para os projetos de fake news, estão querendo criar uma comissão, um órgão para regular. Nós ouvimos hoje sobre a inteligência artificial, e querem criar um órgão para regular. Todos querem criar o seu órgão para regular. E nós vamos ficando ultrapassados aqui, sendo que nós estamos na Constituição para tratar exatamente da comunicação social? Então, éramos nós que deveríamos tratar dos temas que fossem ligados à comunicação, e não ficarmos totalmente perdidos.
Conselheiro, João Camilo.
O SR. JOÃO CAMILO JÚNIOR - Concordo, acho legítimo. Era algo que a gente já tinha discutido em relação à questão de que precisa haver uma revisão, um reestudo.
Eu só quero deixar uma questão que precisa estar clara para nós, inclusive no sentido de a gente entender o nosso papel, que é o quê? Comunicação é comunicação na internet, ou no rádio, ou no papel, ou ali no corredor. Então, muito embora a gente tenha que ter uma revisão da legislação, muito embora a gente estava discutindo, por exemplo, pela manhã, a questão da IA - e o 2.630 está discutindo questões de comunicação e regulação de plataformas -, eu acho que a gente só não pode deslegitimar o Conselho nesse sentido. Não estou dizendo que isso está sendo feito aqui; só estou dizendo que, independentemente de uma futura reformulação da nossa lei, nós temos legitimidade para falar e dispor sobre comunicação no sentido mais amplo da palavra. É comunicação na internet, é comunicação no jornal, na TV e no rádio.
R
Então, é só para deixar isso bem claro, porque talvez outras pessoas também possam tentar deslegitimar uma ação do Conselho em cima, por exemplo, de uma comunicação nova, de uma comunicação disruptiva, não é?
É isso.
O SR. PRESIDENTE (Miguel Matos) - Não, tem total... Perfeitamente.
Eu só fiz uma confusão aqui. Nós teríamos que deliberar aqui, porque a nossa inteligência natural está dizendo aqui que, na verdade, a relatoria tem que ter três membros titulares. Então...
(Intervenções fora do microfone.)
O SR. PRESIDENTE (Miguel Matos) - Está bom. O Davi... E depois tem que ter um de cada segmento, que eu não estava observando aqui. Peço desculpas.
Então, Davi, da sociedade civil...
A SRA. PATRICIA BLANCO (Fora do microfone.) - Maria José, dos trabalhadores. Falta um de...
O SR. PRESIDENTE (Miguel Matos) - Patronal. Valderez, pode ser?
O SR. DAVI EMERICH - Valderez é patronal?
(Intervenção fora do microfone.)
O SR. PRESIDENTE (Miguel Matos) - Está ótimo.
O SR. DAVI EMERICH - Então, quem ficou?
O SR. PRESIDENTE (Miguel Matos) - Ficou Davi, Bia, Maria José e Valderez.
E acho que, se nós fizermos um plano de trabalho em que nós pudéssemos trazer a cada item de discussão, isso vai facilitar muito, a gente vai picotar... Depois, claro, na hora de ficar uniforme, às vezes não fica perfeito, mas aí a gente faz adequação, mas, se a gente dividisse, ia ficar muito interessante.
A SRA. BIA BARBOSA - Só uma dúvida, Presidente: a ideia seria tanto um projeto de lei para modificar a Lei do CCS - se eu entendi bem...
O SR. PRESIDENTE (Miguel Matos) - Sim.
A SRA. BIA BARBOSA - ... e o Regimento.
O SR. PRESIDENTE (Miguel Matos) - Exato.
Eu acho que o ideal é começar pela lei, porque o Regimento, dependendo do que vier...
A SRA. BIA BARBOSA - Sim, claro.
O SR. PRESIDENTE (Miguel Matos) - ... vai ter que ter um tratamento diferente.
Acho que, se a gente fizesse uma discussão item por item aqui... Não estou deslegitimando o Conselho; muito pelo contrário, eu estou querendo até valorizar e atualizar, mas eu digo: há competências que talvez a gente possa ter, e que hoje em dia o meio está pedindo que tenha que ter, de regulação ou de cuidado, o Conselho poderia ter essas atribuições e não criar novos conselhos para tratar de um tema que está conosco.
Esse tema, por exemplo, de fake news, se nós tivéssemos as habilidades, dentro da composição do Conselho - às vezes; eu não quero dizer que nós não as tenhamos -, que eles estão querendo que tenham, se nós as tivéssemos aqui, poderíamos ser nós esse órgão.
O SR. JOÃO CAMILO JÚNIOR - Presidente, só um aparte à sua fala. Eu não sei se vocês viram, sem querer entrar no mérito, não existe apoio nenhum à questão da proposta, mas o Deputado Lafayette de Andrada propôs um substitutivo ao PL 2.630.
R
E, no substitutivo de autoria do Lafayette, tem o Conselho de Comunicação Social do Congresso como órgão consultivo em relação ao que está disposto no 2.630.
Não sei se vocês observaram, mas já foi apresentado e está no sistema já.
O SR. PRESIDENTE (Miguel Matos) - Então, nós temos que chamar o Deputado para fazer um voto de aplauso a ele, mas, talvez, para que fique mais preciso ainda, este Conselho deveria ter, às vezes, alguma modificação que possa ser incorporada, justamente para poder casar uma coisa com a outra.
A SRA. MARIA JOSÉ BRAGA - O projeto, o PL do Deputado Lafayette cita o Conselho, mas, na verdade, ele cria uma Comissão, que seria uma Comissão dentro do Conselho, mas uma Comissão autônoma. Então, o projeto tem aí...
O SR. PRESIDENTE (Miguel Matos) - Mas tudo bem. Pelo menos, já é um caminho.
A SRA. MARIA JOSÉ BRAGA - Sim, é interessante porque ele se remete ao Conselho de Comunicação, mas criando, dentro do Conselho, uma...
O SR. PRESIDENTE (Miguel Matos) - Nós já podemos fazer o parecer sobre esse projeto agora. Já quer fazer? (Risos.)
A SRA. MARIA JOSÉ BRAGA - Eu não sei como é... (Risos.)
A SRA. MARIA JOSÉ BRAGA - Como tem o relatório da Comissão, eu não sei como é que ele vai ser tratado no trâmite. Ele é incorporado?
A SRA. PATRÍCIA BLANCO (Fora do microfone.) - Tem que estar apensado,
A SRA. MARIA JOSÉ BRAGA - Tem que estar apensado.
O SR. PRESIDENTE (Miguel Matos) - Apensado.
A SRA. MARIA JOSÉ BRAGA - Mas o que vai a voto é o relatório.
Então, eu creio que não vai ser discutido em detalhes.
O SR. PRESIDENTE (Miguel Matos) - Ótimo.
O SR. DAVI EMERICH (Fora do microfone.) - Só para confirmar se eu continuo participando desse processo.
O SR. PRESIDENTE (Miguel Matos) - A princípio, não, porque não houve essa modificação. Eu tinha colocado todo mundo...
(Intervenção fora do microfone.)
O SR. PRESIDENTE (Miguel Matos) - ... na mesma...
Bom, nós teríamos agora um relatório do andamento dos trabalhos das Comissões. Como nós não o temos, os Conselheiros que gostariam de fazer alguma comunicação...
Conselheiro José Antônio.
O SR. JOSÉ ANTÔNIO DE JESUS DA SILVA - Presidente, eu queria parabenizar aqui a Câmara Municipal de Sertãozinho, que, no dia 23 de maio, criou o Conselho Municipal de Comunicação Social daquele município. Através de um projeto de lei da mobilização de alguns jornalistas, radialistas lá da cidade, eles acabaram criando.
Então, eu acho que é uma iniciativa positiva que a gente tem que valorizar, porque aí se começa a discutir das bases os problemas com que a gente convive e vive na comunicação brasileira.
O SR. PRESIDENTE (Miguel Matos) - Perfeito.
Mais algum Conselheiro?
A SRA. PATRÍCIA BLANCO - É só para lembrar, Presidente, que dia 7 de junho é o Dia Nacional da Imprensa. Do dia 1º de junho a 7 junho, todas as datas... Então, a gente tem aqui todos os...
É mais para lembrar da importância da imprensa para a democracia. Então, a gente tem... Tem o 7 também, Maria José. Infelizmente, temos muitas datas; a gente deveria juntar todas numa só, mas, se a gente puder, em cada uma delas, reforçar a importância da imprensa, a importância do jornalismo, a importância dos comunicadores para a defesa da democracia e para o acesso a informações pertinentes, é sempre bom lembrar e ressaltar, principalmente no âmbito deste Conselho, para fortalecer, cada vez mais, a pluralidade, a diversidade e a segurança de comunicadores no exercício da sua profissão.
Então, fica aqui eu acho que para a gente reforçar a importância de comemorar cada uma dessas datas para o fortalecimento da imprensa.
Obrigada.
O SR. PRESIDENTE (Miguel Matos) - Conselheira Maria José.
A SRA. MARIA JOSÉ BRAGA - Muito rapidamente, é só para falar um pouquinho das datas.
É claro que as efemérides são importantes para a gente valorizar determinados profissionais, valorizar determinadas áreas e também para alertar determinadas situações. E isso tem sido utilizado amplamente no Brasil e no mundo.
R
Em relação à imprensa, o 1º de junho foi uma tentativa dessa unificação, uma tentativa para que a gente tivesse uma data nacional, uma data simbólica. E o 1º de junho foi aprovado em lei. Nós temos uma lei federal que estabelece o 1º de junho como o Dia da Imprensa. E a referência foi a circulação do primeiro jornal brasileiro - nem é uma referência aos profissionais, mas ao primeiro jornal brasileiro que circulou como imprensa independente no Brasil.
Então, é claro que as comemorações são bem-vindas, mas a gente também precisa reforçar aí os esforços que já foram feitos. E a lei federal que aprovou o 1º de junho como o Dia da Imprensa é um desses esforços.
Obrigada.
O SR. PRESIDENTE (Miguel Matos) - Conselheiro Davi, em consulta aqui às nossas bases, foi deliberado que, de fato, pode ser decidida a relatoria em outro período que não só nas sessões - até respondendo ao Conselheiro que tinha perguntado online.
Então, eventualmente, enviar para a Presidência projetos de lei que sejam de interesse para que, posteriormente, seja feita a designação da relatoria, e, aí, sim, possa trazer... E lembrando que cada Conselheiro ou os Conselheiros podem pedir vista do projeto. Então, nós não vamos deliberar efetivamente na data seguinte, sobretudo porque não houve discussão e eventualmente não vai ter discussão.
Bom...
O SR. DAVI EMERICH (Fora do microfone.) - Presidente!
O SR. PRESIDENTE (Miguel Matos) - Sim?
O SR. DAVI EMERICH - É com isto que a gente vai se defrontar: a tal das notas oficiais. Eu me lembro de que havia um debate imenso aqui que tinha de ter reunião para aprovar uma nota oficial.
Então, sou daqueles do seguinte: a vida é muito dinâmica. Então, eu acho que nós podemos ter dois tipos de notas oficiais: uma assinada pelo Conselho de Comunicação, quando for uma coisa muito grande, podendo até não ser no interregno das reuniões, quando a maioria apoia a nota e tal, ou então, nota do Presidente do Conselho de Comunicação, porque tem hora que a gente tem de ter agilidade, entendeu?
E isso é... Você participou da última gestão, e nós tínhamos muitos problemas com isso.
Então, da minha parte, eu acho que o Presidente é liberado para soltar nota oficial, porque, se soltar nota oficial indevida, o Conselho vai reagir obviamente, não vai fazer nada disso.
Então, quando for uma nota forte, talvez seja uma nota do Conselho, que tem de ter pelo menos uma maioria, apoio da maioria dos membros do Conselho. Porque isto vai ocorrer: problemas atrás de problemas, principalmente na área de violência e tal, em que não dá para esperar 30 dias.
O SR. PRESIDENTE (Miguel Matos) - Bom, atendidas as finalidades da pauta, declaro encerrados os trabalhos da 2ª Reunião, Ordinária, de 2023, do Conselho de Comunicação Social do Congresso Nacional, já convocando a próxima reunião para o dia 3 de julho, às 9h30.
Agradeço a participação de todos.
Está encerrada a reunião.
(Iniciada às 9 horas e 06 minutos, a reunião é encerrada às 15 horas e 19 minutos.)