A votação do projeto de lei que visa regulamentar a Inteligência Artificial (IA) no Brasil foi adiada pela Comissão do Senado na última terça-feira (3). O adiamento ocorreu devido à oposição de parlamentares contrários à exigência de que os sistemas de IA respeitem a integridade da informação e combatam a desinformação. A Comissão Especial, criada para analisar o tema, tem até o dia de hoje (5) para buscar um consenso.
“Há pontos do relatório cuja redação gerou questionamentos tanto da oposição quanto do governo. Por isso, foi dado um prazo de 48 horas para manifestações de ambos os lados, e a votação ocorrerá na próxima quinta-feira (5)”, explicou o presidente da Comissão, senador Carlos Viana (Podemos-MG).
Segundo o relator, senador Eduardo Gomes (PL-TO), a oposição é contrária a trechos do projeto que exigem que a IA assegure a integridade das informações que gera. O artigo 2º do projeto de lei 2.338/2023, de autoria do presidente do Senado, Rodrigo Pacheco (PSD-MG), estabelece que o desenvolvimento e uso da IA devem garantir a “integridade da informação, promovendo confiabilidade, precisão e consistência”.
O texto também exige que, antes de disponibilizar um sistema de IA no mercado, seja demonstrado por meio de testes que a tecnologia pode identificar e mitigar riscos à integridade da informação e combater a disseminação de desinformação e discursos de ódio ou violência.
Debate em torno da censura
Assim como ocorreu durante a tramitação do projeto de lei das fake news na Câmara dos Deputados, parlamentares da oposição argumentam que as exigências poderiam levar à censura de conteúdos na internet. O senador Marcos Rogério (PL-RO) sugeriu uma emenda para remover a exigência de integridade da informação, alegando que a autoridade reguladora teria poder para definir quais conteúdos as plataformas deveriam excluir.
Em resposta, o relator Eduardo Gomes afirmou que o conceito de integridade da informação foi ajustado para reforçar que ele deve promover a liberdade de expressão e não ser usado como ferramenta de censura ou para infringir outros direitos fundamentais.
O especialista em direito digital Alexandre Gonzales, da Coalizão Direitos na Rede, destacou que a análise de integridade da informação seria feita no sistema de IA como um todo, e não em casos específicos, minimizando o risco de censura.
Ainda na terça-feira (3), o relator decidiu excluir as big techs da lista de sistemas de IA considerados de alto risco.
Principais pontos do projeto
O texto, de autoria do senador Rodrigo Pacheco, estabelece princípios fundamentais para a IA, como transparência, segurança, ética, confiabilidade, e ausência de vieses discriminatórios. Ele também prevê regras rígidas para sistemas de alto risco e proíbe tecnologias que causem danos à saúde, segurança ou direitos fundamentais. Além disso, impede que o poder público use IA para classificar cidadãos de forma desproporcional ou ilegítima, bem como para práticas abusivas.
Governança e regulação
O projeto cria duas estruturas de governança:
- Sistema Nacional de Regulação e Governança de IA (SIA): responsável por regular e fiscalizar o desenvolvimento e uso de sistemas de IA, além de definir quais são de alto risco.
- Conselho de Cooperação Regulatória Permanente (CRIA): ligado ao Ministério do Trabalho, tem como objetivo regular os impactos da IA nas relações trabalhistas, promovendo negociações coletivas e mitigando efeitos negativos, como a perda de empregos.
Empresas que trabalham com IA também precisarão implementar estruturas internas para gerenciar riscos e classificar suas tecnologias conforme o nível de risco. Os sistemas de alto risco terão exigências mais rígidas de aplicação e monitoramento.