A Comissão Especial da Câmara, que analisa o Projeto de Lei nº 2.338/2023 sobre inteligência artificial reuniu governo, empresas, academia e reguladores nesta terça-feira, 16. O debate mostrou consensos sobre a necessidade de uma legislação principiológica, mas também contradições em pontos centrais, sobretudo quanto ao enquadramento de infraestruturas críticas e ao papel das agências reguladoras.

O conselheiro da Anatel, Alexandre Freire, ressaltou a virtude do texto ao adotar princípios como transparência, centralidade da pessoa humana e explicabilidade. Contudo, alertou que a proposta atual peca pela falta de clareza e, ao mesmo tempo, pelo excesso de detalhamento, o que poderia engessar o setor. Para ele, a lei deve ser “principiológica” e flexível, evitando a “minudência regulatória” já criticada na União Europeia. Freire também defendeu que a regulação seja setorial, com protagonismo das agências especializadas, e não concentrada em uma autoridade de superposição com poder para se sobrepor a decisões técnicas.
A posição da Anatel contrasta com a de Marcos Ferrari, presidente executivo da Conexis Brasil Digital, que falou em nome das operadoras de telecomunicações. Ferrari argumentou que, embora as teles sejam infraestrutura crítica, o uso de IA para gerenciamento e otimização de redes não deve ser considerado de “alto risco”. Segundo ele, são aplicações restritas a dados operacionais, sem impacto direto sobre direitos fundamentais. Por isso, pediu a exclusão do termo “críticas” do artigo 14 do PL, evitando que telecomunicações sejam enquadradas automaticamente como de alto risco.
A contradição surge quando se observa que Freire reconhece a necessidade de tratamento diferenciado para usos de alto risco — e menciona explicitamente a importância de uma classificação adequada. Já a Conexis propõe retirar o setor da lista, ainda que seja reconhecido como essencial e estratégico para a economia digital. Enquanto o conselheiro defende mais clareza para evitar insegurança jurídica, a associação sugere ampliar exceções, o que poderia fragilizar a proteção em áreas sensíveis como telecomunicações.
Outros participantes reforçaram a necessidade de calibrar a regulação. Renan Gaia, do Ministério da Gestão, destacou que 117 soluções de IA já estão em operação no governo federal, mas apenas oito órgãos possuem políticas de ética e governança. Propôs que a avaliação preliminar de risco seja obrigatória, ainda que simplificada, para evitar lacunas.
Já o presidente do Serpro, Alexandre Amorim, reforçou o discurso da soberania digital. Ele anunciou que a estatal já desenvolveu uma LLM própria em português e defendeu a participação de Serpro e Dataprev na futura autoridade de IA.
A IBM, representada por Jonathan Goudinho, alertou para o risco de sobrecarregar a inovação com obrigações extensas aplicáveis inclusive a modelos abertos e gratuitos. Para a empresa, a responsabilidade primária deve recair sobre quem aplica a tecnologia, e não sobre o desenvolvedor de forma genérica.
A pesquisadora Dora Kaufmann reforçou que o texto precisa deixar explícito o protagonismo das agências setoriais, sob risco de conflitos com a autoridade central. Virgílio Almeida, da UFMG, também pediu foco no uso — e não apenas na tecnologia — além de mecanismos para monitorar vieses em aplicações públicas.
O secretário de Telecomunicações do MCom, Hermano Tercius, completou o debate defendendo que políticas de IA sejam integradas à expansão da conectividade, sob risco de aprofundar desigualdades regionais.
Em comum, os expositores defenderam uma regulação que concilie inovação com proteção de direitos.