

Receita cria “curador de IA” e impõe novas regras para uso da tecnologia
Diretrizes estabelecem limites éticos, jurídicos e técnicos, com foco em controle humano, proteção de dados e transparência
GOVERNOTECNOLOGIAINTELIGÊNCIA ARTIFICIAL
Por Redação InfoDot
4/9/20263 min read
Tecnologias avançam em ritmo acelerado, mas sua adoção exige regras claras para evitar riscos e distorções. Nesse cenário, o uso da inteligência artificial no setor público passa a demandar estruturas mais robustas de governança e supervisão.
Com essa proposta, a Receita Federal apresentou uma Política de Inteligência Artificial voltada às atividades tributárias e aduaneiras, reunindo diretrizes éticas, jurídicas e técnicas para orientar a aplicação da tecnologia, com ênfase na proteção de direitos e na segurança institucional.
O anúncio foi feito pelo subsecretário de Gestão Corporativa, o auditor-fiscal Juliano Neves, durante reunião da Organização das Nações Unidas realizada no fim de março, inserindo o Brasil no grupo de países que buscam definir parâmetros mais rigorosos para o uso de inteligência artificial na administração pública.
A diretriz estabelece como princípio central a manutenção da autonomia humana nas decisões administrativas. Ainda que sistemas de inteligência artificial possam ser utilizados como suporte, a responsabilidade por atos legais e decisões finais permanece exclusivamente com os servidores públicos. A norma impede que sistemas automatizados substituam ou condicionem competências legais, preservando o julgamento crítico do agente como última instância decisória.
Entre as mudanças estruturais, está a criação da função de Curador de Inteligência Artificial Generativa, considerada inédita no setor público brasileiro. Esse profissional passa a acompanhar o desempenho dos sistemas, identificando erros, vieses e inconsistências, além de analisar a qualidade e a precisão das respostas produzidas. A medida busca adequar a governança à natureza probabilística dessas ferramentas, ampliando a supervisão operacional.
Outro eixo relevante trata dos limites éticos e da responsabilização individual. O uso inadequado da tecnologia passa a ser enquadrado como conduta disciplinar do agente público, deixando de ser tratado apenas como falha sistêmica. A política proíbe práticas como manipulação subliminar, classificação social de cidadãos e vigilância em massa, posicionando o modelo brasileiro entre os mais restritivos sob a ótica dos direitos fundamentais.
No campo da proteção de dados, a Receita estabelece que informações tributárias não podem ser utilizadas por fornecedores ou terceiros para treinar modelos comerciais de inteligência artificial. A medida reforça a soberania digital, priorizando ambientes sob controle direto da administração pública, com domínio sobre armazenamento, processamento e infraestrutura tecnológica.
A política também incorpora mecanismos de gestão de riscos, exigindo que cada solução passe por avaliações em diferentes níveis institucionais, incluindo áreas demandantes, tecnologia da informação e instâncias colegiadas. O objetivo é assegurar resiliência diante de falhas técnicas, ataques cibernéticos e usos indevidos ao longo de todo o ciclo de vida das aplicações.
Para não comprometer a inovação, foi criado um modelo ágil denominado “fast track”, que permite testar e desenvolver protótipos em ambientes controlados para iniciativas de baixo risco, garantindo maior dinamismo sem abrir mão dos controles necessários.
Outro ponto previsto é a capacitação contínua dos servidores, reconhecendo que o uso da inteligência artificial exige preparo técnico e entendimento de seus limites. A proposta é assegurar que os agentes públicos atuem de forma crítica e responsável diante dessas ferramentas.
Além disso, a política reforça a necessidade de transparência e explicabilidade. Os sistemas deverão apresentar, de maneira compreensível, os critérios que levam a determinadas conclusões, permitindo auditoria técnica e institucional, tornando a explicabilidade um elemento central da legitimidade do uso da inteligência artificial no setor público.
Garantir que a inovação tecnológica avance com responsabilidade é um passo essencial para construir confiança e segurança no uso da inteligência artificial.






