É inegável que vivemos um momento de aceleração tecnológica. A Administração Pública já não pode tratar a Inteligência Artificial como algo distante ou futurista. Ela está presente, disponível e, de certa forma, pressionando governos a se posicionarem. A pergunta já não é mais se a IA será usada, mas como, por quem e com quais limites.
O desafio brasileiro diante da IA
O Brasil reúne algumas características que tornam esse debate ainda mais complexo. Somos um país continental, com enormes desigualdades regionais e uma demanda permanente por políticas públicas mais eficientes. Ao mesmo tempo, o Estado brasileiro concentra uma quantidade expressiva de dados em áreas estratégicas como saúde, educação, previdência e assistência social.
Nesse cenário, o Plano Brasileiro de Inteligência Artificial (PBIA) surge como uma tentativa de organizar esse futuro que já começou. Não se trata apenas de tecnologia, mas de planejamento: estruturar investimentos, fortalecer a infraestrutura digital, capacitar servidores e criar condições para que a IA seja usada como apoio às políticas públicas — e não como um atalho perigoso.
O plano prevê investimentos relevantes ao longo de cinco anos e aposta em uma visão ambiciosa: colocar o Brasil em posição de protagonismo, inclusive com o desenvolvimento de modelos de linguagem em português, treinados a partir de bases de dados nacionais. Há aí um componente importante de soberania digital e de desenvolvimento com identidade própria.
A Inteligência Artificial Generativa no setor público
Nos últimos anos, a chamada Inteligência Artificial Generativa passou a ocupar o centro do debate. Diferente de outras aplicações, ela é capaz de produzir textos, imagens, códigos e simulações com rapidez impressionante. Naturalmente, isso despertou o interesse do setor público.
Na prática, essas ferramentas já podem auxiliar na elaboração de documentos, relatórios, análises preliminares e organização de informações. O problema é que, junto com as possibilidades, surgem riscos que não podem ser ignorados.
A IAG não compreende o mundo. Ela opera a partir de padrões estatísticos aprendidos em grandes volumes de dados. Não há intenção, consciência ou compromisso com a verdade. Isso explica por que, em determinados contextos, surgem respostas equivocadas ou até informações “inventadas”, as chamadas alucinações. Sem revisão humana, esse risco se multiplica.
Governança não combina com automatismo cego
É impossível discutir governança pública hoje sem considerar o impacto da tecnologia. Avaliar, direcionar e monitorar políticas públicas pode, sim, ser apoiado por sistemas inteligentes. Mas apoio não é substituição.
O próprio Guia Federal sobre Inteligência Artificial Generativa deixa claro que esses modelos passam por fases de treinamento e produção. E é justamente na origem dos dados — e na forma como são usados — que residem muitos dos problemas. Dados incompletos, enviesados ou mal contextualizados geram resultados ruins, independentemente da sofisticação do modelo.
Aqui surge um ponto sensível: a Administração Pública já enfrenta dificuldades com falta de pessoal qualificado e sobrecarga de trabalho. Introduzir IA sem supervisão adequada não resolve esse problema. Pelo contrário, pode criar novos riscos, menos visíveis e mais difíceis de corrigir.
Princípios não são detalhe técnico
No setor público, tecnologia não opera fora do Direito. O uso de Inteligência Artificial precisa respeitar princípios constitucionais e administrativos já consolidados, como legalidade, impessoalidade, moralidade, publicidade e eficiência.
Somam-se a isso questões centrais como proteção de dados pessoais, segurança da informação e transparência dos atos administrativos. A IA pode acelerar processos, mas a decisão final continua sendo humana. A responsabilidade não é do sistema, é do agente público que o utiliza.
Riscos que precisam ser levados a sério
Os riscos associados à Inteligência Artificial Generativa são concretos. Não se limitam à possibilidade de erros técnicos. Envolvem também:
informações incorretas ou desatualizadas;
uso indevido de dados sensíveis;
violação de direitos autorais;
reprodução de vieses sociais e institucionais.
Esses vieses não são neutros. Podem excluir grupos, reforçar desigualdades e comprometer políticas públicas inteiras. Por isso, conhecer o funcionamento da ferramenta e o contexto em que ela é aplicada não é um luxo técnico — é uma exigência ética.
A regulação como parte do caminho
O debate regulatório acompanha esse avanço. O Projeto de Lei nº 2.338/2023, atualmente em tramitação no Congresso Nacional, propõe uma regulação baseada no nível de risco dos sistemas de IA. Quanto maior o potencial de impacto sobre direitos fundamentais, maior deve ser o controle.
A proposta busca coibir usos considerados de risco excessivo, ao mesmo tempo em que estabelece diretrizes de governança, boas práticas e responsabilidades claras para o poder público. A intenção não é barrar a inovação, mas dar a ela um rumo seguro.
Considerações finais
A Inteligência Artificial Generativa tem, sim, potencial para contribuir com a modernização da gestão pública brasileira. Pode tornar serviços mais ágeis, apoiar decisões e ampliar a capacidade do Estado de atender melhor a população. Mas isso só acontece quando há critério, supervisão e compromisso com o interesse público.
A tecnologia pode ser artificial. A responsabilidade, não. Ela continua sendo humana, institucional e política. O verdadeiro desafio está em usar a inovação como ferramenta — e não como desculpa — para decisões automáticas e pouco refletidas.

Comentários