Inteligência Artificial e o setor público: entre o entusiasmo, o cuidado e a responsabilidade




Falar de Inteligência Artificial hoje virou quase uma obrigação. O tema aparece em debates, eventos, redes sociais e documentos oficiais, sempre cercado de grandes expectativas — e não poucos receios. No setor público, essa conversa ganha um peso maior, porque não se trata apenas de eficiência ou inovação tecnológica, mas de decisões que interferem diretamente na vida das pessoas.

É inegável que vivemos um momento de aceleração tecnológica. A Administração Pública já não pode tratar a Inteligência Artificial como algo distante ou futurista. Ela está presente, disponível e, de certa forma, pressionando governos a se posicionarem. A pergunta já não é mais se a IA será usada, mas como, por quem e com quais limites.

O desafio brasileiro diante da IA

O Brasil reúne algumas características que tornam esse debate ainda mais complexo. Somos um país continental, com enormes desigualdades regionais e uma demanda permanente por políticas públicas mais eficientes. Ao mesmo tempo, o Estado brasileiro concentra uma quantidade expressiva de dados em áreas estratégicas como saúde, educação, previdência e assistência social.

Nesse cenário, o Plano Brasileiro de Inteligência Artificial (PBIA) surge como uma tentativa de organizar esse futuro que já começou. Não se trata apenas de tecnologia, mas de planejamento: estruturar investimentos, fortalecer a infraestrutura digital, capacitar servidores e criar condições para que a IA seja usada como apoio às políticas públicas — e não como um atalho perigoso.

O plano prevê investimentos relevantes ao longo de cinco anos e aposta em uma visão ambiciosa: colocar o Brasil em posição de protagonismo, inclusive com o desenvolvimento de modelos de linguagem em português, treinados a partir de bases de dados nacionais. Há aí um componente importante de soberania digital e de desenvolvimento com identidade própria.

A Inteligência Artificial Generativa no setor público

Nos últimos anos, a chamada Inteligência Artificial Generativa passou a ocupar o centro do debate. Diferente de outras aplicações, ela é capaz de produzir textos, imagens, códigos e simulações com rapidez impressionante. Naturalmente, isso despertou o interesse do setor público.

Na prática, essas ferramentas já podem auxiliar na elaboração de documentos, relatórios, análises preliminares e organização de informações. O problema é que, junto com as possibilidades, surgem riscos que não podem ser ignorados.

A IAG não compreende o mundo. Ela opera a partir de padrões estatísticos aprendidos em grandes volumes de dados. Não há intenção, consciência ou compromisso com a verdade. Isso explica por que, em determinados contextos, surgem respostas equivocadas ou até informações “inventadas”, as chamadas alucinações. Sem revisão humana, esse risco se multiplica.

Governança não combina com automatismo cego

É impossível discutir governança pública hoje sem considerar o impacto da tecnologia. Avaliar, direcionar e monitorar políticas públicas pode, sim, ser apoiado por sistemas inteligentes. Mas apoio não é substituição.

O próprio Guia Federal sobre Inteligência Artificial Generativa deixa claro que esses modelos passam por fases de treinamento e produção. E é justamente na origem dos dados — e na forma como são usados — que residem muitos dos problemas. Dados incompletos, enviesados ou mal contextualizados geram resultados ruins, independentemente da sofisticação do modelo.

Aqui surge um ponto sensível: a Administração Pública já enfrenta dificuldades com falta de pessoal qualificado e sobrecarga de trabalho. Introduzir IA sem supervisão adequada não resolve esse problema. Pelo contrário, pode criar novos riscos, menos visíveis e mais difíceis de corrigir.

Princípios não são detalhe técnico

No setor público, tecnologia não opera fora do Direito. O uso de Inteligência Artificial precisa respeitar princípios constitucionais e administrativos já consolidados, como legalidade, impessoalidade, moralidade, publicidade e eficiência.

Somam-se a isso questões centrais como proteção de dados pessoais, segurança da informação e transparência dos atos administrativos. A IA pode acelerar processos, mas a decisão final continua sendo humana. A responsabilidade não é do sistema, é do agente público que o utiliza.

Riscos que precisam ser levados a sério

Os riscos associados à Inteligência Artificial Generativa são concretos. Não se limitam à possibilidade de erros técnicos. Envolvem também:

  • informações incorretas ou desatualizadas;

  • uso indevido de dados sensíveis;

  • violação de direitos autorais;

  • reprodução de vieses sociais e institucionais.

Esses vieses não são neutros. Podem excluir grupos, reforçar desigualdades e comprometer políticas públicas inteiras. Por isso, conhecer o funcionamento da ferramenta e o contexto em que ela é aplicada não é um luxo técnico — é uma exigência ética.

A regulação como parte do caminho

O debate regulatório acompanha esse avanço. O Projeto de Lei nº 2.338/2023, atualmente em tramitação no Congresso Nacional, propõe uma regulação baseada no nível de risco dos sistemas de IA. Quanto maior o potencial de impacto sobre direitos fundamentais, maior deve ser o controle.

A proposta busca coibir usos considerados de risco excessivo, ao mesmo tempo em que estabelece diretrizes de governança, boas práticas e responsabilidades claras para o poder público. A intenção não é barrar a inovação, mas dar a ela um rumo seguro.

Considerações finais

A Inteligência Artificial Generativa tem, sim, potencial para contribuir com a modernização da gestão pública brasileira. Pode tornar serviços mais ágeis, apoiar decisões e ampliar a capacidade do Estado de atender melhor a população. Mas isso só acontece quando há critério, supervisão e compromisso com o interesse público.

A tecnologia pode ser artificial. A responsabilidade, não. Ela continua sendo humana, institucional e política. O verdadeiro desafio está em usar a inovação como ferramenta — e não como desculpa — para decisões automáticas e pouco refletidas.


Comentários