Inteligência Artificial no combate à corrupção: estaria isenta de vieses na saída?
A recente decisão da Albânia de nomear uma inteligência artificial, batizada de Diella, como “Ministra de Contratações Públicas”, responsável por todas as licitações e contratações públicas, surpreendeu a comunidade internacional e inaugurou um debate que extrapola as fronteiras daquele país.
A medida, justificada pelo governo como um esforço para reduzir a corrupção, padronizar decisões e garantir maior transparência em licitações, representa uma inovação de alto impacto simbólico e prático. Pela primeira vez, uma função ministerial é formalmente atribuída a um sistema algorítmico, deslocando a esfera da decisão de seres humanos para uma máquina.
Esse marco suscita questões que vão muito além, que colocam no centro da discussão a relação entre tecnologia e integridade.
É inegável que a corrupção, no setor público ou privado, encontra terreno fértil em processos complexos, marcados por interesses diversos e fragilidades de controle e transferir a responsabilidade de decisões para uma inteligência artificial pode, em tese, reduzir o espaço de arbitrariedade e eliminar parte da subjetividade que alimenta as práticas ilícitas. No entanto, essa mesma decisão cria novos dilemas éticos, jurídicos e organizacionais que precisam ser enfrentados.
Do ponto de vista de compliance, a experiência Albanesa representa um divisor de águas ao utilizar algoritmos que podem padronizar critérios, analisar milhões de dados em segundos e detectar padrões suspeitos de forma mais eficaz do que equipes humanas. A tecnologia se apresenta como aliada no esforço de construir um sistema de integridade mais robusto. Mas a questão que se impõe é perturbadora: e se um sistema criado para combater a corrupção já nascer comprometido?
Essa provocação é necessária porque nenhum algoritmo surge sozinho, pois cada linha de código reflete escolhas humanas, cada critério de decisão incorpora premissas que podem ser enviesadas ou manipuladas e, assim sendo, um sistema de inteligência artificial pode carregar consigo, desde a sua origem, vieses ocultos, de natureza técnica, política ou até econômica que distorcem resultados sob a aparência de licitude, portanto, o risco de criar um mecanismo sofisticado de combate à corrupção que, paradoxalmente, já nasce com sementes de corrupção algorítmica deve ser considerado.
É nesse ponto que compliance revela sua importância estratégica, como pilar fundamental da governança, na medida em que busca também garantir que a própria tecnologia seja concebida, auditada e monitorada com rigor de modo a proteger as empresas de danos reputacionais graves.
O fato é que sem os mecanismos de supervisão independentes, sem transparência nos parâmetros que orientam as decisões e sem possibilidade de revisão crítica, a inteligência artificial corre o risco de se tornar mais uma “caixa-preta” imune à accountability.
Nesse sentido, como exemplo, o caso do sistema COMPAS — Correctional Offender Management Profiling for Alternative Sanctions, utilizado nos Estados Unidos para avaliar o risco de reincidência criminal tornou-se emblemático, apresentado como uma inovação capaz de apoiar juízes em decisões mais justas e imparciais.
No entanto, análises independentes desse sistema revelaram que o algoritmo atribuía pontuações de risco mais altas a réus negros do que a réus brancos em condições semelhantes, reproduzindo preconceitos estruturais sob a aparência de neutralidade tecnológica. Em vez de corrigir fragilidades do sistema de justiça, a ferramenta acabou amplificando desigualdades históricas.
Esse exemplo demonstra que sistemas apresentados como modernos e incorruptíveis podem, na prática, perpetuar as distorções que deveriam combater.
Além da questão do viés, há ainda vulnerabilidades de outra ordem: um sistema que centraliza decisões críticas em licitações públicas ou em processos empresariais estratégicos se torna alvo preferencial de ataques cibernéticos. A manipulação maliciosa dos dados de entrada ou o sequestro do algoritmo podem comprometer todo o esforço de integridade. Nesse cenário, os riscos não são eliminados, apenas se deslocam para novas fronteiras.
A responsabilidade por decisões equivocadas é outro dilema incontornável. A máquina não tem personalidade jurídica nem consciência moral. Quem responde, então, por eventuais distorções?
A resposta só pode ser uma: a governança humana e, aqui, novamente, entra em cena a necessidade de programas de compliance que não se limitem a observar resultados, mas que examinem a fundo os processos, os parâmetros e as condições sob as quais a inteligência artificial foi criada e como opera.
O caso Albanês não é apenas um experimento ousado: é também um alerta para governos e empresas compreenderem que a tecnologia, por mais avançada que seja, não é solução em si mesma.
Em última análise, a provocação que a Albânia lança ao mundo não é apenas tecnológica, mas filosófica: como confiar que uma inteligência artificial, criada por humanos, estará livre dos mesmos vícios e distorções que buscamos superar? A resposta não pode ser ingênua. O futuro da integridade pública e privada será digital, mas continuará sendo humano em sua essência.
É a qualidade da governança, da ética e da responsabilidade institucional que determinará se a inteligência artificial será instrumento de transparência ou apenas mais um sofisticado disfarce para velhas práticas de corrupção.
Este texto reflete única e exclusivamente a opinião do(a) autor(a) e não representa a visão do Instituto Não Aceito Corrupção (Inac). Esta série é uma parceria entre o Blog do Fausto Macedo e o Instituto Não Aceito Corrupção. Os artigos têm publicação periódica.