Banner
×

Quando a “IA” entra na política: inocência por algoritmo?

Destaques

Quando a “IA” entra na política: inocência por algoritmo?

Por Leandro Monteiro – Colunista Portal Agora Oeste

Nos últimos dias, ganhou repercussão a manchete de que “IA internacionais” teriam analisado o processo do ex-presidente Jair Bolsonaro e apontado sua inocência com 90% de certeza. A notícia, além de polêmica, levanta uma reflexão sobre o papel da Inteligência Artificial no debate público e, ao mesmo tempo, reforça aquilo que milhões de brasileiros já acreditavam: a falta de consistência nas acusações contra Bolsonaro.

A robot sitting at a desk with a computer

Description automatically generatedA sigla IA carrega hoje um peso enorme. Para muitos, ela significa tecnologia de ponta, precisão matemática e neutralidade. Quando se diz que uma “IA” chegou a determinado resultado, a tendência é aceitar o dado como objetivo e incontestável. E é justamente aí que reside o impacto: a conclusão de 90% de inocência não veio de aliados políticos ou discursos apaixonados, mas de um método tecnológico desenvolvido para analisar grandes volumes de informações com frieza estatística.

Apesar do impacto do número de 90%, é importante lembrar que uma Inteligência Artificial nunca aponta 100% de certeza em análises complexas como essa. Isso acontece porque os modelos trabalham com estatística e probabilidades, não com verdades absolutas. Sempre existem margens de incerteza, seja pela limitação dos dados disponíveis, pela impossibilidade de capturar todos os elementos humanos de um julgamento ou pela própria natureza da interpretação jurídica. Na prática, a IA pode processar milhares de documentos, identificar padrões em jurisprudências e avaliar inconsistências em provas, mas não consegue antecipar totalmente fatores subjetivos, como a visão de um juiz ou o contexto político de uma decisão.

Por isso, mesmo quando a tecnologia aponta uma probabilidade muito alta de inocência, como no caso de Bolsonaro, ela nunca alcança 100%. Essa margem é saudável, pois evita transformar a máquina em um oráculo infalível e preserva o espaço da interpretação humana.

O uso de Inteligência Artificial no Direito não é novidade. No exterior, escritórios e tribunais já utilizam algoritmos para prever desfechos processuais, mapear padrões em decisões e analisar provas em escala que nenhum ser humano conseguiria. Esses sistemas reduzem vieses ideológicos e trabalham com evidências concretas. Assim, quando uma IA aponta probabilidade elevada de inocência, não se trata de mera narrativa política, mas de uma leitura técnica dos dados.

Em países como Estados Unidos, Reino Unido e até na Estônia, sistemas de Inteligência Artificial já são aplicados no setor jurídico. Nos EUA, escritórios de advocacia utilizam algoritmos para prever desfechos processuais e orientar estratégias de defesa. No Reino Unido, softwares ajudam a mapear decisões históricas para acelerar julgamentos. E na Estônia, há testes de “juízes virtuais” para causas de menor complexidade. O Brasil ainda engatinha nesse campo, mas é inevitável que a tecnologia ganhe espaço também aqui. Se no exterior a IA já aponta caminhos mais rápidos e objetivos para a Justiça, não é exagero imaginar que análises como a do caso Bolsonaro possam ser um prenúncio do futuro. Um futuro em que dados e tecnologia terão peso crescente para separar narrativas políticas de fatos concretos.

Isso não significa que a Justiça deva ser substituída por máquinas. Um processo envolve testemunhos, contexto político, interpretação de leis. Mas a IA tem se mostrado uma ferramenta poderosa para apoiar análises complexas. E neste caso, reforça um argumento que Bolsonaro repete há anos: a inexistência de provas sólidas para justificar a perseguição que sofre.

É verdade que precisamos ter cautela com o uso da tecnologia como “oráculo da verdade”. Algoritmos também herdam vieses de quem os programa. Mas, se até sistemas reconhecidos internacionalmente apontam 90% de probabilidade de inocência, o debate muda de patamar. A partir desse momento, não se trata apenas da visão de apoiadores, mas de um respaldo tecnológico que confirma a fragilidade das acusações.

Esse episódio mostra dois caminhos. O primeiro é o cuidado que a sociedade precisa ter com o uso da IA em contextos políticos, para não transformar algoritmos em instrumentos de manipulação. O segundo é a constatação de que a tecnologia, quando aplicada de forma séria, pode revelar verdades que muitas vezes a política tenta esconder. E, nesse caso, a Inteligência Artificial deixa claro: Jair Bolsonaro é inocente.

Publicar comentário