O avanço da inteligência artificial tem transformado a forma como campanhas eleitorais são planejadas e executadas no Brasil, ampliando tanto as possibilidades de comunicação quanto os desafios para a integridade do processo democrático. Ferramentas capazes de automatizar conteúdos, segmentar eleitores e criar materiais hiper-realistas já fazem parte do cenário político, levantando debates sobre limites legais, transparência e riscos de desinformação.

Na entrevista desta semana, o advogado e especialista em Direito Eleitoral Leandro Manzano Sorroche 1analisa como a tecnologia vem sendo incorporada às disputas eleitorais, avalia a capacidade de resposta da legislação brasileira diante dessas mudanças e discute os principais pontos de atenção para a Justiça Eleitoral, candidatos e sociedade nas próximas eleições.

Como o senhor avalia o uso crescente da inteligência artificial nas campanhas eleitorais no Brasil hoje?

A inteligência artificial se utilizada de maneira responsável pode otimizar as campanhas, automatizando tarefas, analisando dados para compreender as demandas do eleitorado e personalizando a comunicação com a finalidade de aumentar o engajamento. Esse uso, desde que transparente e alinhado aos propósitos democráticos, é legítimo.

Por outro lado, o uso malicioso da IA representa uma grave ameaça. A principal preocupação reside na criação de conteúdos sintéticos, como os deepfakes, em que são produzidos vídeos e áudios ultrarrealistas que manipulam a imagem ou a voz de uma pessoa para criar situações inexistentes. Essa prática ataca diretamente a integridade do processo eleitoral e a livre formação da vontade do eleitor.

A legislação eleitoral brasileira já consegue dar conta das novas práticas envolvendo IA, como geração automatizada de conteúdos e uso de algoritmos em estratégias de campanha?

A Justiça Eleitoral tem demonstrado uma notável capacidade de adaptação. Diante da ausência de uma lei específica sobre IA aprovada pelo Congresso Nacional, o Tribunal Superior Eleitoral (TSE), exercendo seu poder regulamentar atualizou suas resoluções para enfrentar esses novos desafios.

Com o advento da resolução 23.755 de 2 de março de 2026, o TSE demonstrou preocupação com a utilização algorítmica, vedando aos provedores de aplicação que ofertem sistemas de inteligência artificial:

I – ranquear, recomendar, sugerir ou priorizar candidatas(os), campanhas, partidos políticos, federações ou coligações, e;

II – emitir opiniões, indicar preferência eleitoral, recomendar voto ou realizar qualquer forma de favorecimento ou desfavorecimento político-eleitoral, de maneira direta ou indireta, inclusive por meio de respostas automatizadas; 

Destarte, conquanto a regulamentação seja necessária, a comprovação concreta da interferência algorítmica continuará sendo um dos maiores desafios probatórios do Direito Eleitoral contemporâneo. 

Em retrospecto, será cada vez mais difícil reconstruir, com precisão, quem recebeu determinado anúncio direcionado, por qual critério foi segmentado, qual conteúdo efetivamente influenciou sua percepção e, sobretudo, se houve nexo causal entre aquela exposição personalizada e a decisão final do voto, até porque o voto é secreto e a formação da vontade eleitoral é multifatorial. 

Onde está o limite, do ponto de vista jurídico, entre o uso legítimo da tecnologia e o abuso de poder econômico ou político mediado por IA?

O limite jurídico entre o uso legítimo e o abusivo da IA nas campanhas se baseia em três pilares fundamentais: transparência, veracidade e finalidade.

Primeiro, a transparência exige que todos os gastos com ferramentas  sejam devidamente declarados na prestação de contas da campanha.

Segundo, a veracidade do conteúdo. É vedada a utilização de IA para criar ou disseminar fatos notoriamente inverídicos ou gravemente descontextualizados, bem como para prejudicar ou para favorecer candidatura, de conteúdo sintético em formato de áudio, vídeo ou combinação de ambos, que tenha sido gerado ou manipulado digitalmente,  para criar, substituir ou alterar imagem ou voz de pessoa viva, falecida ou fictícia (deep fake).

Por fim, a finalidade. A tecnologia deve ser usada para promover o debate de ideias e apresentar propostas, e não para atacar a honra de adversários ou manipular a vontade do eleitor. Quando a IA é empregada de forma a causar um desequilíbrio significativo na disputa, afetando a normalidade e a legitimidade das eleições, o ato se torna ilícito e pode levar à cassação do registro ou do mandato, conforme o artigo 22 da Lei Complementar nº 64/1990.

4. O uso de ferramentas capazes de criar textos, imagens e vídeos realistas — como os chamados deepfakes — já configura uma ameaça concreta à lisura do processo eleitoral?

Sem dúvida. A ameaça é concreta, iminente e de alto impacto. As deepfakes representam um risco direto à lisura, normalidade e legitimidade das eleições, princípios basilares do direito eleitoral e protegidos constitucionalmente no artigo 14, § 9º, da Constituição Federal. Ao fabricar realidades, essas ferramentas corroem a confiança do eleitor e podem induzi-lo a erro, minando a sua capacidade de formar uma convicção livre e consciente sobre os candidatos.

O caso ocorrido nas eleições presidenciais da Argentina em 2023, onde um vídeo  falso ultrarrealista foi criado para sugerir que um dos candidatos fazia uso de drogas, é um exemplo alarmante do potencial destrutivo dessa tecnologia.

Um conteúdo dessa natureza, viralizado às vésperas do pleito, pode causar um dano irreparável à imagem de um candidato com a potencialidade lesiva de desequilibrar a disputa.

A legislação atual prevê mecanismos suficientes para responsabilizar candidatos ou grupos que utilizem IA para disseminar desinformação?

Sim, a legislação eleitoral prevê um conjunto robusto de sanções nas esferas cível-eleitoral, criminal e administrativa.

Na​ esfera cível-eleitoral, o uso de IA para disseminar desinformação de forma grave pode configurar abuso de poder político e uso indevido dos meios de comunicação social. O artigo 9º-C, § 2º, da Resolução TSE nº 23.610/2019, é explícito ao prever que tal conduta pode levar à cassação do registro ou do mandato.

Na​ esfera criminal, existem tipos penais aplicáveis. O principal é o crime de divulgação de fatos inverídicos, previsto no artigo 323 do Código Eleitoral, que pune quem divulga “fatos que sabe inverídicos” capazes de influenciar o eleitorado, com pena aumentada se o crime for cometido pela internet. Além disso, a depender do conteúdo, a conduta pode se enquadrar nos crimes contra a honra (calúnia, difamação e injúria), tipificados nos artigos 324, 325 e 326 do Código Eleitoral.

Especificamente sobre a atuação organizada, o artigo 89 da Resolução TSE nº 23.610/2019 prevê como crime a contratação de grupos para proferir ofensas na internet, com pena de 2 a 4 anos de detenção e multa que pode chegar a R$50.000,00 (cinquenta mil reais).

Importante ressaltar que tanto quem contrata quanto quem é contratado responde criminalmente.

Como a Justiça Eleitoral pode atuar diante da velocidade e da escala com que conteúdos gerados por IA circulam nas redes?

A Justiça Eleitoral tem atuado em várias frentes para combater a disseminação viral de desinformação. A primeira é por meio do exercício do poder de polícia, previsto no artigo 6º da Resolução nº 23.610/2019, que permite a determinação de remoção de conteúdo ilícito.

Um​ avanço fundamental foi a previsão da responsabilidade solidária das plataformas digitais no artigo 9º-E da mesma Resolução. Em casos de risco, como a veiculação de conteúdos antidemocráticos ou a reprodução de material já julgado ilegal, os provedores que não promoverem a indisponibilização imediata do conteúdo podem ser responsabilizados.

Outro mecanismo crucial é o repositório de decisões sobre desinformação, criado pelo artigo 9º-G. Esse sistema centraliza as decisões do TSE, permitindo que juízes de todo o país repliquem de forma ágil o entendimento sobre conteúdos idênticos, combatendo a disseminação coordenada de mentiras. Por fim, a cooperação com agências de checagem e a promoção da educação midiática são ferramentas complementares essenciais.

Há risco de que o uso de IA para microdirecionamento de mensagens políticas configure uma nova forma de manipulação do eleitor?

Sim, o risco é real e já está no radar da Justiça Eleitoral. O microdirecionamento consiste em usar dados pessoais para segmentar o eleitorado e enviar mensagens altamente personalizadas. Quando feito de forma abusiva, ele deixa de ser uma mera estratégia de comunicação e se torna uma ferramenta de manipulação.

A manipulação ocorre quando a campanha explora vulnerabilidades psicológicas de determinados grupos de eleitores, criando “bolhas informacionais” com mensagens que podem ser contraditórias entre si e que não são submetidas ao escrutínio público.

Além disso, o TSE preocupado com esse direcionamento através dos algorítmico trouxe previsão expressa proibitiva aos provedores de aplicação que ofertem sistemas de inteligência artificial,  ranquear, recomendar, sugerir ou priorizar candidatas(os), campanhas, partidos políticos, federações ou coligações,  emitir opiniões, indicar preferência eleitoral, recomendar voto ou realizar qualquer forma de favorecimento ou desfavorecimento político-eleitoral, de maneira direta ou indireta, inclusive por meio de respostas automatizadas.

Na sua avaliação, o Brasil deveria avançar em uma regulação específica para o uso de inteligência artificial em campanhas eleitorais?

Sim. Atualmente, o Brasil não possui uma lei federal que regule o uso da inteligência artificial, seja em campanhas ou em outras áreas. O Tribunal Superior Eleitoral (TSE) tem agido de forma vanguardista, utilizando seu poder regulamentar para editar resoluções que preenchem essa lacuna legislativa.

Essa atuação do TSE é legítima e necessária, mas tem um caráter temporário, pois as resoluções são revisadas a cada eleição. Uma lei aprovada pelo Congresso Nacional traria maior segurança jurídica, previsibilidade e estabilidade às regras. Além disso, o processo legislativo permite um debate mais amplo e plural com a sociedade, o que é fundamental para um tema tão complexo e com tanto impacto na democracia.

Existe o risco de que uma regulação mais rígida acabe esbarrando em questões como liberdade de expressão ou censura?

Essa é uma preocupação legítima e central no debate jurídico. Contudo, é preciso esclarecer que a liberdade de expressão não é um direito absoluto. A própria Constituição Federal e a jurisprudência consolidada do Supremo Tribunal Federal (STF) estabelecem que ela deve ser ponderada com outros valores constitucionais igualmente importantes, como a proteção da honra, da imagem, da privacidade e, no campo eleitoral, a lisura do pleito e a igualdade de oportunidades entre os candidatos.

As​ regulações sobre IA não buscam instituir a censura prévia, que é vedada pela Constituição. O objetivo é estabelecer regras claras de responsabilidade posterior para quem comete abusos.

Pensando nas próximas eleições, quais são os principais pontos de atenção que a Justiça Eleitoral e a sociedade precisam observar em relação ao uso da IA na política?

Para as próximas eleições, os pontos de atenção são múltiplos e exigem uma atuação coordenada.

Para a Justiça Eleitoral, os desafios são:

Agilidade e Efetividade: Fortalecer e capacitar equipes técnicas para identificar conteúdos manipulados e garantir que as decisões judiciais de remoção sejam cumpridas de forma célere.

Para a sociedade, candidatos e partidos, os pontos são:

Dever de Cuidado: Candidatos e suas equipes têm a responsabilidade jurídica de checar a veracidade das informações antes de compartilhá-las.

Transparência nas Campanhas: As campanhas que utilizarem IA de forma ética e transparente, para otimizar a comunicação e não para manipular, devem deixar isso claro para o eleitorado, construindo uma relação de confiança.

  1. Leandro Manzano Sorroche é Advogado, mestrando em Direito, especialista em Direito Eleitoral, Público, Tributário e Estado de Direito e Combate à Corrupção. Membro da Academia Brasileira de Direito Eleitoral e Político – Abradep. Vice-Presidente do Instituto de Direito e Político do Tocantins-IDETO. Membro da Comissão de Direito Eleitoral da OAB/TO ↩︎