Band AM
Facebook Instagram Twitter-square
Band AM
  • HOME
  • CIDADES
  • POLÍCIA
  • POLÍTICA
  • ELEIÇÕES
  • CULTURA
  • ESPORTE
  • ECONOMIA
  • ENTRETENIMENTO
  • MUNDO
  • VÍDEOS
  • HOME
  • CIDADES
  • POLÍCIA
  • POLÍTICA
  • ELEIÇÕES
  • CULTURA
  • ESPORTE
  • ECONOMIA
  • ENTRETENIMENTO
  • MUNDO
  • VÍDEOS
  • HOME
  • CIDADES
  • POLÍCIA
  • POLÍTICA
  • ELEIÇÕES
  • CULTURA
  • ESPORTE
  • ECONOMIA
  • ENTRETENIMENTO
  • MUNDO
  • VÍDEOS
  • HOME
  • CIDADES
  • POLÍCIA
  • POLÍTICA
  • ELEIÇÕES
  • CULTURA
  • ESPORTE
  • ECONOMIA
  • ENTRETENIMENTO
  • MUNDO
  • VÍDEOS
https://www.youtube.com/@bandamazonas13/featured https://www.youtube.com/@bandamazonas13/featured https://www.youtube.com/@bandamazonas13/featured
Home POLÍTICA

Ministro propõe força-tarefa para identificar deep fake nas eleições

Gilmar Mendes sugere parceria com provedoras de ferramentas de IA

Redação por Redação
3 de fevereiro de 2026
em POLÍTICA
Tempo de leitura: 3
0
Gilmar Mendes sugere parceria com provedoras de ferramentas de IA

(Foto: Marcelo Camargo/Agência Brasil)

Brasil – O ministro Gilmar Mendes, que atua como ministro substituto no Tribunal Superior Eleitoral (TSE), propôs nesta terça-feira (3) a criação de uma força-tarefa com peritos técnicos e instituições acadêmicas para que façam a identificação rápida de conteúdos produzidos por inteligência artificial (IA) durante o período eleitoral, em especial os chamados deep fakes, os vídeos, áudios e imagens manipulados por IA de forma extremamente realista. 

“A atuação da Justiça Eleitoral não pode se limitar a uma postura reativa ou exclusivamente punitiva”, avaliou o ministro. Ele defende o “fortalecimento da capacidade técnica” do TSE para lidar com as deep fakes de forma proativa e preventiva.

A atuação poderia se dar “por meio da eventual constituição de uma força-tarefa técnico-pericial para a análise célere de conteúdos sintéticos durante o período eleitoral, com credenciamento prévio de especialistas e centros de pesquisa universitárias”, sugeriu Mendes.

“Tal iniciativa pode contribuir para a maior segurança técnica, agilidade decisória e legitimidade institucional na resposta a desafios complexos associados ao uso de inteligência artificial”, acrescentou o ministro.

Pelas regras atuais da Justiça Eleitoral sobre o uso de IA nas campanhas, o deep fake é vedado, sendo definido como todo conteúdo fabricado em formato de áudio, vídeo ou combinação de ambos e que tenha sido gerado ou manipulado digitalmente para criar, substituir ou alterar imagem ou voz de pessoa viva, falecida ou fictícia.

As normas em vigor foram propostas antes das eleições municipais de 2024. Atualmente, o TSE discute em audiências públicas propostas sobre as resoluções eleitorais deste ano. E foi na abertura dessas audiências que o ministro Gilmar Mendes apresentou a sugestão para que o tribunal fortaleça a fiscalização sobre o uso de deep fakes.

Mendes propôs também que a Justiça Eleitoral firme acordos com empresas provedoras de ferramentas de IA que geram conteúdos de imagem e áudio para que possam cooperar com o TSE e implementar medidas que impeçam o uso indevido dessas ferramentas.

“A cooperação com esses atores é fundamental para viabilizar medidas de prevenção como mecanismos de rastreabilidade, rotulagem de conteúdos gerados artificialmente, salvaguardas contra o uso abusivo de ferramentas de geração de deep fakes e respostas céleres diante de usos ilícitos ou eleitoralmente desestabilizadores”, pontuou Mendes.

Audiências

A Justiça Eleitoral publicou em janeiro 12 minutas de resolução e abriu um prazo, que se encerrou em 30 de janeiro, para o envio de sugestões por qualquer cidadão ou instituição de regras para as eleições. Algumas dessas propostas foram selecionadas para apresentação ao vivo, em audiências públicas nesta terça-feira e quarta-feira (4).

A transmissão das audiências pode ser acompanhada ao vivo pelo canal do TSE no YouTube.

A consulta à sociedade civil pela Justiça Eleitoral é feita a cada ciclo eleitoral, sendo um procedimento obrigatório conforme a legislação vigente. Pela Lei das Eleições, o plenário do TSE tem até 5 de março do ano eleitoral para debater e aprovar todas as normas.

*Com informações da Agência Brasil 

Tags: BrasilDeep fakeeleiçõesForça-tarefagilmar mendesjustiçaministropolíticaSTFTSE

Leia também

Pesquisa diz que 73% dos brasileiros apoiam fim da escala 6×1
BRASIL

Pesquisa diz que 73% dos brasileiros apoiam fim da escala 6×1

13 de fevereiro de 2026
Toffoli admite sociedade em resort, mas nega pagamentos de Vorcaro
DESTAQUE

Toffoli admite sociedade em resort, mas nega pagamentos de Vorcaro

12 de fevereiro de 2026
Indicação de Kennedy Marques viabiliza programa “Ração do Meu Pet” e prefeitura publica lista de beneficiários
DESTAQUE

Indicação de Kennedy Marques viabiliza programa “Ração do Meu Pet” e prefeitura publica lista de beneficiários

12 de fevereiro de 2026
Pedido de suspeição de Toffoli divide STF sobre futuro do ministro
DESTAQUE

Pedido de suspeição de Toffoli divide STF sobre futuro do ministro

12 de fevereiro de 2026
Marco Buzzi está sendo pressionado a pedir voluntariamente a aposentadoria
DESTAQUE

Marco Buzzi está sendo pressionado a pedir voluntariamente a aposentadoria

11 de fevereiro de 2026
Lula parabeniza vitória de António Seguro em Portugal
POLÍTICA

Lula parabeniza vitória de António Seguro em Portugal

9 de fevereiro de 2026
Ver mais

MAIS LIDAS

  • Polícia prende homem suspeito de roubar veículo de empresária no conj. Vieiralves

    Polícia prende homem suspeito de roubar veículo de empresária no conj. Vieiralves

    0 ações
    Compartilhar 0 Tweet 0
  • VÍDEO: tiroteio deixa homem morto e amigo ferido na Compensa em Manaus

    0 ações
    Compartilhar 0 Tweet 0
  • Leite no bolo de cenoura? Saiba o porquê não é recomendado

    0 ações
    Compartilhar 0 Tweet 0

Siga-nos

FALE CONOSCO

Todos os direitos reservados - Band Amazonas
Av. André Araújo, 1981 - Aleixo, Manaus - AM, 69060-000

Nenhum resultado
Ver todos os resultados
  • Contato
  • Portal

© 2026 JNews - Premium WordPress news & magazine theme by Jegtheme.