Novo modelo de geração de vídeos realistas acende luz vermelha sobre o atual despreparo dos poderes públicos no combate aos crimes digitais

Por Lorenzo Santos

Recentemente, a Google anunciou em uma conferência própria de tecnologia seu mais novo modelo de geração de vídeos feitos por inteligência artificial, o Veo 3. Prometendo gerar vídeos extremamente realistas, com áudios e efeitos audiovisuais perfeitamente manipuláveis, a ferramenta gerou amplo debate nas redes sociais sobre como seu uso desenfreado pode ter grande impacto na democracia.

O lançamento significa, para muitos, uma guinada na forma como as campanhas eleitorais são produzidas e, principalmente, nos rumos da política mundial. Para Otávio Augusto Mantovani, mestre em direito penal e especialista em direito constitucional, o uso indiscriminado dessa tecnologia representa uma ameaça sem precedentes, capaz de levar a um “colapso da confiança” no sistema eleitoral.

Otávio Augusto Mantovani Silva, mestre em direito penal e especialista em direito constitucional. Foto: Redes Sociais.

A preocupação central, segundo o especialista, reside no cenário de extrema polarização política que o Brasil enfrenta, um terreno fértil para o populismo e para a desinformação. “Quando você não consegue ter uma confiança adequada em saber o que é o vídeo, o que é o real, o que é o verdadeiro, você não consegue manter uma democracia sólida e sustentável” argumenta o professor. A consequência direta seria um processo eleitoral “minado” e “descredibilizado”.

Ele recorda as notícias falsas que marcaram as disputas de 2018 e 2022, que ocorreram em ambos os lados do espectro político, mas salienta que as novas ferramentas, como a Veo 3, elevam o perigo a um novo patamar. Com elas, seria possível não somente disseminar boatos, mas também criar discursos inteiros, atribuindo falas falsas a candidatos de maneira convincente até mesmo ao público mais bem informado.

Otávio alerta ainda para uma combinação explosiva: a união dos vídeos gerados por inteligência artificial com a chamada “rede de cortes”, método que ganhou notoriedade durante a campanha de Pablo Marçal à prefeitura de São Paulo. A estratégia consiste em postar pequenos trechos de vídeos e falas (muitas vezes descontextualizados) de si próprio ou de candidatos adversários, visando manipular o pensamento da massa por meio das grandes mídias digitais.

“Imagine só: nós temos uma inteligência artificial que vai trabalhar com possíveis vídeos falsos para permitir cortes serem divulgados nas grandes mídias. Ao invés de termos um fortalecimento da confiança pública no processo eleitoral, nós vamos fortalecer a desconfiança”, defende o professor.

Outro grande desafio que a ferramenta traz consigo é a dificuldade de identificar a origem dos vídeos, e, portanto, permitir que o Tribunal Superior Eleitoral (TSE) e outras autoridades possam fiscalizá-los adequadamente. “Para que nós consigamos identificar de forma precisa, clara e rápida para poder rebater ou combater ou reprimir essas fake news, nós teríamos uma dificuldade gigantesca se fosse utilizado, por exemplo, uma inteligência com uma precisão ou com uma qualidade muito grande”, explica.

Além de apontar os riscos, Mantovani também ressalta que a resposta das autoridades precisa ser imediata e contundente. Para ele, a solução deve combinar regulação, fiscalização e punição. “A Justiça Eleitoral precisa regulamentar a utilização de inteligência artificial para o processo de campanha”, diz Otávio.

O professor defende ainda outras formas pelas quais os poderes públicos podem frear o uso mal-intencionado das inteligências artificiais. “Se o sujeito quiser trabalhar com plataformas sociais, com mídia digital, precisa haver um tipo de controle prévio daquilo que vai ser publicado, ou então o TSE precisa ter um tipo de contato mais rápido com as plataformas digitais para conseguir, por exemplo, de forma objetiva e rápida, banir os conteúdos falsos”, defende ele.

Ele também destaca a necessidade de responsabilização na esfera criminal. Para que isso seja eficaz em 2026, é crucial que “o Tribunal Superior Eleitoral já estabeleça um contato com as plataformas para que tenha a possibilidade de facilmente conseguir fiscalizar e operar” contra o uso indevido da tecnologia.

Apesar de tantos perigos e possíveis ameaças ao sistema democrático, ainda há pontos de vista favoráveis ao uso do novo modelo na produção de propaganda política. Para o professor, as inteligências artificiais de vídeo poderiam ser úteis na organização do pensamento e no esclarecimento dos planos de governo dos candidatos com menos clareza na fala. “Se nós tivermos, por exemplo, um candidato que seja um bom gestor, mas não seja um bom orador, a utilização de I.A. pode facilitar e auxiliar no período de campanha”, pondera.

Ele cita como exemplo concreto a ex-presidente Dilma Rousseff. “Gostemos ou não, a Dilma Rousseff não era uma boa oradora. Ela tinha uma péssima dicção, não sabia argumentar e organizar muito bem as ideias. Então, se pudermos utilizar inteligências artificiais em alguns casos, é possível que consigamos eleger pessoas que são técnicas, boas, só que não tem uma oratória com uma qualidade ideal”, explica o professor. Nesse contexto, a ferramenta da Google poderia ter sido usada para aprimorar sua comunicação, tornando suas propostas mais acessíveis ao eleitorado sem alterar seu mérito como gestora.

O Veo 3 se apresenta, portanto, como uma faca de dois gumes. Por um lado, um instrumento com potencial de nivelar o campo político e sobrepondo as dificuldades de comunicação. Por outro, uma possível arma com forte poder de destruição caso não seja devidamente regulamentada a tempo.

“Tudo depende da vontade política. A gente pode pensar, poxa, mas não vai dar tempo porque é complexo. É complexo para quem? Se você tem todo um corpo técnico muito capacitado no Tribunal Superior Eleitoral. É possível, sim, que eles façam, que emitam orientações que já possam se valer na próxima eleição”, defende o professor.

Deixe um comentário