O Crescimento Alarmante da Desinformação Gerada por IA faz com que Bigtechs assinem acordo TECNOLOGIA

O Crescimento Alarmante da Desinformação Gerada por IA faz com que Bigtechs assinem acordo


Em um cenário político cada vez mais digitalizado, a desinformação gerada por inteligência artificial (IA) surge como uma das maiores ameaças à integridade das eleições de 2024. Exemplos recentes na Argentina, Eslováquia e Estados Unidos ilustram como essa tecnologia está sendo utilizada para manipular a opinião pública de maneiras sem precedentes.

Na Argentina, o presidente eleito Javier Milei, supostamente usou uma imagem gerada por IA para representar seu rival, Sergio Massa, como um comunista em trajes militares, em um gesto de saudação, com o intuito de prejudicar sua imagem. Na Eslováquia, um deepfake difundido durante as eleições mostrava o líder liberal pró-europeu Zuzana Čaputová fazendo comentários ofensivos sobre a política e a economia do país. E Nos Estados Unidos, o ex-presidente Donald Trump apoiou um grupo chamado United Unknown, que é acusado de utilizar IA para criar memes com conteúdo racistas e sexistas, ampliando a polarização política e espalhando desinformação.

Esses exemplos destacam a facilidade e a eficácia com que a tecnologia de IA pode ser usada para desinformar o público e influenciar resultados eleitorais. Enquanto as empresas de tecnologia e os governos começam a implementar medidas para combater essas práticas, como a rotulagem obrigatória de conteúdos gerados por IA e a imposição de penalidades legais, a luta contra a desinformação gerada por IA ainda está em seus estágios iniciais e enfrenta muitos desafios.

A resposta a essa crescente ameaça tem sido multifacetada. Grandes empresas de tecnologia, incluindo Meta, OpenAI, TikTok, Microsoft e Amazon, assinaram um acordo no início deste ano, comprometendo-se a adotar “precauções razoáveis” para evitar que suas ferramentas de IA sejam usadas para desestabilizar eleições democráticas. Esse acordo, firmado na Conferência de Segurança de Munique, representa um passo importante, mas ainda há muito a ser feito para garantir sua eficácia.

Além disso, legislações estaduais nos EUA estão começando a enfrentar o problema de frente. Estados como Flórida e Arizona aprovaram leis que exigem avisos explícitos em produtos gerados por IA e estabelecem penalidades para a não conformidade. No entanto, a aplicação dessas leis enfrenta desafios significativos, especialmente quando se trata de atores estrangeiros que operam fora da jurisdição dos EUA.

Os especialistas alertam que, enquanto as ferramentas para detectar e mitigar desinformação gerada por IA ainda estão em estágios iniciais de desenvolvimento, o próximo ano será crucial para aqueles que lutam contra a proliferação desse conteúdo. Marcas d’água digitais, como as propostas pelo Google DeepMind, são uma tentativa de rastrear a origem desses conteúdos, mas sua adoção ainda é voluntária e longe de ser infalível.

O uso de IA no Brasil para desinformação

A desinformação gerada por inteligência artificial é vista como uma das maiores ameaças à integridade das eleições no Brasil, particularmente com as preocupações crescentes para o pleito de 2024. A facilidade com que vídeos, imagens e áudios falsos podem ser criados e disseminados está transformando o cenário político, dificultando a distinção entre fato e ficção para o eleitorado.

Recentemente, tivemos uma amostra disso no desastre do Rio Grande do Sul. Diversas imagens geradas por IA mostrando helicópteros de uma empresa de varejo resgatando as vítimas circularam nas redes sociais. Embora as imagens fossem falsas, ele causou uma onda de indignação pois eram acompanhadas da expressão “civil salva civil”, que tinha por objetivo propagar a ideia de omissão do governo e das forças armadas.
Esse episódio destacou a necessidade urgente de desenvolver e implementar ferramentas eficazes para detectar e combater a desinformação gerada por IA. As autoridades estaduais e federais estão começando a reconhecer a gravidade da situação e a buscar soluções, mas ainda há um longo caminho a percorrer.

Preocupações com as Eleições de 2024

À medida que as eleições de 2024 se aproximam, a preocupação com o uso de IA para espalhar desinformação só aumenta. Políticos e especialistas temem que a proliferação de deepfakes e outros conteúdos manipulados possa comprometer a integridade do processo eleitoral e influenciar os resultados de maneira significativa.

Para enfrentar esses desafios, o TSE inaugurou o Centro Integrado de Enfrentamento à Desinformação e Defesa da Democracia (CIEDDE) em março de 2024. Este centro visa coordenar esforços entre a Justiça Eleitoral, órgãos públicos e entidades privadas para combater a desinformação, discursos de ódio e deepfakes. Além disso, o centro promove a cooperação em tempo real com os 27 Tribunais Regionais Eleitorais (TREs) para garantir uma resposta rápida e eficaz a essas ameaças durante o período eleitoral.

O Ex presidente do TSE, ministro Alexandre de Moraes, enfatizou a importância dessas ações ao declarar: “A Justiça Eleitoral não irá admitir discurso de ódio, não irá admitir deepfake e notícias fraudulentas.” Essa iniciativa é fundamental para proteger a liberdade de escolha dos eleitores e a integridade das eleições no Brasil.

Essas medidas representam um passo significativo na luta contra a desinformação eleitoral e refletem o compromisso do TSE em garantir um processo eleitoral justo e transparente, porém sem uma devida regulamentação, a meu ver, as medidas tomadas pelas instanciais do judiciário, não são suficientes, é o mesmo que, como diz o dito popular “enxugar gelo”.

A sociedade civil e as organizações de mídia, também, estão se mobilizando para enfrentar esse desafio. Projetos de verificação de fatos e parcerias com plataformas de redes sociais são essenciais para reduzir a disseminação de informações falsas. No entanto, a velocidade com que a tecnologia avança exige uma vigilância constante e uma capacidade de adaptação rápida.

Uma abordagem multifacetada é crucial para combater a desinformação gerada por IA. Isso inclui não apenas o desenvolvimento de tecnologias avançadas de detecção, mas também a educação dos eleitores e internautas para que possam identificar e questionar informações potencialmente falsas.

Campanhas educativas, workshops e a inclusão de temas relacionados à alfabetização midiática e digital nos currículos escolares são passos fundamentais para fortalecer a resiliência da sociedade contra a manipulação digital. Somente através de um esforço coletivo e contínuo será possível proteger a integridade das eleições e garantir que os processos democráticos não sejam subvertidos por tecnologias mal utilizadas.

Em última análise, a batalha contra a desinformação gerada por IA exigirá um esforço coordenado entre governos, empresas de tecnologia e a sociedade civil. Somente com uma abordagem integrada poderemos proteger a integridade das eleições e garantir que a verdade prevaleça no discurso público. Por hora, vamos seguir com nossas toalhas brancas de inocência, enxugando Gelo!

Relacionados