A era das botnets — rede de robôs maliciosos — facilmente detectáveis está chegando ao fim, de acordo com um novo relatório recente publicado na revista Science. No estudo, pesquisadores alertaram que as campanhas de desinformação estão migrando para enxames de IA autônomos que podem imitar o comportamento humano, se adaptar em tempo real e exigir pouca supervisão humana, o que complica os esforços para detectá-las e detê-las.
Escrito por um consórcio de pesquisadores, incluindo membros de Oxford, Cambridge, UC Berkeley, NYU e do Instituto Max Planck, o artigo descreve um ambiente digital no qual a manipulação se torna mais difícil de identificar. Em vez de breves intervenções ligadas a eleições ou à política, essas campanhas de IA podem sustentar uma narrativa por períodos mais longos.
“Nas mãos de um governo, essas ferramentas poderiam suprimir a dissidência ou fortalecer os governantes”, escreveram os pesquisadores. “Portanto, a implementação de IA defensiva só pode ser considerada se regida por estruturas rigorosas, transparentes e democraticamente responsáveis.”
Leia também: Elon Musk prevê que a IA superará a inteligência humana já neste ano
Um enxame é um grupo de agentes de IA autônomos que trabalham juntos para resolver problemas ou atingir objetivos com mais eficiência do que um sistema individual. Os pesquisadores afirmaram que ele explora as fragilidades existentes nas plataformas de mídia social, onde os usuários muitas vezes estão isolados de pontos de vista opostos.
“Foi demonstrado que as notícias falsas se espalham mais rápida e amplamente do que as notícias verdadeiras, aprofundando realidades fragmentadas e corroendo bases factuais compartilhadas”, escreveram eles. “Evidências recentes associam a curadoria otimizada para engajamento à polarização, com algoritmos de plataformas amplificando conteúdo divisivo mesmo à custa da satisfação do usuário, degradando ainda mais a esfera pública.”
Essa mudança já é visível nas principais plataformas, de acordo com Sean Ren, professor de ciência da computação na Universidade do Sul da Califórnia e CEO da Sahara AI, que afirmou que as contas criadas por inteligência artificial são cada vez mais difíceis de distinguir dos usuários comuns.
“Acho que um KYC mais rigoroso, ou validação de identidade da conta, ajudaria muito nesse sentido”, disse Ren ao Decrypt . “Se for mais difícil criar novas contas e mais fácil monitorar os spammers, fica muito mais difícil para os agentes usarem um grande número de contas para manipulação coordenada.”
As campanhas de influência anteriores dependiam em grande parte da escala, e não da sutileza, com milhares de contas publicando mensagens idênticas simultaneamente, o que tornava a detecção relativamente simples. Em contraste, o estudo afirma que os enxames de IA exibem “autonomia, coordenação e escala sem precedentes”.
Ren afirmou que a moderação de conteúdo por si só provavelmente não impedirá esses sistemas. O problema, segundo ele, é como as plataformas gerenciam a identidade em larga escala.
Verificações de identidade mais rigorosas e limites na criação de contas, disse ele, poderiam facilitar a detecção de comportamentos coordenados, mesmo quando as postagens individuais parecem ser de pessoas reais.
“Se o agente puder usar apenas um pequeno número de contas para publicar conteúdo, fica muito mais fácil detectar usos suspeitos e banir essas contas”, disse ele.
Leia também: Enxames de robôs podem resolver o problema dos oráculos em blockchain, diz estudo
Não há solução simples
Os pesquisadores concluíram que não existe uma solução única para o problema e que as opções potenciais incluem uma melhor detecção de coordenação estatisticamente anômala e maior transparência em torno da atividade automatizada, mas afirmam que medidas técnicas por si só provavelmente não serão suficientes.
Segundo Ren, os incentivos financeiros continuam sendo um fator persistente que impulsiona ataques coordenados de manipulação, mesmo com a introdução de novas medidas de segurança técnicas pelas plataformas.
“Esses enxames de agentes geralmente são controlados por equipes ou fornecedores que recebem incentivos financeiros de terceiros ou empresas para realizar a manipulação coordenada”, disse ele. “As plataformas devem implementar mecanismos mais rigorosos de KYC e detecção de spam para identificar e filtrar contas manipuladas por agentes.”
* Traduzido e editado com autorização do Decrypt.
De até 5% ao ano para até 10% ao ano! Este é o modo turbo ativado para a Renda Passiva com Dólar Digital. Como é por tempo limitado, aproveite ainda hoje.











