Cibercriminosos estão criando versões de IA para atividades ilegais

Sabryna Esmeraldo
Sabryna Esmeraldo

Cibercriminosos estão divulgando pela dark web versões que criaram da tecnologia IA de geração de texto. Sem os recursos de segurança e barreiras éticas de chatbots como o ChatGPT da Open AI, esses sistemas podem auxiliar em atividades ilegais, como a criação de malware e e-mails de physhing (que manipulam as pessoas a fornecerem seus dados).

WormGPT e FraudGPT prometem recursos perigosos

Nas últimas semanas, pesquisadores de segurança que monitoram atividades ilegais na dark web descobriram anúncios de dois chatbots ilegais em diferentes fóruns, o WormGPT e o FraudGPT.

WormGPT

De acordo com o pesquisador independente de segurança cibernética Daniel Kelley, que encontrou o WormGPT, o novo modelo de IA reduz as barreiras de entrada para cibercriminosos novatos, sendo muito útil para phishing. Em sua pesquisa, divulgada ao site Wired, Kelley revelou ter testado o sistema.

No teste, ele criou um e-mail supostamente assinado por um CEO. O golpe pedia o pagamento urgente a um gerente de conta. "Os resultados foram inquietantes. Um e-mail que não era apenas notavelmente persuasivo, mas também estrategicamente astuto", destacou Kelley em sua pesquisa.

FraudGPT

O FraudGPT, por sua vez, foi encontrado por Rakesh Krishnan, analista sênior de ameaças da empresa de segurança Netenrich. Segundo ele, o anúncio do chatbot ilegal foi feito em vários fóruns da dark web e em canais do Telegram. E as mensagens prometiam ainda mais recursos, como "criar malware indetectável" e encontrar vazamentos e vulnerabilidades.

De acordo com Krishnan, o criador do FraudGPT publicou um vídeo mostrando o sistema criando um em-mail de golpe. O acesso à ferramenta estava sendo oferecido pelo pagamento mensal de $200 ou pelo custo anual de $1700.

Mas esses chatbots são verdadeiros?

A autenticidade de chatbots como WormGPT e o FraudGPT ainda não foi comprovada. Golpistas de cibercrime são conhecidos por enganar outros golpistas, e ainda é difícil verificar o funcionamento dos sistemas.

Em entrevista ao site Wired, Sergey Shykevich, gerente de grupo de inteligência de ameaças da empresa de segurança Check Point, revelou que há indícios de que o WormGPT é uma ferramenta real. Mas o pesquisador já acha mais difícil acreditar na autenticidade do FraudGPT.

Ainda assim, Shykevich explica que, por enquanto, esses sistemas têm capacidade bem inferior à já demonstrada por chatbots como o ChatGPT e o Bard.

A estadunidense FBI e a europeia Europol já emitiram alertas sobre a possibilidade de cibercriminosos usarem IA generativa em seus golpes.

VEJA TAMBÉM:

  • Recursos de IA são usados para enganar e roubar nas redes sociais
  • Elon Musk anuncia xAi: empresa deve criar alternativa ao ChatGPT
  • Brasil recebe 1º cão-robô com 5G para apoio em situações de risco
  • Disney criou força-tarefa para trabalhar IA e cortar custos
Sabryna Esmeraldo
Sabryna Esmeraldo
Sabryna trabalha com comunicação há mais de dez anos e especializou-se a produzir conteúdos e tutoriais sobre aplicações e tecnologia. Consumidora ávida de streamings e redes sociais, adora descobrir as novidades deste mundo.
recomenda: