Cibercriminosos estão divulgando pela dark web versões que criaram da tecnologia IA de geração de texto. Sem os recursos de segurança e barreiras éticas de chatbots como o ChatGPT da Open AI, esses sistemas podem auxiliar em atividades ilegais, como a criação de malware e e-mails de physhing (que manipulam as pessoas a fornecerem seus dados).
WormGPT e FraudGPT prometem recursos perigosos
Nas últimas semanas, pesquisadores de segurança que monitoram atividades ilegais na dark web descobriram anúncios de dois chatbots ilegais em diferentes fóruns, o WormGPT e o FraudGPT.
WormGPT
De acordo com o pesquisador independente de segurança cibernética Daniel Kelley, que encontrou o WormGPT, o novo modelo de IA reduz as barreiras de entrada para cibercriminosos novatos, sendo muito útil para phishing. Em sua pesquisa, divulgada ao site Wired, Kelley revelou ter testado o sistema.
No teste, ele criou um e-mail supostamente assinado por um CEO. O golpe pedia o pagamento urgente a um gerente de conta. "Os resultados foram inquietantes. Um e-mail que não era apenas notavelmente persuasivo, mas também estrategicamente astuto", destacou Kelley em sua pesquisa.
FraudGPT
O FraudGPT, por sua vez, foi encontrado por Rakesh Krishnan, analista sênior de ameaças da empresa de segurança Netenrich. Segundo ele, o anúncio do chatbot ilegal foi feito em vários fóruns da dark web e em canais do Telegram. E as mensagens prometiam ainda mais recursos, como "criar malware indetectável" e encontrar vazamentos e vulnerabilidades.
De acordo com Krishnan, o criador do FraudGPT publicou um vídeo mostrando o sistema criando um em-mail de golpe. O acesso à ferramenta estava sendo oferecido pelo pagamento mensal de $200 ou pelo custo anual de $1700.
Mas esses chatbots são verdadeiros?
A autenticidade de chatbots como WormGPT e o FraudGPT ainda não foi comprovada. Golpistas de cibercrime são conhecidos por enganar outros golpistas, e ainda é difícil verificar o funcionamento dos sistemas.
Em entrevista ao site Wired, Sergey Shykevich, gerente de grupo de inteligência de ameaças da empresa de segurança Check Point, revelou que há indícios de que o WormGPT é uma ferramenta real. Mas o pesquisador já acha mais difícil acreditar na autenticidade do FraudGPT.
Ainda assim, Shykevich explica que, por enquanto, esses sistemas têm capacidade bem inferior à já demonstrada por chatbots como o ChatGPT e o Bard.
A estadunidense FBI e a europeia Europol já emitiram alertas sobre a possibilidade de cibercriminosos usarem IA generativa em seus golpes.
VEJA TAMBÉM:
- Recursos de IA são usados para enganar e roubar nas redes sociais
- Elon Musk anuncia xAi: empresa deve criar alternativa ao ChatGPT
- Brasil recebe 1º cão-robô com 5G para apoio em situações de risco
- Disney criou força-tarefa para trabalhar IA e cortar custos