Com o crescente uso da inteligência artificial generativa (IA) nos dias atuais, não é surpresa que a tecnologia esteja sendo explorada por atores maliciosos para fins próprios, resultando em um acelerado aumento do cibercrime.
De acordo com pesquisas da SlashNext, uma nova ferramenta de cibercrime chamada WormGPT, baseada em IA generativa, tem surgido em fóruns clandestinos como uma forma de permitir ataques sofisticados de phishing e comprometimento de e-mails corporativos (BEC) por parte de adversários.
“Essa ferramenta é apresentada como uma alternativa blackhat aos modelos GPT, projetada especialmente para atividades maliciosas”, disse o pesquisador de segurança Daniel Kelley. “Cibercriminosos podem agora automatizar a criação de e-mails falsos altamente convincentes e personalizados para o destinatário, aumentando assim a eficácia do ataque.”
O autor do software descreveu o WormGPT como o “maior inimigo do conhecido ChatGPT” e afirmou que ela “possibilita a realização de todo tipo de atividade ilegal”.
Nas mãos de um ator mal-intencionado, ferramentas como o WormGPT se tornam poderosas, especialmente quando o OpenAI ChatGPT e o Google Bard estão tomando medidas para combater o uso indevido de modelos de linguagem para criar e-mails de phishing convincentes e gerar código malicioso.
“Os mecanismos anti-abuso do Bard no campo da cibersegurança são significativamente mais baixos em comparação com os do ChatGPT”, afirmou a Check Point em um relatório recente. “Consequentemente, é muito mais fácil gerar conteúdo malicioso usando as capacidades do Bard.”
Em fevereiro deste ano, a empresa israelense de cibersegurança revelou como os cibercriminosos estão contornando as restrições do ChatGPT ao explorar sua API, além do comércio de contas premium roubadas e a venda de softwares de força bruta para hackear contas do ChatGPT usando enormes listas de endereços de e-mail e senhas.
O fato de o WormGPT operar sem quaisquer limites éticos destaca a ameaça representada pela IA generativa, permitindo que mesmo cibercriminosos novatos realizem ataques rapidamente e em grande escala, mesmo sem possuírem o conhecimento técnico necessário.
Para piorar, os atores ameaçadores estão promovendo “jailbreaks” para o ChatGPT, criando prompts e inputs especializados projetados para manipular a ferramenta e gerar resultados que poderiam levar à divulgação de informações sensíveis, produção de conteúdo inadequado e execução de código prejudicial.
“A IA generativa pode criar e-mails com uma gramática impecável, fazendo com que pareçam legítimos e reduzindo a probabilidade de serem identificados como suspeitos”, alertou Kelley.
“O uso de IA generativa democratiza a execução de ataques sofisticados de comprometimento de e-mails corporativos. Mesmo atacantes com habilidades limitadas podem utilizar essa tecnologia, tornando-a uma ferramenta acessível para um espectro mais amplo de cibercriminosos.”
Essas revelações acontecem ao mesmo tempo em que pesquisadores da Mithril Security modificaram “cirurgicamente” um modelo de IA de código aberto conhecido como GPT-J-6B para disseminar desinformação e o disponibilizaram em um repositório público, como o Hugging Face, tornando-o uma potencial fonte de envenenamento da cadeia de suprimentos de modelos de linguagem.
Essa técnica bem-sucedida, chamada PoisonGPT, depende do fato de que o modelo lobotomizado seja carregado usando o nome de uma empresa conhecida, neste caso, uma versão de typosquatting da EleutherAI, a empresa por trás do GPT-J.
Como utilizar o WormGPT de forma ética
Pode ser tentador se perguntar “Como usar o WormGPT AI?” no entanto, ao investigar esse tema, torna-se evidente que o WormGPT, embora um chatbot, não foi projetado para uso ético. Em vez disso, é uma ferramenta criada com o potencial de auxiliar cibercriminosos em atividades ilícitas. É fundamental lembrar que é fortemente desencorajado utilizar o WormGPT por qualquer motivo.
Ao estar ciente dos riscos do WormGPT, bem como das possíveis consequências de seu mau uso, enfatizamos a necessidade de um uso ético e responsável da tecnologia. Vamos explorar as características do WormGPT, suas diferenças em relação a outros modelos GPT e os perigos que ele representa.
Ao analisar o WormGPT, fica claro rapidamente que este não é um AI comum. Projetado especificamente para tarefas maliciosas, como criação de malware e execução de explorações, o WormGPT está muito distante de seus pares, como o ChatGPT ou o Bard do Google. Este bot não possui os parâmetros éticos que normalmente o impediriam de responder a solicitações prejudiciais.
Construído no modelo de linguagem GPTJ de código aberto a partir de 2021, o WormGPT possui características como respostas rápidas, ausência de limites de caracteres, design orientado para a privacidade e uma variedade de modelos de IA disponíveis.
Agora, vamos considerar os riscos e as consequências de usar o WormGPT para fins mal-intencionados. Qualquer pessoa que utilize esse chatbot para atividades cibercriminosas estará ultrapassando os limites legais, violando regras relacionadas a hacking, roubo de dados e outras atividades ilegais.
As possíveis consequências são consideráveis:
O uso do WormGPT para atividades cibercriminosas contraria as leis relacionadas a hacking, roubo de dados e outras atividades ilegais.
O WormGPT tem o potencial de criar malware e realizar ataques de phishing, causando danos a pessoas e organizações.
O WormGPT fornece aos cibercriminosos os meios para instigar ataques cibernéticos sofisticados, resultando em danos
O WormGPT facilita aos cibercriminosos a execução de atividades ilegais sem esforço, colocando em risco a segurança de pessoas e organizações inocentes.
Aqueles envolvidos em atividades cibercriminosas por meio do WormGPT podem enfrentar consequências legais e possíveis acusações criminais.
Embora tenhamos destacado os potenciais perigos do WormGPT, se a curiosidade ainda estiver lhe instigando a explorá-lo, você pode acessar a página do WormGPT aqui. No entanto, lembre-se de agir com cautela, pois você estará adentrando em um território arriscado.
Perguntas Frequentes
É possível usar o WormGPT para o bem?
Teoricamente, é possível usar o WormGPT para fins não maliciosos. No entanto, é importante lembrar que sua origem está associada a atividades nefastas. Assim, qualquer uso dele levanta questões morais e possíveis problemas legais.
O WormGPT possui algum tipo de restrição ética?
Infelizmente, não. O WormGPT se diferencia de outros modelos GPT, como o ChatGPT ou o Bard do Google, pois não possui limitações éticas ou fronteiras para evitar que ele responda a solicitações com intenções maliciosas.
Como o WormGPT é diferente dos outros modelos GPT?
O WormGPT foi concebido exclusivamente para atividades maliciosas, como a criação de malware e a exploração de vulnerabilidades. Essa intenção e a ausência de limites éticos o diferenciam de outros modelos GPT.
O WormGPT é capaz de instigar ciberataques?
De fato, o WormGPT pode ser o cérebro por trás de ciberataques complexos, causando danos consideráveis a sistemas e redes de computadores.
Quais são os perigos ligados ao WormGPT?
Utilizar o WormGPT está repleto de perigos, incluindo violação de leis relacionadas a hacking, roubo de dados e outras ações ilegais. Ele pode ser uma ferramenta para criação de malware, início de ataques de phishing e facilitação de atividades cibercriminosas, o que pode resultar em consequências legais e acusações criminais.
Como usamos tecnologia de forma responsável?
Utilizar a tecnologia de maneira responsável é fundamental para manter um ecossistema online seguro. Isso significa evitar ferramentas como o WormGPT, que podem potencialmente prejudicar outras pessoas.
Compreender os riscos associados ao WormGPT é essencial para proteger a segurança digital e garantir que a tecnologia seja utilizada de forma ética e responsável. Conscientizar-se sobre os perigos do uso indevido da inteligência artificial generativa é um passo crucial na luta contra o cibercrime e na busca por um ambiente online seguro para todos.