Notícias

Hackers encontram formas de usar ChatGPT para lançar malware

Cibercriminosos estão encontrando novas formas de explorar o ChatGPT e outras ferramentas baseadas no OpenAI para desenvolver malware e e-mails de phishing, mesmo diante de restrições de antiabuso do ChatGPT.

Segundo descobertas da Check Point Research (CPR), os hackers estão aumentando o uso de bots do Telegram com o objetivo de criar uma nova metodologia que burle as restrições da plataforma de Inteligência Artificial conversacional, que virou sensação nos últimos dias. O principal objetivo dos cibercriminosos é usar esses recursos de IA para depurar e melhorar o código malicioso que lançam.

Ciente desse problema, a OpenAI atualizou sua política de conteúdo, criando barreiras e restrições na tentativa de impedir a criação de conteúdo malicioso. Várias restrições foram colocadas na interface do usuário do ChatGPT para evitar seu uso inapropriado, como o fato de que partir de agora, a IA não irá gerar respostas para pedidos com referências específicas à criação de malware ou e-mails de phishing que tentem se fazer passar por um banco ou outras entidades.

A equipe da CPR, entretanto, alertou para uma intensa atividade em fóruns clandestinos que revelam que os cibercriminosos estão trabalhando para contornar essas restrições. Em fóruns da Dark Web, as pessoas falam sobre como usar a própria API do OpenAI para superar as barreiras e limitações dessas ferramentas, destacando um modelo com foco na criação e distribuição do de bots do Telegram que emulam a API ChatGPT.

“Como parte de sua política de conteúdo, a OpenAI criou barreiras e restrições para impedir a criação de conteúdo malicioso em sua plataforma. No entanto, verificamos cibercriminosos contornando as restrições do ChatGPT, e há conversas ativas nos fóruns clandestinos revelando como usar a API OpenAI para contornar as barreiras e limitações do ChatGPT. Isso é feito principalmente criando bots do Telegram que usam a API, e esses bots são anunciados em fóruns de hackers para aumentar sua exposição”, detalha Sergey Shykevich, gerente do Grupo de Ameaças da Check Point Software.

Os criadores do bot concedem até 20 consultas gratuitas, mas cobram US$ 5,50 por cada 100 consultas. “Um custo praticamente zero em comparação com os altos lucros obtidos com esse tipo de ataque cibernético”, avalia a CPR.

Shykevich explica ainda que a versão atual da API do OpenAI é usada por aplicativos externos e possui muito poucas medidas antiabuso em vigor. Como resultado, permite a criação de conteúdo malicioso, como e-mails de phishing e código de malware, sem as limitações ou barreiras que o ChatGPT definiu em sua interface de usuário. “No momento, estamos vendo esforços contínuos de cibercriminosos para encontrar maneiras de despistar as restrições do ChatGPT”, alertou.

Recent Posts

Pure Storage aposta em mudança de paradigma para gestão de dados corporativos

A Pure Storage está redefinindo sua estratégia de mercado com uma abordagem que abandona o…

1 dia ago

A inteligência artificial é mesmo uma catalisadora de novos unicórnios?

A inteligência artificial (IA) consolidou-se como a principal catalisadora de novos unicórnios no cenário global…

2 dias ago

Finlândia ativa a maior bateria de areia do mundo

À primeira vista, não parece grande coisa. Mas foi na pequena cidade de Pornainen, na…

2 dias ago

Reforma tributária deve elevar custos com mão de obra no setor de tecnologia

O processo de transição previsto na reforma tributária terá ao menos um impacto negativo sobre…

2 dias ago

Relação entre OpenAI e Microsoft entra em clima de tensão, aponta WSJ

O que antes parecia uma aliança estratégica sólida começa a mostrar rachaduras. Segundo reportagem do…

2 dias ago

OpenAI fecha contrato de US$ 200 milhões com Departamento de Defesa dos EUA

O Departamento de Defesa dos Estados Unidos firmou um contrato de US$ 200 milhões com…

2 dias ago