Imagem: Shutterstock
Estar na vanguarda da corrida tecnológica e colher os benefícios do uso da Inteligência Artificial (IA) integram as estratégias de negócios de empresas mundo afora nos últimos 16 meses – tendo o anúncio do ChatGPT pela OpenAI como o seu grande marco zero. Porém, para isso, é preciso assegurar que um dos pilares de sucesso seja a segurança digital de dados e informações, sob pena de danos catastróficos. Assim como as empresas, criminosos cibernéticos também seguem a “hype” da IA.
A possibilidade do uso dessa tecnologia para atacar sistemas embarcados em modelos como ChatGPT e o Gemini (da Google) foi testada recentemente por pesquisadores da Cornell Tech (EUA). Em um ambiente de testes, eles conseguiram, com o uso de uma “praga” cibernética de IA Generativa (apelidada de Morris II, em referência ao worm Morris, que criou caos em 1988), roubar dados e implantar malware ao longo do caminho, propagando-se entre diferentes sistemas – no teste, ChatGPT e Gemini. O ataque contra um assistente de e-mail foi realizado com êxito, permitindo o roubo de dados e envio de mensagens de spam.
Leia mais: Para 92% dos profissionais de segurança, IA generativa é grande aliada
Tecnicamente falando, como um desenvolvedor de longa data que sou, fiquei intrigado com a metodologia: os pesquisadores da Cornell Tech recorreram ao chamado “prompt adversário autorreplicante”, que aciona o modelo de IA Generativa para gerar, em sua resposta, outro prompt. Desta forma, a plataforma de IA é instruída a produzir um conjunto de instruções adicionais nas suas respostas, em um mecanismo muito semelhante aos ataques tradicionais de injeção de SQL e transbordamento de dados (buffer overflow), concluíram os pesquisadores.
Não foram poucos os relatórios de tendências em tecnologia que, neste início de ano, colocaram a cibersegurança no topo das prioridades para companhias dos mais variados tamanhos. Somente no ano passado, 68% (quase sete em cada dez) ataques de cibercriminosos registrados na América Latina aconteceram no Brasil, de acordo com um estudo recente elaborado pela IBM, que monitorou cerca de 150 bilhões de eventos de segurança por dia em mais de 130 países e regiões.
A IA Generativa, como evidenciou o estudo da Cornell Tech, aparece como peça importante, tanto para equipe de TI quanto para criminosos virtuais. Os temores em torno do potencial do mal uso da IA não são injustificados: apenas 18% dos profissionais antifraude lançam mão de ferramentas de IA e machine learning no seu trabalho, segundo levantamento da Associação de Investigadores de Fraudes Certificados (ACFE).
Como diz aquele antigo ditado: copo meio vazio então? Nem tanto. Agora, falemos do copo meio cheio da questão. De acordo com o mesmo trabalho da ACFE (que ouviu 1.200 membros no final de 2023), três em cada cinco organizações projetam aumentar o orçamento com tecnologias de cibersegurança até 2026. Estamos falando de um mercado que, estima-se, pode crescer entre US$ 200 bilhões e US$ 300 bilhões até o fim deste ano. Em resumo, a urgência acerca deste tópico está clara e colocada. Por tudo isso, podemos projetar, sem medo de errar, 7 abordagens estratégicas centrais que unam o melhor da IA e da cibersegurança em 2024:
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!
A Pure Storage está redefinindo sua estratégia de mercado com uma abordagem que abandona o…
A inteligência artificial (IA) consolidou-se como a principal catalisadora de novos unicórnios no cenário global…
À primeira vista, não parece grande coisa. Mas foi na pequena cidade de Pornainen, na…
O processo de transição previsto na reforma tributária terá ao menos um impacto negativo sobre…
O que antes parecia uma aliança estratégica sólida começa a mostrar rachaduras. Segundo reportagem do…
O Departamento de Defesa dos Estados Unidos firmou um contrato de US$ 200 milhões com…