Notícias

4 formas de minimizar riscos de segurança com machine learning

Por sua capacidade de classificação de dados, entre outras vantagens, modelos de machine learning vêm sendo utilizados em diferentes aplicações, de comunicação wireless, biometria a tantas outras abarcadas pelo setor empresarial. No entanto, estudos recentes mostram que esses modelos também possuem vulnerabilidades do ponto de vista da segurança digital.

Segundo estudo conduzido pelo especialista em cibersegurança da Tempest, Paulo Freitas, é possível comprometer modelos de machine learning a partir da introdução de “ruídos imperceptíveis” no dado usando uma técnica conhecida como Ataque Adversarial.

Leia também: Bodytech adota assinatura eletrônica e deixa de imprimir 1,8 milhão de folhas

A técnica é usada para manipular de forma arbitrária a capacidade que uma rede neural possui de identificar e classificar um dado. Com isso, é possível gerar perturbações e induzir o modelo a erros, como por exemplo classificar um malware ou um vírus como um arquivo legítimo.

Para minimizar os riscos inerentes aos modelos, Freitas aponta algumas recomendações para empresas que estão inovando no uso de tecnologias.

Alargar as fronteiras que dividem as categorias de dados

Fronteira é o limite que determina se um dado está classificado da maneira certa ou errada. Adicionar dados que contenham ruídos e utilizar técnicas que gerem perturbação são formas de modificar o treinamento da rede, dificultando a adulteração por tornar os dados do sistema mais complexos.

Remover os ruídos

Criar uma caixa preta de algoritmos e redes neurais de forma que o ruído seja removido antes de fornecer a imagem para o alvo do ataque adversarial.

Detectar a presença de ruídos

Ao invés de remover o ruído, uma solução é simplesmente detectá-lo , pois quando isso é feito já há uma sinalização de um possível problema. Mesmo que não se apresente a solução de imediato, a técnica serve para colocar as equipes de segurança em prontidão.

Ampliar o número de classificadores

Classificadores são os possíveis alvos dos atacantes. Quando se amplia o número, o atacante terá de forçar a maioria dos classificadores a cometerem erro, o que torna menos provável o ataque ter sucesso.

Recent Posts

Pure Storage aposta em mudança de paradigma para gestão de dados corporativos

A Pure Storage está redefinindo sua estratégia de mercado com uma abordagem que abandona o…

1 semana ago

A inteligência artificial é mesmo uma catalisadora de novos unicórnios?

A inteligência artificial (IA) consolidou-se como a principal catalisadora de novos unicórnios no cenário global…

2 semanas ago

Finlândia ativa a maior bateria de areia do mundo

À primeira vista, não parece grande coisa. Mas foi na pequena cidade de Pornainen, na…

2 semanas ago

Reforma tributária deve elevar custos com mão de obra no setor de tecnologia

O processo de transição previsto na reforma tributária terá ao menos um impacto negativo sobre…

2 semanas ago

Relação entre OpenAI e Microsoft entra em clima de tensão, aponta WSJ

O que antes parecia uma aliança estratégica sólida começa a mostrar rachaduras. Segundo reportagem do…

2 semanas ago

OpenAI fecha contrato de US$ 200 milhões com Departamento de Defesa dos EUA

O Departamento de Defesa dos Estados Unidos firmou um contrato de US$ 200 milhões com…

2 semanas ago