Notícias

Chatbots e a conformidade com a privacidade e proteção dos dados pessoais

A utilização dos chatbots pelas empresas não é nenhuma novidade. Essas ferramentas de comunicação automatizadas (robôs), que simulam o atendimento humano, vêm sendo utilizadas, há algum tempo, por alguns segmentos, como o setor varejista.

O chatbot é uma ferramenta tecnológica criada para automatizar tarefas, realizando uma conversa inicial entre os clientes e empresa. Normalmente, os chatbots possuem limites de interação e não conseguem dar respostas às perguntas que fogem do roteiro previamente definido.

À medida que a tecnologia vai se tornando mais desenvolvida, novos chatbots baseados em inteligência artificial (IA) vão surgindo e junto com eles as preocupações relacionadas com a privacidade e à proteção dos dados pessoais.

Diversas empresas já proibiram, por exemplo, uso do ChatGPT, que é um chatbot de IA, pelos seus funcionários, em razão das preocupações de conformidade relacionadas ao uso de software de terceiros.

Essas restrições não foram feitas apenas pelas empresas. Alguns reguladores ligaram o alerta vermelho em relação à ferramenta e a autoridade italiana, chegou a emitir uma proibição temporária do ChatGPT no país, citando preocupações com a privacidade depois que a própria OpenAI, criadora do ChatGPT, divulgou uma violação.

Leia também: O desafio do gerenciamento de mudanças da IA generativa

O ChatGPT foi disponibilizado ao público no final de novembro de 2022 e, na verdade, não se sabe como as informações coletadas serão utilizadas.

Problemas, relacionados à utilização da ferramenta, tem ocorrido com frequência. Recentemente, nos Estados Unidos, um advogado utilizou a IA da OpenAI na preparação de um recurso, entretanto, houve um questionamento do juiz sobre a existência dos casos citados pelo advogado, quando este admitiu que fez uso do ChatGPT e que não havia percebido que o chatbot criou casos fictícios.

Portanto, para que não ocorram violações aos requisitos de privacidade e segurança previstos na Lei Geral de Proteção de Dados (LGPD), algumas medidas, consideradas como boas práticas, devem ser tomadas pelas empresas.

Dentre essas medidas, o usuário precisa ser informado que a interação está sendo feita com um sistema de inteligência artificial; deve ser informado sobre a finalidade de uso dos seus dados e a duração do tempo em que eles serão utilizados; e deve ser informado sobre a possibilidade de contato direto com um humano, como opção de contato.

A comunicação sobre tratamento de dados necessita ser feita de forma transparente e é importante que as empresas implementem medidas de segurança adequadas para os sistemas de chatbots.

* Vivian Azevedo é advogada responsável pela área de Privacidade e Proteção de Dados Pessoais do Bhering Cabral Advogados

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Recent Posts

Pure Storage aposta em mudança de paradigma para gestão de dados corporativos

A Pure Storage está redefinindo sua estratégia de mercado com uma abordagem que abandona o…

1 semana ago

A inteligência artificial é mesmo uma catalisadora de novos unicórnios?

A inteligência artificial (IA) consolidou-se como a principal catalisadora de novos unicórnios no cenário global…

1 semana ago

Finlândia ativa a maior bateria de areia do mundo

À primeira vista, não parece grande coisa. Mas foi na pequena cidade de Pornainen, na…

1 semana ago

Reforma tributária deve elevar custos com mão de obra no setor de tecnologia

O processo de transição previsto na reforma tributária terá ao menos um impacto negativo sobre…

1 semana ago

Relação entre OpenAI e Microsoft entra em clima de tensão, aponta WSJ

O que antes parecia uma aliança estratégica sólida começa a mostrar rachaduras. Segundo reportagem do…

1 semana ago

OpenAI fecha contrato de US$ 200 milhões com Departamento de Defesa dos EUA

O Departamento de Defesa dos Estados Unidos firmou um contrato de US$ 200 milhões com…

1 semana ago