OpenAI enfrenta nova denúncia na Europa por alucinações difamatórias do ChatGPT

Especialistas alertam para riscos à reputação e possível multa bilionária sob o GDPR

Author Photo
4:31 pm - 20 de março de 2025
Imagem: Shutterstock

A OpenAI está novamente no centro de uma controvérsia regulatória na Europa, desta vez por conta das alucinações do ChatGPT, que geram informações falsas sobre indivíduos. A Noyb, conhecida por sua atuação em defesa da privacidade, apresentou uma queixa formal à Autoridade de Proteção de Dados da Noruega, após um usuário descobrir que a IA havia fabricado uma história difamatória alegando que ele teria assassinado dois filhos e tentado matar o terceiro.

Segundo informações do TechCrunch, a denúncia reacende a discussão sobre o direito à retificação de dados dentro da Regulamentação Geral de Proteção de Dados (GDPR) da União Europeia, que obriga empresas a garantirem que as informações pessoais processadas sejam precisas e corrigíveis. Se confirmada a violação, a OpenAI pode enfrentar multas de até 4% de sua receita global anual.

Leia também: 94% das empresas investem em IA, mas só 21% a usam com sucesso

Alucinações de IA e o risco à reputação

Diferentemente de outros casos anteriores em que o ChatGPT gerava dados biográficos incorretos, como datas de nascimento erradas ou informações imprecisas sobre indivíduos públicos, essa nova denúncia se destaca pela gravidade das acusações fabricadas.

A Noyb argumenta que a OpenAI não pode simplesmente exibir um pequeno aviso informando que o ChatGPT pode errar. Segundo Joakim Söderberg, advogado da Noyb, isso não isenta a empresa de suas obrigações legais. “O GDPR é claro. Dados pessoais precisam ser precisos. Você não pode simplesmente espalhar informações falsas e depois adicionar um pequeno aviso dizendo que pode não ser verdade.”

A organização também destaca que esse não é um caso isolado. O ChatGPT já foi acusado de fabricar histórias de corrupção sobre um político australiano e alegações falsas contra um jornalista alemão, o que reforça a preocupação sobre os riscos das alucinações da IA à reputação das pessoas.

Precedentes e impactos na OpenAI

A OpenAI já enfrentou sanções na Europa por práticas relacionadas à proteção de dados. Em 2023, a Itália suspendeu temporariamente o acesso ao ChatGPT, forçando a empresa a fazer mudanças para se adequar às leis europeias. Posteriormente, a OpenAI foi multada em €15 milhões por processar dados pessoais sem base legal adequada.

Apesar disso, muitas autoridades de proteção de dados na Europa têm adotado uma abordagem cautelosa em relação à regulamentação da IA generativa. O regulador de proteção de dados da Irlanda (DPC), por exemplo, já indicou que não pretende banir essas ferramentas, mas sim entender como aplicar o GDPR ao novo cenário da inteligência artificial.

Por outro lado, a Polônia abriu uma investigação contra o ChatGPT em setembro de 2023, mas até agora não chegou a uma conclusão. Com essa nova denúncia da Noyb, espera-se uma pressão maior sobre os reguladores europeus para agir mais rapidamente contra os riscos das alucinações de IA.

ChatGPT deixou de exibir as alegações, mas o dano pode permanecer

Curiosamente, após uma atualização no modelo de IA do ChatGPT, a resposta sobre o usuário norueguês parou de exibir as informações difamatórias. Agora, o chatbot busca dados na internet antes de responder a perguntas sobre pessoas, reduzindo a probabilidade de gerar informações falsas.

No entanto, a Noyb alerta que a mudança não resolve o problema, pois a OpenAI ainda pode estar armazenando e processando dados falsos internamente, sem que os usuários tenham controle sobre isso.

Para Kleanthi Sardeli, advogada da Noyb, o argumento da OpenAI de que os avisos isentam a empresa de responsabilidade não se sustenta. Segundo ela informou ao TechCrunch, adicionar um aviso dizendo que você não está cumprindo a lei não faz com que a lei deixe de existir.

A queixa foi direcionada contra a sede da OpenAI nos Estados Unidos, sob o argumento de que a filial irlandesa não tem autoridade exclusiva sobre decisões que afetam usuários europeus. Esse detalhe pode acelerar a investigação, ao contrário de outras denúncias que acabaram ficando paradas nas mãos do regulador irlandês.

O que esperar agora?

A denúncia contra a OpenAI pode ser um divisor de águas na regulamentação da IA na Europa. Se as autoridades europeias decidirem agir com mais rigor, a empresa pode ser forçada a adotar mecanismos de correção de dados e garantir que informações falsas sejam permanentemente removidas de seus modelos de IA.

Dado o histórico da União Europeia em aplicar multas severas a empresas que violam o GDPR, a OpenAI pode estar prestes a enfrentar uma das maiores sanções já impostas a uma IA generativa.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Tags:
Author Photo
Redação

A redação contempla textos de caráter informativo produzidos pela equipe de jornalistas do IT Forum.

Author Photo

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.