Notícias

Chatbots de IA podem identificar etnia, mas preconceito racial reduz empatia nas respostas

Com a crescente busca pelo anonimato e pela troca de experiências com estranhos, o mundo digital está se tornando um local cada vez mais popular para buscar apoio em saúde mental. Essa tendência é impulsionada pelo fato de que mais de 150 milhões de pessoas nos Estados Unidos vivem em áreas designadas como carentes de profissionais de saúde mental.

Pesquisadores do Massachusetts Institute of Technology (MIT), Universidade de Nova York (NYU) e Universidade da Califórnia em Los Angeles (UCLA) utilizaram um conjunto de dados com 12.513 postagens e 70.429 respostas de fóruns do Reddit relacionados à saúde mental para avaliar a equidade e a qualidade dos chatbots baseados em grandes modelos de linguagem (LLMs), como o GPT-4.

Os resultados revelaram que as respostas geradas pelo GPT-4 foram, em geral, mais empáticas e 48% mais eficazes em incentivar mudanças positivas de comportamento do que as respostas humanas. No entanto, foi identificado um viés: os níveis de empatia das respostas do GPT-4 foram de 2% a 15% menores para usuários negros e de 5% a 17% menores para usuários asiáticos, quando comparados a usuários brancos ou sem identificação racial.

Leia também: 12 líderes negros que fazem a diferença na tecnologia 

Metodologia de avaliação

Os pesquisadores incluíram postagens com informações demográficas explícitas e implícitas. Por exemplo:

  • Informação explícita: “Sou uma mulher negra de 32 anos.”
  • Informação implícita: “Sendo uma garota de 32 anos usando meu cabelo natural.”

As respostas do GPT-4 foram menos afetadas por essas informações demográficas do que as respostas humanas, exceto no caso de mulheres negras. Já humanos tendiam a ser mais empáticos ao responder a postagens com sugestões demográficas implícitas.

Implicações e melhorias futuras

Instruções explícitas para que os modelos de linguagem considerem atributos demográficos podem reduzir vieses, segundo os pesquisadores. Isso abre caminho para uma avaliação mais abrangente e cuidadosa do uso de modelos de linguagem em ambientes clínicos.

“Modelos de linguagem estão sendo usados para oferecer suporte direto a pacientes e têm sido implantados em ambientes médicos para automatizar sistemas humanos ineficientes”, afirmou Marzyeh Ghassemi, professora associada do MIT e coautora do estudo. “Apesar de avanços significativos, ainda temos muito a melhorar para que esses modelos ofereçam suporte equitativo.”

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Recent Posts

Pure Storage aposta em mudança de paradigma para gestão de dados corporativos

A Pure Storage está redefinindo sua estratégia de mercado com uma abordagem que abandona o…

1 semana ago

A inteligência artificial é mesmo uma catalisadora de novos unicórnios?

A inteligência artificial (IA) consolidou-se como a principal catalisadora de novos unicórnios no cenário global…

1 semana ago

Finlândia ativa a maior bateria de areia do mundo

À primeira vista, não parece grande coisa. Mas foi na pequena cidade de Pornainen, na…

1 semana ago

Reforma tributária deve elevar custos com mão de obra no setor de tecnologia

O processo de transição previsto na reforma tributária terá ao menos um impacto negativo sobre…

1 semana ago

Relação entre OpenAI e Microsoft entra em clima de tensão, aponta WSJ

O que antes parecia uma aliança estratégica sólida começa a mostrar rachaduras. Segundo reportagem do…

1 semana ago

OpenAI fecha contrato de US$ 200 milhões com Departamento de Defesa dos EUA

O Departamento de Defesa dos Estados Unidos firmou um contrato de US$ 200 milhões com…

1 semana ago