Inteligência artificial ajuda polícia britânica a analisar celulares apreendidos, mas causa polêmica

Softwares de inteligência artificial (AI) são capazes de interpretar imagens, combinar rostos e analisar padrões de comunicação. Popular em redes sociais para marcar fotos de amigos, o recurso que parece inofensivo está sendo testado pelas forças policiais do Reino Unido para acelerar a análise de celulares apreendidos em investigações criminais, diz o jornal local The Guardian.

A Cellebrite, empresa fundada em Israel e agora em adquirida por japoneses, afirma que uma implantação mais ampla resolveria problemas e falhas. No entanto, o movimento da polícia provocou preocupações sobre a privacidade e o potencial do software para introduzir preconceito na análise de provas criminais, já que a AI é programada por humanos.

De um lado, a polícia luta para lidar com o aumento exponencial dos volumes de dados gerados por telefones e laptops e busca por uma solução tecnológica para lidar com cargas de trabalho cada vez maiores. Algumas forças policiais no país consideram atrasos de até seis meses para examinar o conteúdo baixado de um celular em uma investigação.

Os dados de redes sociais e localização ajudam a polícia a saber se um suspeito estava em determinado local e em determinado momento. Os algoritmos de IA incorporados permitem que imagens e vídeos sejam marcados, conforme o conteúdo inclua armas, rostos, carros, nudez, drogas, bandeiras e outras categorias. A polícia é a favor das mudanças e disse entender a preocupação com preconceito, confiabilidade e privacidade, e argumenta que sempre haverá um controle humano dos sistemas investigativos de inteligência artificial policial no Reino Unido.

Do outro, uma grande preocupação sobre privacidade é com a forma como esses dados serão usados, divulgados e relacionados a pessoas que têm seus nomes conectados a criminosos ou vítimas de um caso de algumas forma. Já sobre preconceito, não está claro que fatores do sistema de IA está usando para avaliar o que é importante ou não em uma investigação.

Há também preocupações sobre a precisão da tecnologia, com testes de reconhecimento facial falhando em grande volume. Há, ainda, evidências de viés racial em alguns sistemas de reconhecimento de imagem existentes, que mostraram corresponder corretamente as faces brancas com mais frequência do que as faces de negros (causando erros graves).

 

Recent Posts

Pure Storage aposta em mudança de paradigma para gestão de dados corporativos

A Pure Storage está redefinindo sua estratégia de mercado com uma abordagem que abandona o…

3 dias ago

A inteligência artificial é mesmo uma catalisadora de novos unicórnios?

A inteligência artificial (IA) consolidou-se como a principal catalisadora de novos unicórnios no cenário global…

4 dias ago

Finlândia ativa a maior bateria de areia do mundo

À primeira vista, não parece grande coisa. Mas foi na pequena cidade de Pornainen, na…

4 dias ago

Reforma tributária deve elevar custos com mão de obra no setor de tecnologia

O processo de transição previsto na reforma tributária terá ao menos um impacto negativo sobre…

4 dias ago

Relação entre OpenAI e Microsoft entra em clima de tensão, aponta WSJ

O que antes parecia uma aliança estratégica sólida começa a mostrar rachaduras. Segundo reportagem do…

4 dias ago

OpenAI fecha contrato de US$ 200 milhões com Departamento de Defesa dos EUA

O Departamento de Defesa dos Estados Unidos firmou um contrato de US$ 200 milhões com…

4 dias ago