Google revoga promessa de não desenvolver armas de IA

Gigante da tecnologia removeu de suas diretrizes alguns de seus princípios de IA, citando um “cenário geopolítico complexo”

Author Photo
5:11 pm - 05 de fevereiro de 2025
Imagem: Shutterstock

O Google atualizou seus princípios de inteligência artificial na terça-feira (4), removendo compromissos anteriores de não utilizar a tecnologia de maneira que “cause ou tenha probabilidade de causar danos em geral”.

Um trecho excluído das diretrizes revisadas de ética em IA anteriormente declarava que o Google não projetaria nem implementaria IA para uso em vigilância, armamentos ou tecnologias destinadas a ferir pessoas. A mudança foi inicialmente identificada pelo The Washington Post e registrada pelo Internet Archive.

Informações do The Verge revelam que coincidindo com essas alterações, o CEO da Google DeepMind, Demis Hassabis, e o executivo sênior do Google para tecnologia e sociedade, James Manyika, publicaram um post no blog da empresa detalhando os novos “princípios fundamentais” que guiarão sua abordagem à IA. Esses princípios incluem inovação, colaboração e desenvolvimento “responsável” de IA — sem fazer compromissos específicos.

“Está ocorrendo uma competição global pela liderança em IA em um cenário geopolítico cada vez mais complexo”, diz a publicação. “Acreditamos que as democracias devem liderar o desenvolvimento da IA, guiadas por valores fundamentais como liberdade, igualdade e respeito pelos direitos humanos. E acreditamos que empresas, governos e organizações que compartilham esses valores devem trabalhar juntos para criar uma IA que proteja as pessoas, promova o crescimento global e apoie a segurança nacional.”

Leia também: “Autorregulação” das big techs: o risco para a privacidade digital 

Mudança de postura do Google

Hassabis ingressou no Google após a aquisição da DeepMind em 2014. Em uma entrevista à Wired em 2015, ele afirmou que a aquisição incluía cláusulas que impediam o uso da tecnologia da DeepMind para aplicações militares ou de vigilância.

Apesar da promessa anterior de não desenvolver armas de IA, o Google já trabalhou em vários contratos militares, incluindo o Project Maven — um projeto do Pentágono em 2018 que usava IA para analisar imagens de drones — e o Project Nimbus, um contrato de nuvem militar firmado em 2021 com o governo de Israel.

Esses acordos, feitos antes da evolução da IA para o que é hoje, geraram polêmica entre funcionários do Google que acreditavam que violavam os princípios de IA da empresa.

Com essa atualização em suas diretrizes éticas, o Google se alinha mais aos seus concorrentes no desenvolvimento de IA. Tecnologias como o Llama, da Meta, e o ChatGPT, da OpenAI, já permitem certos usos militares, e um acordo entre a Amazon e a empresa de software governamental Palantir possibilita que a Anthropic venda sua IA Claude para clientes militares e de inteligência dos EUA.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Author Photo
Redação

A redação contempla textos de caráter informativo produzidos pela equipe de jornalistas do IT Forum.

Author Photo

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.