Notícias

Com relatório, Microsoft quer dar mais transparência para a inteligência artificial

Em carta divulgada recentemente pela Microsoft, e assinada por dois executivos da empresa –Brad Smith, vice-chairman e presidente, e Natasha Crampton, Chief Responsible AI Officer – a empresa anunciou seu primeiro relatório de inteligência artificial responsável. A empresa assumiu, em 2023, o compromisso de publicar o documento como forma de dar mais transparência ao seu desenvolvimento de IA.

O relatório é fruto de um programa de IA responsável, e faz parte de uma série de compromissos assumidos com o governo dos EUA. Outras empresas que trabalham no desenvolvimento de IA também assinaram. O primeiro relatório pode ser lido (em inglês) nesse link.

“Em 2016, nosso presidente e CEO, Satya Nadella, nos colocou em um caminho bem definido de adotar uma abordagem baseada em princípios e centrada no ser humano para nossos investimentos em inteligência artificial (IA)”, escrevem os executivos. “Desde então, temos trabalhado arduamente na construção de produtos que se alinham com nossos valores.”

Leia também: empresas confiam em jornada de IA, mas subestimam problemas

Esses valores, conforme enumerados pelos executivos, são seis: transparência, responsabilidade, justiça, inclusão, confiabilidade, segurança e privacidade.

“Este relatório nos permite dividir nossas práticas de amadurecimento, refletir sobre o que aprendemos, traçar nossas metas, responsabilizar-nos e ganhar a confiança do público”, continuam eles, dizendo que a empresa trabalha com IA responsável há oito anos. “Levamos muito a sério nossa responsabilidade de ir além de proteger nossa própria expertise, mas também de contribuir para o crescente corpus de conhecimento público, expandir o acesso a recursos e promover a transparência em IA nos setores público, privado e sem fins lucrativos.”

Detalhes do relatório da Microsoft

O documento dá informações sobre como a Microsoft usa IA generativa em aplicativos, e toma decisões para implantação deles. Também lista casos de estudos para ilustrar “como aplicamos nossas políticas e processos a distribuições de IA generativa”.

“Não há linha de chegada para IA responsável”, dizem os executivos, argumentando que se trata de uma responsabilidade permanente. “E embora este relatório não tenha todas as respostas, estamos comprometidos em compartilhar nossos aprendizados com antecedência e frequência.”

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias! 

Recent Posts

Pure Storage aposta em mudança de paradigma para gestão de dados corporativos

A Pure Storage está redefinindo sua estratégia de mercado com uma abordagem que abandona o…

1 semana ago

A inteligência artificial é mesmo uma catalisadora de novos unicórnios?

A inteligência artificial (IA) consolidou-se como a principal catalisadora de novos unicórnios no cenário global…

1 semana ago

Finlândia ativa a maior bateria de areia do mundo

À primeira vista, não parece grande coisa. Mas foi na pequena cidade de Pornainen, na…

1 semana ago

Reforma tributária deve elevar custos com mão de obra no setor de tecnologia

O processo de transição previsto na reforma tributária terá ao menos um impacto negativo sobre…

1 semana ago

Relação entre OpenAI e Microsoft entra em clima de tensão, aponta WSJ

O que antes parecia uma aliança estratégica sólida começa a mostrar rachaduras. Segundo reportagem do…

1 semana ago

OpenAI fecha contrato de US$ 200 milhões com Departamento de Defesa dos EUA

O Departamento de Defesa dos Estados Unidos firmou um contrato de US$ 200 milhões com…

1 semana ago