A indústria de Inteligência Artificial está jogando um jogo perigoso agora, ao abraçar uma nova geração de desenvolvedores cidadãos. Por um lado, provedores de soluções de IA, consultores e outros estão falando muito bem sobre “IA responsável”. Mas eles também estão incentivando uma nova geração de desenvolvedores não tradicionais a incorporar deep learning, machine learning, processamento de linguagem natural e outras informações em praticamente tudo.
Um cínico pode argumentar que essa atenção aos usos responsáveis da tecnologia é a tentativa da indústria de IA de neutralizar as demandas por maior regulamentação. Obviamente, ninguém espera que os fornecedores policiem como seus clientes usam seus produtos. Não é surpreendente que a principal abordagem da indústria para desencorajar aplicativos que atropelam a privacidade, cometem preconceitos sociais, gafe ético e coisas do gênero é emitir documentos de posição bem-intencionados sobre IA responsável. Exemplos recentes vieram da Microsoft, Google, Accenture, PwC, Deloitte e The Institute for Ethical AI and Machine Learning.
Outra abordagem que os fornecedores de IA estão adotando é construir recursos de IA responsáveis em suas ferramentas de desenvolvimento e plataformas de tempo de execução. Um anúncio recente que chamou minha atenção foi a visualização pública da Microsoft do Azure Percept. Este pacote de software, hardware e serviços foi projetado para estimular o desenvolvimento em massa de aplicativos de IA para implantação de borda.
Essencialmente, o Azure Percept incentiva o desenvolvimento de aplicativos de IA que, do ponto de vista social, podem ser altamente irresponsáveis. Estou me referindo à IA incorporada em câmeras inteligentes, alto-falantes inteligentes e outras plataformas cujo objetivo principal é espionar, vigiar e escutar. Especificamente, a nova oferta:
Para seu crédito, a Microsoft abordou a IA responsável no anúncio do Azure Percept. No entanto, você seria perdoado se pulasse isso. Após o núcleo da discussão do produto, o fornecedor afirma que:
“Como o Azure Percept é executado no Azure, ele inclui as proteções de segurança já incorporadas à plataforma Azure. …Todos os componentes da plataforma Azure Percept, do kit de desenvolvimento e serviços aos modelos de IA do Azure, passaram pelo processo de avaliação interna da Microsoft para operar de acordo com os princípios de IA responsáveis da Microsoft. …A equipe do Azure Percept está trabalhando atualmente com clientes selecionados para entender suas preocupações em torno do desenvolvimento e implantação responsáveis de IA em dispositivos de borda, e a equipe irá fornecer a eles documentação e acesso a kits de ferramentas como Fairlearn e InterpretML para suas próprias implementações de IA responsável”.
Tenho certeza de que esses e outros kits de ferramentas da Microsoft são bastante úteis para a construção de grades de proteção para evitar que aplicativos de IA se tornem invasores. Mas a noção de que você pode incutir responsabilidade em um aplicativo de IA – ou em qualquer produto – é problemática.
Partes inescrupulosas podem abusar intencionalmente de qualquer tecnologia para fins irresponsáveis, não importa o quão bem-intencionado seja seu design original. Esta manchete diz tudo sobre o recente anúncio do Facebook que está considerando colocar tecnologia de reconhecimento facial em um produto proposto de óculos inteligentes, “mas apenas se puder garantir que ‘estruturas de autoridade’ não abusem da privacidade do usuário”. Alguém já se deparou com uma estrutura de autoridade que nunca foi tentada ou teve a capacidade de abusar da privacidade do usuário?
Além disso, nenhum conjunto de componentes pode ser certificado como estando em conformidade com princípios amplos, vagos ou qualitativos, como aqueles incluídos sob o título de “IA responsável”. Uma abordagem abrangente para garantir resultados “responsáveis” no produto acabado envolveria, no mínimo, revisões rigorosas das partes interessadas, transparência algorítmica, garantia de qualidade e controles e pontos de verificação de mitigação de risco.
Além disso, se a IA responsável fosse um estilo discreto de engenharia de software, precisaria de métricas claras que um programador pudesse verificar ao certificar que um aplicativo criado com o Azure Percept produz resultados que são objetivamente éticos, justos, confiáveis, seguros, privados, seguros, inclusivos, transparente e/ou responsável. A Microsoft iniciou uma abordagem para desenvolver essas listas de verificação, mas não está nem de longe pronta para ser incorporada como uma ferramenta nos esforços de desenvolvimento de software de verificação. E uma lista de verificação por si só pode não ser suficiente. Em 2018, escrevi sobre as dificuldades em certificar qualquer produto de IA como seguro em um cenário de laboratório.
Mesmo que a IA responsável fosse tão fácil quanto exigir que os usuários empregassem um padrão de aplicativo de borda de IA padrão, é ingênuo pensar que a Microsoft ou qualquer fornecedor pode escalar um vasto ecossistema de desenvolvedores de IA de borda que aderem religiosamente a esses princípios.
No lançamento do Azure Percept, a Microsoft incluiu um guia que ensina os usuários a desenvolver, treinar e implantar soluções de IA de borda. Isso é importante, mas também deve discutir o que realmente significa responsabilidade no desenvolvimento de quaisquer aplicativos. Ao considerar a possibilidade de dar luz verde a um aplicativo, como o Edge AI, que tem consequências sociais potencialmente adversas, os desenvolvedores devem assumir a responsabilidade por:
Se os desenvolvedores não seguirem essas disciplinas no gerenciamento do ciclo de vida do aplicativo de IA de borda, não se surpreenda se seu trabalho manual se comportar de maneira irresponsável. Afinal, eles estão construindo soluções baseadas em IA, cuja principal função é assistir e ouvir as pessoas de forma contínua e inteligente.
O que poderia dar errado?
A Pure Storage está redefinindo sua estratégia de mercado com uma abordagem que abandona o…
A inteligência artificial (IA) consolidou-se como a principal catalisadora de novos unicórnios no cenário global…
À primeira vista, não parece grande coisa. Mas foi na pequena cidade de Pornainen, na…
O processo de transição previsto na reforma tributária terá ao menos um impacto negativo sobre…
O que antes parecia uma aliança estratégica sólida começa a mostrar rachaduras. Segundo reportagem do…
O Departamento de Defesa dos Estados Unidos firmou um contrato de US$ 200 milhões com…