Categories: Notícias

Pesquisadores ensinam robôs a serem bons e a ler histórias para crianças

Não há manual para ser um bom humano. Contudo, cumprimentar estranhos pela manhã, dizer obrigado e abrir portas para as pessoas provavelmente estão entre as melhores coisas que sabemos que devemos fazer, mesmo que às vezes elas caiam no esquecimento.
O que pesquisadores do Instituto de Tecnologia da Geórgia, nos Estados Unidos, querem fazer agora é educar robôs, para que eles sejam bons robôs. E um dos primeiros ensinamentos será ler para crianças.
Usando um projeto anterior, que fez um computador recolher automaticamente narrativas de histórias e corrigi-las na web, os pesquisadores Mark Riedl e Brent Harrison estão agora ensinando robôs a assumir o papel de “protagonista” para que eles façam as escolhas certas.
Quando confrontados com uma série de opções como roubar a farmácia ou usar a prescrição, por exemplo, um sinal de recompensa pode ser produzido cada vez que computador traçar o resultado de cada cenário.
Roubar a loja pode ser a maneira mais rápida e mais barata de obter os medicamentos, mas o ser humano aprende e inclui em seus valores que isso não é o correto. Assim será com os robôs.
Riedl, que é professor associado e diretor do Entertainment Intelligence Lab da Universidade, chama isso de “primeiro passo em direção ao primitivo raciocínio moral geral na inteligência artificial“.
De acordo com os pesquisadores, as histórias coletadas de diferentes culturas ensinam as crianças como se comportar de maneira socialmente aceitável com exemplos de comportamentos adequados e inadequados, em fábulas, romances e outras narrativas.
“Acreditamos que a compreensão de histórias em robôs pode eliminar comportamentos psicóticos, reforçando escolhas que não irão prejudicar os seres humanos e ainda atingir a meta pretendida”, afirmam os ehttps://itforum.com.br/wp-content/uploads/2018/07/shutterstock_528397474.webpsos.
A equipe disse que a principal limitação para o trabalho no momento é que os ensinamentos só podem ser aplicados a robôs que executam uma gama limitada de tarefas para os seres humanos.
Além disso, os pesquisadores advertem que, mesmo com o alinhamento de valor, pode não ser possível evitar todos os danos aos seres humanos. “Mas acreditamos que uma inteligência artificial que tenha sido aculturada, isto é, tenha adotado os valores implícitos de uma cultura ou sociedade vai se esforçar para evitar comportamentos psicóticos – exceto sob circunstâncias mais extremas”, finalizam.

Recent Posts

Pure Storage aposta em mudança de paradigma para gestão de dados corporativos

A Pure Storage está redefinindo sua estratégia de mercado com uma abordagem que abandona o…

6 dias ago

A inteligência artificial é mesmo uma catalisadora de novos unicórnios?

A inteligência artificial (IA) consolidou-se como a principal catalisadora de novos unicórnios no cenário global…

6 dias ago

Finlândia ativa a maior bateria de areia do mundo

À primeira vista, não parece grande coisa. Mas foi na pequena cidade de Pornainen, na…

6 dias ago

Reforma tributária deve elevar custos com mão de obra no setor de tecnologia

O processo de transição previsto na reforma tributária terá ao menos um impacto negativo sobre…

6 dias ago

Relação entre OpenAI e Microsoft entra em clima de tensão, aponta WSJ

O que antes parecia uma aliança estratégica sólida começa a mostrar rachaduras. Segundo reportagem do…

6 dias ago

OpenAI fecha contrato de US$ 200 milhões com Departamento de Defesa dos EUA

O Departamento de Defesa dos Estados Unidos firmou um contrato de US$ 200 milhões com…

6 dias ago