Inteligência artificial deve ser regulamentada em nível internacional

Especialista no assunto, Patricia Peck alerta sobre mas traz a necessidade de se estabelecer regras que considerem o impacto ético e social dessas novas tecnologias

Author Photo
10:05 am - 06 de março de 2018

O meio digital e suas oportunidades de inovação permitem quebrar paradigmas e trazem grandes saltos evolutivos para os negócios. Mas devemos ter muito cuidado para que os avanços sejam sustentáveis e que os novos modelos de negócios não terminem gerando um ônus social maior do que o ganho econômico prometido, afinal, não pode ser apenas bom para alguns poucos, precisam de viabilidade no longo prazo para fomentar o bem estar da sociedade.

Estamos inseridos em uma realidade interconectada, diante de presenciar os profundos impactos da aplicação da inteligência artificial e do uso dos métodos de aprendizado de máquina (machine learning). É um contexto extremamente desafiador, onde através da internet é possível interligar todas as câmeras, de dentro e de fora das casas, e conseguir com um grande poder de processamento de dados na nuvem, analisar tudo isso e através de máquinas aprendizes propor às pessoas o que elas gostariam (ou será que induzir seria o termo mais apropriado)?

Neste contexto, o processo produtivo de trabalho passa por intensas modificações que vão exigir das instituições públicas e privadas a implementação de estratégias para permitir uma transição sustentável que vise o bem-estar dos indivíduos, uma vez que os avanços tecnológicos são um dos grandes vetores de transformação, pela natureza exponencial de mudanças que provocam.

A aplicação de novas tecnologias em várias frentes, as quais se combinam e aceleram umas às outras, impactam fortemente as estratégias das empresas, as formas de se fazer negócio, as relações comerciais, além de demandarem a tarefa de repensar os modelos de trabalho, a fim de absorver as mudanças estruturais da nova era e obter êxito na gestão dos impactos sociais resultantes.

A digitalização de atividades vem sendo aplicada por diversos setores, em diferentes processos e com finalidades distintas, especialmente com o objetivo de melhorar indicadores de eficiência e produtividade. Contudo, esse novo paradigma tecnológico requer reflexão profunda sobre fronteiras e princípios direcionadores da sua aplicação, e exige a ampliação do leque de competências necessárias para uma harmoniosa colaboração humano-tecnológica.

Para isso, há iniciativas que tramitam em regime de urgência para que se crie um quadro jurídico europeu mais robusto (framework legal), visto que já convivemos com muitos robôs de assistência médica e de sistemas de vigilância, segundo a opinião da eurodeputada luxemburguesa Mady Delvaux, do grupo Social Democrata, que é responsável pelo relatório sobre este tema que foi aprovado pela Comissão de Assuntos Jurídicos em 2017.

A iniciativa europeia busca trazer neste relatório sobre direito civil a formalização jurídica da lei de Asimov, que traz as três regras fundamentais da robótica, para que sejam aplicáveis tanto para a construção de robôs como para os sistemas de inteligência artificial.

Em princípio, a proposta é não vinculativa, mas traz a necessidade de se estabelecer regras que considerem o impacto ético e social destas novas tecnologias. Isso se deve ao fato de que a próxima geração de robôs que já está sendo desenvolvida é muito mais autônoma e tem capacidade de aprendizagem com coleta de dados, justamente onde a regulamentação se torna necessária.

A regulamentação deverá alcançar drones, robôs industriais, carros autodirigíveis, robôs de hotelaria, saúde e entretenimento. Há ainda a possibilidade de se aplicar um imposto sobre o trabalho realizado pelos robôs que possa ser utilizado para fomentar recursos para realocação de novos trabalhos pra os humanos.

No caso específico do uso de veículos autônomos, o Parlamento Europeu decidiu que as novas leis devem deixar mais claro de quem é a responsabilidade em caso de danos a terceiros e que deve criar um seguro para apoiar as vítimas deste tipo de acidente. E foi exatamente isso que aconteceu com a primeira lei aprovada neste sentido na Alemanha, de 21 de junho de 2017.

A Alemanha adotou a lei para carros autônomos com um conjunto de regras jurídicas tornando-se o primeiro dos Estados-Membros da União Europeia a ter uma legislação própria sobre a matéria. Por certo, um dos motivos de sair na frente foi o estímulo dos fabricantes, que possuem forte presença no país.

Com a nova lei, o motorista passa a estar legalmente autorizado a remover suas mãos do volante e ainda assim manter o controle da direção do veículo. Isso quer dizer que ele não será multado por estar sem as mãos ao volante, já que o carro é autônomo, mas significa que quem ainda é o responsável pela condução é o motorista, e não o carro (robotizado). Mesmo usando um sistema automatizado, a lei continua a exigir que o motorista mantenha a sua atenção e se necessário retome o controle do veículo para controle manual.

Há muitas críticas a esta legislação, que se mostra ainda inicial (incipiente), visto que permanece a exigência de se ter alguém legalmente habilitado a dirigir, não dispensando completamente a presença de um motorista (ex: apenas ter um proprietário do veículo responsável pelo carro autônomo).

Quanto ao registro dos dados, como o carro vem com uma “caixa-preta” (black box), os dados devem ser guardados pelo prazo de 6 meses e no caso de um acidente, por três anos. Se os dados não forem apagados após este período aplica uma multa conforme o Regulamento Geral de Proteção de Dados (GDPR).

Mas ainda há dúvidas sobre questões como: cabe a quem a responsabilidade de fazer o registro e o apagamento dos dados; quais métodos devem ser seguidos para o registro dos dados (padrões); quais seriam métodos a serem seguidos para evitar acesso não autorizado aos dados se o veículo for vendido a outra pessoa.

A Lei já entrou em vigor e está sujeita a uma reavaliação em 2019 para atualização de todos estes pontos e outros que venham a surgir.

Ademais, para concluir, o Parlamento Europeu tem proposto a criação de um código de ética que deve ser seguido por fabricantes e desenvolvedores de máquinas com inteligência artificial de forma a garantir que novos robôs tenham que seguir padrões de privacidade e respeitar valores de dignidade humana.

Há muitos robôs que já são envolvidos no tratamento de pessoas com deficiência, idosos e crianças, segundo a Federação Internacional de Robótica, vão existir 31 milhões de robôs domésticos no mundo até 2019, o que já lhes conferiria não apenas deveres, mas até direitos. É uma verdadeira população de robôs coexisitindo com humanos no planeta.

Como em várias outras áreas, a questão sobre a digitalização humanizada e sobre a ética na inteligência artificial, novamente traz a importância de uma regulamentação uniforme, para evitar que cada país siga criando a sua própria, o que é muito prejudicial para o próprio mercado. Nos temas de inovação tecnológica pensando um mundo conectado e globalizado, a capacidade de criar regulamentações mais internacionais e uniformes é extremamente importante para garantir segurança jurídica para os indivíduos e para as instituições. Não dá para cada lugar ter uma regra diferente.

Havendo um estatuto legal único, padronizado, que possa já vir direto de fábrica e que determine direitos, obrigações, responsabilidades, ficará mais fácil se houver um incidente conduzir o caso. Pois pode em uma situação ser responsabilidade do dono do robô, daquele que o programou ou mesmo do fabricante, ou até de um terceiro. E em muitas situações será aplicável ainda um seguro.

*Patricia Peck Pinheiro é advogada especialista em Direito Digital, graduada pela Universidade de São Paulo, doutoranda em Direito Internacional pela mesma instituição

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.