LOADING...
Faça login e
comente
Usuário ou Email
Senha
Esqueceu sua senha?
Ou
Registrar e
publicar
Você está quase pronto! Agora definir o seu nome de usuário e senha.
Usuário
Email
Senha
Senha
» Anuncie » Envie uma dica Ei, você é um redator, programador ou web designer? Estamos contratando!

Programas de inteligência artificial estão sendo treinados para lidar com erros humanos

09 de fevereiro de 2018 2

Uma mulher chamada Anca Dragan é a chefe de uma equipe da Universidade da Califórnia em Berkely, cujo único trabalho é prever possíveis cenários caóticos nas relações entre humanos e inteligências artificiais que possam ser gerados por comunicações vagas ou pouco objetivas, e descobrir como preveni-los. Seres humanos cometem erros e podem deturpar seus desejos, ou deixar de lado detalhes importantes, levando a mal-entendidos, mesmo entre outros seres humanos. Quando se trata de IA, especialmente com robótica avançada envolvida, as coisas podem sair de controle muito rapidamente. É aí que Dragan e sua equipe entram.

O Centro para IA Compatível com Humanos foi construído em torno do conceito de que IAs podem ser ensinadas a lidar com inconsistências humanas. Uma das principais estratégias adotadas, de acordo com a própria Dragan, é fazer com que a IA examine uma tarefa que lhe é dada para descobrir qual é seu objetivo real e, em seguida, avaliar se a ação requisitada e os métodos sugeridos são compatíveis entre si ou não.

Dragan e sua equipe também querem que os programas de IA sejam capazes de dizer quando um objetivo recebido por eles possa não corresponder inteiramente aos desejos de um ser humano, ou ser algo potencialmente prejudicial a esse ser humano e aqueles que o rodeiam. Essa avaliação poderá ser realizada essencialmente ensinando os programas de IA a priorizarem resultados, tarefas e valores, da mesma forma que os humanos. O objetivo é que os programas reconheçam quando uma tarefa é questionável ou vaga, e depois verifiquem com o humano que emitiu essas instruções para obterem esclarecimentos e avisar sobre possíveis erros previstos antes mesmo da execução da ordem.

A ficção científica popular e os verdadeiros especialistas da área se tornaram cada vez mais receosos nos últimos anos sobre o potencial negativo da evolução de tecnologias de inteligência artificial mal utilizadas, especialmente quando integradas à robótica avançada. Dragan e sua equipe procuram evitar exatamente os tipos de situações perigosas sobre as quais filmes como 'Eu, Robô' e especialistas como Elon Musk vêm nos advertindo há anos.


2

Comentários

Programas de inteligência artificial estão sendo treinados para lidar com erros humanos
Android

Celular mais rápido! Ranking TudoCelular com gráficos de todos os testes de desempenho

Android

Celular com a melhor bateria! Ranking TudoCelular com todos os testes de autonomia

Windows

Versão 122 beta do Microsoft Edge com melhorias e atualização de recursos

Economia e mercado

Vídeo gravado por passageiro mostra interior de aeronave após acidente no Japão; assista