Talvez precisemos acabar com a autoconfiança dos robôs se quisermos que eles sejam bons

img-post
Estudante de 18 anos cria menor satélite do mundo (e com impressão 3D)
9 de junho de 2017
img-post
Robôs equilibradores de pedras podem construir nossos futuros habitats em Marte
20 de junho de 2017
Mostrar todos posts

Talvez precisemos acabar com a autoconfiança dos robôs se quisermos que eles sejam bons

img-post

Todos nós nos preocupamos com a possibilidade de a inteligência artificial alcançar um patamar em que sua habilidade cognitiva ultrapasse a nossa e então ela se vire contra a humanidade. Mas e se transformássemos a inteligência artificial em um robozinho que anseia pela nossa aprovação e aceitação? Pesquisadores estão sugerindo que esse seria um grande passo em direção a otimização dos algoritmos, mesmo que eles não queiram nos matar.

Em um novo estudo, uma equipe de cientistas começou a explorar a questão prática (e filosófica) da quantidade de autoconfiança que uma inteligência artificial deveria ter. Dylan Hadfield-Menell, pesquisador da Universidade da Califórnia e um dos autores do estudo, disse à New Scientist que o algoritmo do feed de notícias do Facebook é um exemplo perfeito de uma confiança da máquina que deu errado. O algoritmo é bom em servir aquilo que acredita que fará você clicar, mas está tão ocupado decidindo se consegue criar engajamento que nem se pergunta se deveria fazer isso. Hadfield-Menell sente que uma IA seria melhor ao realizar escolhas e identificar as notícias falsas se fosse programada para buscar uma supervisão humana.

Para colocar alguns dados por trás dessa ideia, o time de Hadfield-Menell criou um modelo matemático que eles chamam de “jogo do desliga”. A premissa é simples: um robô tem um interruptor para ser desligado e uma tarefa; um humano pode desligar o robô a qualquer momento, mas ele pode anular essa ação caso acredite que deve. “Confiança” pode significar muitas coisas em uma inteligência artificial. Pode significar que a IA foi treinada para assumir que seus sensores são mais confiáveis do que a percepção humana, e se a situação é insegura, o humano não deve ser autorizado a desligá-la. E pode significar que a IA sabe mais sobre nossos objetivos de produtividade e que um humano será demitido se um processo não foi finalizado – dependendo da tarefa, pode ser que um monte de fatores sejam considerados.

O estudo não chega a nenhuma conclusão sobre “quanta” confiança é exagerada – é um cenário que vai de caso a caso. Ele apresenta alguns modelos teóricos em que a confiança da IA baseia-se na percepção de sua própria utilidade e da falta de confiança na tomada de decisões humanas.

O modelo nos permite ver alguns resultados hipotéticos do que aconteceria quando uma IA possuísse muita ou pouca confiança. No entanto, o mais importante é que o estudo está jogando luz sobre esse problema. Especialmente nessa era recente da inteligência artificial, os algoritmos precisam de toda uma orientação humana. Muito disso está sendo realizado por meio de aprendizagem de máquina, e todos nós atuamos como cobaias enquanto usamos nossos dispositivos. Mas a aprendizagem de máquinas não é excelente para todos os casos. Por um bom tempo, o principal resultado de pesquisa no Google para a pergunta “O Holocausto aconteceu?” era um link para o site de supremacia branca Stormfront. O Google acabou admitindo que seu algoritmo não mostrava o melhor resultado e corrigiu o problema.

Hadfield-Menell e sua equipe reforçam que a inteligência artificial precisará ser capaz de anular as decisões humanas em muitas situações. Uma criança não pode ser autorizada a desligar os sistemas de navegação de um carro autônomo, por exemplo. Não há respostas aqui, apenas mais perguntas.

A equipe planeja continuar trabalhando nesse problema de confiança da IA com conjuntos de dados maiores, para que a máquina faça julgamentos sobre sua própria utilidade. Por enquanto, é um problema que ainda podemos controlar. Infelizmente, a autoconfiança dos humanos inovadores é imutável.

Fonte: Gizmodo

Os comentários estão fechados.