A maioria das pessoas prefere inteligência artificial (IA) — não humanos — para tomar decisões importantes sobre a distribuição de recursos financeiros, apesar de ficarem mais felizes quando humanos tomam tais decisões.
A maioria (64%) dos participantes de um novo estudo publicado em 20 de junho na revista Escolha pública favoreceram algoritmos em detrimento de pessoas quando se tratou de decidir quanto dinheiro ganhariam por completar um conjunto de tarefas específicas.
Ao jogar o jogo, os participantes foram motivados não apenas por seus próprios interesses, disseram os cientistas, mas por ideais sobre justiça. Eles toleraram qualquer desvio entre a decisão e seus próprios interesses quando a IA tomou a decisão, desde que um princípio de justiça fosse seguido — mas quando a decisão não se alinhava com princípios comuns de justiça, eles reagiam muito negativamente.
Apesar de preferirem a tomada de decisão de IA em geral em vez de contrapartes humanas, os participantes estavam geralmente mais felizes com as decisões que as pessoas tomavam em vez de agentes de IA. Curiosamente, não importava o quão “justa” ou “correta” a decisão em si era.
O estudo descobriu que as pessoas estão abertas à ideia de IA tomar decisões graças à percepção de falta de viés, capacidade de explicar decisões e alto desempenho. Se os sistemas de IA realmente refletem ou não essas afirmações era irrelevante. Wolfgang Luhanprofessor de economia comportamental na Universidade de Portsmouth, no Reino Unido, chamou a transparência e a responsabilização dos algoritmos em contextos de tomada de decisões morais de “vitais”.
Como a justiça é uma construção social em que conceitos individuais são incorporados em um conjunto compartilhado de definições, os pesquisadores disseram que as pessoas concluiriam que algoritmos — treinados em grandes quantidades de dados de “justiça” — seriam uma representação melhor do que é justo do que um tomador de decisão humano.
Relacionado: 12 momentos decisivos na história da IA
O experimento se propôs a responder a diversas perguntas simples que os cientistas consideravam críticas, já que a sociedade terceiriza mais a tomada de decisões para a IA. Elas giravam em torno de se aqueles afetados por uma decisão prefeririam que humanos ou computadores a tomassem, e como as pessoas se sentiriam sobre a decisão tomada, dependendo se foi tomada por um humano ou uma IA.
“A questão da percepção e atitude das pessoas em relação às decisões algorítmicas e à IA em geral se tornou mais importante recentemente, com muitos líderes da indústria alertando sobre os perigos da ameaça que a IA representa e exigindo regulamentação”, disseram os cientistas no estudo.
O estudo focou em decisões redistributivas por causa de sua prevalência na política e na economia. Diferentemente de tarefas de previsão de IA, os resultados nessas áreas são considerados essencialmente de natureza moral ou ética, sem nenhuma resposta objetiva ou factualmente “correta” dependendo da definição de “justo” dos participantes.
O experimento foi conduzido online, onde humanos e tomadores de decisão de IA redistribuíram os ganhos de três tarefas entre dois jogadores. Independentemente de a decisão ser adequada aos indivíduos, os pesquisadores acreditavam que saber que uma IA estava tomando a decisão — e acreditar que essa foi uma decisão justa — tornou os resultados mais fáceis de aceitar.
Os pesquisadores também acreditam que as pessoas consideram que os algoritmos usados em tarefas sociais ou “humanas” carecem de julgamento subjetivo — o que os torna mais objetivos e, portanto, mais propensos a estarem corretos.
Os pesquisadores disseram que suas descobertas serão uma parte importante de qualquer discussão sobre o quão aberta a sociedade é para a tomada de decisões de IA. Eles acrescentaram que os resultados os deixam otimistas sobre o futuro, porque as decisões geradas por IA tendem a se alinhar com as preferências dos afetados.