Jun 02, 2023
Quem é o culpado? Como percebemos a responsabilidade humana
Resumo: Mesmo quando as pessoas veem os assistentes baseados em IA apenas como ferramentas, ainda atribuem responsabilidade parcial a estes sistemas pelas decisões tomadas. A pesquisa investigou como os participantes percebiam
Resumo:Mesmo quando as pessoas veem os assistentes baseados em IA apenas como ferramentas, ainda atribuem responsabilidade parcial a estes sistemas pelas decisões tomadas.
A pesquisa investigou como os participantes percebiam a responsabilidade quando um motorista humano usava um assistente com tecnologia de IA em vez de um instrumento de navegação sem IA. Os participantes consideraram os assistentes de IA parcialmente responsáveis pelos sucessos e fracassos, mesmo afirmando que estes sistemas são apenas ferramentas.
O estudo lança uma nova luz sobre como as pessoas aplicam diferentes padrões morais para elogios e culpas quando a IA está envolvida na tomada de decisões.
Principais fatos
Fonte:LMU
Mesmo quando os humanos veem os assistentes baseados em IA apenas como ferramentas, atribuem-lhes responsabilidade parcial pelas decisões, como mostra um novo estudo.
Os futuros sistemas baseados em IA poderão navegar em veículos autônomos no trânsito sem intervenção humana. A pesquisa mostrou que as pessoas consideram esses sistemas futuristas de IA tão responsáveis quanto os humanos quando tomam decisões de trânsito autônomas. No entanto, os assistentes de IA da vida real estão muito distantes deste tipo de autonomia.
Eles fornecem aos usuários humanos informações de suporte, como auxílios à navegação e à direção. Então, quem é o responsável nesses casos da vida real, quando algo dá certo ou errado? O usuário humano? Ou o assistente de IA?
Uma equipe liderada por Louis Longin, da Cátedra de Filosofia da Mente, investigou agora como as pessoas avaliam a responsabilidade nesses casos.
“Todos nós temos assistentes inteligentes no bolso”, diz Longin.
“No entanto, muitas das evidências experimentais que temos sobre lacunas de responsabilidade concentram-se em robôs ou veículos autônomos, onde a IA está literalmente no comando, decidindo por nós. Investigar casos em que ainda somos nós que tomamos a decisão final, mas usamos a IA mais como um instrumento sofisticado, é essencial.”
Filósofo especializado na interação entre humanos e IA, Longin, trabalhando em colaboração com seu colega Dr. Bahador Bahrami e a Prof. assistente verbal, um assistente tátil inteligente com tecnologia de IA ou um instrumento de navegação sem IA. Os participantes também indicaram se consideravam o auxílio à navegação responsável e até que ponto era uma ferramenta.
Status ambivalente dos assistentes inteligentes
Os resultados revelam uma ambivalência: os participantes afirmaram veementemente que os assistentes inteligentes eram apenas ferramentas, mas consideravam-nos parcialmente responsáveis pelo sucesso ou fracasso dos motoristas humanos que os consultavam. Nenhuma divisão de responsabilidade ocorreu para o instrumento sem IA.
Não menos surpreendente para os autores foi que os assistentes inteligentes também foram considerados mais responsáveis pelos resultados positivos do que pelos negativos.
“As pessoas podem aplicar padrões morais diferentes para elogios e culpas. Quando um acidente é evitado e não ocorre nenhum dano, os padrões são relaxados, tornando mais fácil para as pessoas atribuirem crédito do que culpa a sistemas não humanos”, sugere o Dr. Bahrami, que é especialista em responsabilidade colectiva.
O papel da linguagem não é relevante
No estudo, os autores não encontraram diferença entre assistentes inteligentes que usavam linguagem e aqueles que alarmavam seus usuários com a vibração tátil da roda.
“Os dois forneceram as mesmas informações neste caso, 'Ei, cuidado, algo à frente', mas é claro que o ChatGPT na prática fornece muito mais informações”, diz Ophelia Deroy, cuja pesquisa examina nossas atitudes conflitantes em relação à inteligência artificial como uma forma de crenças animistas.
Em relação às informações adicionais fornecidas por novos sistemas de IA baseados em linguagem, como o ChatGPT, Deroy acrescenta: “Quanto mais rica a interação, mais fácil é antropomorfizar”.
“Em suma, as nossas descobertas apoiam a ideia de que os assistentes de IA são vistos como algo mais do que meras ferramentas de recomendação, mas continuam longe dos padrões humanos”, diz Longin.