A medida que os modelos de linguagem grandes (LLMs) se tornam mais amplamente utilizados, as pessoas passaram a depender cada vez mais deles para tomar decisões morais ou aconselhar sobre elas. Alguns pesquisadores até propõem usar os LLMs como participantes em experimentos de psicologia. Portanto, é importante entender como os LLMs tomam decisões morais e como elas se comparam às humanas. Investigamos essas questões pedindo a uma variedade de LLMs para emular ou aconselhar sobre decisões de pessoas em dilemas morais realistas. No Estudo 1, comparamos as respostas dos LLMs às de uma amostra representativa dos EUA (N = 285) para 22 dilemas, incluindo tanto problemas de ação coletiva que colocavam o interesse próprio contra o bem maior quanto dilemas morais que confrontavam o raciocínio utilitário de custo-benefício com regras deontológicas. Em problemas de ação coletiva, os LLMs foram mais altruístas que os participantes. Em dilemas morais, os LLMs exibiram um viés de omissão mais forte que os participantes: normalmente endossaram a inação em vez da ação. No Estudo 2 (N = 474, pré-registrado), replicamos esse viés de omissão e documentamos um viés adicional: ao contrário dos humanos, a maioria dos LLMs tendia a responder "não" em dilemas morais, invertendo sua decisão/aconselhamento dependendo de como a pergunta era formulada. No Estudo 3 (N = 491, pré-registrado), replicamos esses vieses nos LLMs usando dilemas morais cotidianos adaptados de postagens em fóruns no Reddit. No Estudo 4, investigamos as fontes desses vieses comparando modelos com e sem ajuste fino, mostrando que eles provavelmente surgem do ajuste fino dos modelos para aplicativos de chatbot. Nossos resultados sugerem que a dependência irrestrita nas decisões morais e conselhos dos LLMs pode amplificar os vieses humanos e introduzir vieses potencialmente problemáticos.
Imagem aqui
Nenhum comentário:
Postar um comentário