論文の概要: How large language models judge and influence human cooperation
- arxiv url: http://arxiv.org/abs/2507.00088v1
- Date: Mon, 30 Jun 2025 09:14:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:58.349077
- Title: How large language models judge and influence human cooperation
- Title(参考訳): 言語モデルがいかにヒトの協力を判断し、影響を及ぼすか
- Authors: Alexandre S. Pires, Laurens Samson, Sennay Ghebreab, Fernando P. Santos,
- Abstract要約: 我々は、最先端の言語モデルが協調行動をどのように判断するかを評価する。
我々は、善良な相手との協力を評価する際、顕著な合意を守ります。
モデル間の差異が協調の頻度に大きく影響を及ぼすことを示す。
- 参考スコア(独自算出の注目度): 82.07571393247476
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans increasingly rely on large language models (LLMs) to support decisions in social settings. Previous work suggests that such tools shape people's moral and political judgements. However, the long-term implications of LLM-based social decision-making remain unknown. How will human cooperation be affected when the assessment of social interactions relies on language models? This is a pressing question, as human cooperation is often driven by indirect reciprocity, reputations, and the capacity to judge interactions of others. Here, we assess how state-of-the-art LLMs judge cooperative actions. We provide 21 different LLMs with an extensive set of examples where individuals cooperate -- or refuse cooperating -- in a range of social contexts, and ask how these interactions should be judged. Furthermore, through an evolutionary game-theoretical model, we evaluate cooperation dynamics in populations where the extracted LLM-driven judgements prevail, assessing the long-term impact of LLMs on human prosociality. We observe a remarkable agreement in evaluating cooperation against good opponents. On the other hand, we notice within- and between-model variance when judging cooperation with ill-reputed individuals. We show that the differences revealed between models can significantly impact the prevalence of cooperation. Finally, we test prompts to steer LLM norms, showing that such interventions can shape LLM judgements, particularly through goal-oriented prompts. Our research connects LLM-based advices and long-term social dynamics, and highlights the need to carefully align LLM norms in order to preserve human cooperation.
- Abstract(参考訳): 人間はより大きな言語モデル(LLM)に頼り、社会的環境における意思決定を支援する。
以前の研究は、こうした道具が人々の道徳的・政治的判断を形作っていることを示唆している。
しかし、LLMに基づく社会意思決定の長期的影響はいまだ不明である。
社会的相互作用の評価が言語モデルに依存する場合、人間の協力はどのように影響を受けるか?
人間の協力はしばしば間接的な相互性、評判、他人の相互作用を判断する能力によって引き起こされる。
ここでは、最先端のLLMが協調行動をどのように判断するかを評価する。
さまざまな社会的文脈において、個人が協力し(あるいは協力を拒否)、これらの相互作用をどのように判断すべきかを問う、広範な事例を21の異なるLLMに提供します。
さらに、進化ゲーム理論モデルを用いて、抽出されたLSMによる判断がヒトの社会性に与える影響を長期にわたって評価し、人口の協調動態を評価する。
我々は、善良な相手との協力を評価する際、顕著な合意を守ります。
一方,不利な個人との協調を判断する際には,モデル内とモデル間の違いに気付く。
モデル間の差異が協調の頻度に大きく影響を及ぼすことを示す。
最後に,LLMの規範を操るプロンプトを検証した結果,特に目標指向のプロンプトによって,LCMの判断を形成できることが判明した。
我々の研究は、LLMに基づくアドバイスと長期の社会的ダイナミクスを結びつけ、人間の協力を維持するために、LLMの規範を慎重に整合させる必要性を強調している。
関連論文リスト
作成中
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。