論文の概要: How large language models judge and influence human cooperation
- arxiv url: http://arxiv.org/abs/2507.00088v1
- Date: Mon, 30 Jun 2025 09:14:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:58.349077
- Title: How large language models judge and influence human cooperation
- Title(参考訳): 言語モデルがいかにヒトの協力を判断し、影響を及ぼすか
- Authors: Alexandre S. Pires, Laurens Samson, Sennay Ghebreab, Fernando P. Santos,
- Abstract要約: 我々は、最先端の言語モデルが協調行動をどのように判断するかを評価する。
我々は、善良な相手との協力を評価する際、顕著な合意を守ります。
モデル間の差異が協調の頻度に大きく影響を及ぼすことを示す。
- 参考スコア(独自算出の注目度): 82.07571393247476
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans increasingly rely on large language models (LLMs) to support decisions in social settings. Previous work suggests that such tools shape people's moral and political judgements. However, the long-term implications of LLM-based social decision-making remain unknown. How will human cooperation be affected when the assessment of social interactions relies on language models? This is a pressing question, as human cooperation is often driven by indirect reciprocity, reputations, and the capacity to judge interactions of others. Here, we assess how state-of-the-art LLMs judge cooperative actions. We provide 21 different LLMs with an extensive set of examples where individuals cooperate -- or refuse cooperating -- in a range of social contexts, and ask how these interactions should be judged. Furthermore, through an evolutionary game-theoretical model, we evaluate cooperation dynamics in populations where the extracted LLM-driven judgements prevail, assessing the long-term impact of LLMs on human prosociality. We observe a remarkable agreement in evaluating cooperation against good opponents. On the other hand, we notice within- and between-model variance when judging cooperation with ill-reputed individuals. We show that the differences revealed between models can significantly impact the prevalence of cooperation. Finally, we test prompts to steer LLM norms, showing that such interventions can shape LLM judgements, particularly through goal-oriented prompts. Our research connects LLM-based advices and long-term social dynamics, and highlights the need to carefully align LLM norms in order to preserve human cooperation.
- Abstract(参考訳): 人間はより大きな言語モデル(LLM)に頼り、社会的環境における意思決定を支援する。
以前の研究は、こうした道具が人々の道徳的・政治的判断を形作っていることを示唆している。
しかし、LLMに基づく社会意思決定の長期的影響はいまだ不明である。
社会的相互作用の評価が言語モデルに依存する場合、人間の協力はどのように影響を受けるか?
人間の協力はしばしば間接的な相互性、評判、他人の相互作用を判断する能力によって引き起こされる。
ここでは、最先端のLLMが協調行動をどのように判断するかを評価する。
さまざまな社会的文脈において、個人が協力し(あるいは協力を拒否)、これらの相互作用をどのように判断すべきかを問う、広範な事例を21の異なるLLMに提供します。
さらに、進化ゲーム理論モデルを用いて、抽出されたLSMによる判断がヒトの社会性に与える影響を長期にわたって評価し、人口の協調動態を評価する。
我々は、善良な相手との協力を評価する際、顕著な合意を守ります。
一方,不利な個人との協調を判断する際には,モデル内とモデル間の違いに気付く。
モデル間の差異が協調の頻度に大きく影響を及ぼすことを示す。
最後に,LLMの規範を操るプロンプトを検証した結果,特に目標指向のプロンプトによって,LCMの判断を形成できることが判明した。
我々の研究は、LLMに基づくアドバイスと長期の社会的ダイナミクスを結びつけ、人間の協力を維持するために、LLMの規範を慎重に整合させる必要性を強調している。
関連論文リスト
- Corrupted by Reasoning: Reasoning Language Models Become Free-Riders in Public Goods Games [87.5673042805229]
大規模言語モデルは、アライメント、堅牢性、安全なデプロイメントを保証する上で、いかに自己関心と集合的幸福のバランスをとるかが重要な課題である。
我々は、行動経済学から制度的に選択した公共財ゲームに適応し、異なるLLMがいかに社会的ジレンマをナビゲートするかを観察することができる。
意外なことに、o1シリーズのようなLCMの推論は、協調にかなり苦労している。
論文 参考訳(メタデータ) (2025-06-29T15:02:47Z) - SocialEval: Evaluating Social Intelligence of Large Language Models [70.90981021629021]
ソーシャルインテリジェンス(英語版) (SI) は、社会的目標を達成するために社会的相互作用をナビゲートする際に賢明に行動する対人能力を持つ人間を装備する。
結果指向の目標達成評価とプロセス指向の対人能力評価という,運用評価パラダイムを提示する。
スクリプトベースのバイリンガルSIベンチマークであるSocialEvalを提案する。
論文 参考訳(メタデータ) (2025-06-01T08:36:51Z) - Static network structure cannot stabilize cooperation among Large Language Model agents [6.868298200380496]
大規模言語モデル(LLM)は、人間の社会的行動のモデル化にますます利用されている。
本研究の目的は,LLMとヒトの協調行動における並列性を明らかにすることである。
論文 参考訳(メタデータ) (2024-11-15T15:52:15Z) - Investigating Context Effects in Similarity Judgements in Large Language Models [6.421776078858197]
大規模言語モデル(LLM)は、自然言語テキストの理解と生成におけるAIモデルの能力に革命をもたらした。
命令バイアスによる人的判断とLCMのアライメントに関する調査が進行中である。
論文 参考訳(メタデータ) (2024-08-20T10:26:02Z) - Do LLM Agents Exhibit Social Behavior? [5.094340963261968]
State-Understanding-Value-Action (SUVA) は、社会的文脈における応答を体系的に分析するフレームワークである。
最終決定とそれにつながる反応生成プロセスの両方を通じて社会的行動を評価する。
発話に基づく推論がLLMの最終動作を確実に予測できることを実証する。
論文 参考訳(メタデータ) (2023-12-23T08:46:53Z) - Exploring Collaboration Mechanisms for LLM Agents: A Social Psychology View [60.80731090755224]
本稿では,理論的洞察を用いた実用実験により,現代NLPシステム間の協調機構を解明する。
我々は, LLMエージェントからなる4つの独特な社会をつくり, それぞれのエージェントは, 特定の特性(容易性, 過信性)によって特徴づけられ, 異なる思考パターン(議論, ふりかえり)と協調する。
以上の結果から, LLMエージェントは, 社会心理学理論を反映した, 適合性やコンセンサスリーディングといった人間的な社会的行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-10-03T15:05:52Z) - The Machine Psychology of Cooperation: Can GPT models operationalise prompts for altruism, cooperation, competitiveness and selfishness in economic games? [0.0]
GPT-3.5大言語モデル(LLM)を用いて,協調的,競争的,利他的,利己的行動の自然言語記述を操作可能とした。
被験者と実験心理学研究で用いられるのと同様のプロトコルを用いて,課題環境を記述するためのプロンプトを用いた。
この結果から,LLM が様々な協調姿勢の自然言語記述を適切な作業行動の記述にある程度翻訳できることが示唆された。
論文 参考訳(メタデータ) (2023-05-13T17:23:16Z) - Perspectives on Large Language Models for Relevance Judgment [56.935731584323996]
大型言語モデル(LLM)は、関連判断を支援することができると主張している。
自動判定が検索システムの評価に確実に利用できるかどうかは不明である。
論文 参考訳(メタデータ) (2023-04-13T13:08:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。