論文の概要: Corrupted by Reasoning: Reasoning Language Models Become Free-Riders in Public Goods Games
- arxiv url: http://arxiv.org/abs/2506.23276v1
- Date: Sun, 29 Jun 2025 15:02:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.802848
- Title: Corrupted by Reasoning: Reasoning Language Models Become Free-Riders in Public Goods Games
- Title(参考訳): 推論によって崩壊: 言語モデルがパブリックグッズゲームでフリーライダーになる
- Authors: David Guzman Piedrahita, Yongjin Yang, Mrinmaya Sachan, Giorgia Ramponi, Bernhard Schölkopf, Zhijing Jin,
- Abstract要約: 大規模言語モデルは、アライメント、堅牢性、安全なデプロイメントを保証する上で、いかに自己関心と集合的幸福のバランスをとるかが重要な課題である。
我々は、行動経済学から制度的に選択した公共財ゲームに適応し、異なるLLMがいかに社会的ジレンマをナビゲートするかを観察することができる。
意外なことに、o1シリーズのようなLCMの推論は、協調にかなり苦労している。
- 参考スコア(独自算出の注目度): 87.5673042805229
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: As large language models (LLMs) are increasingly deployed as autonomous agents, understanding their cooperation and social mechanisms is becoming increasingly important. In particular, how LLMs balance self-interest and collective well-being is a critical challenge for ensuring alignment, robustness, and safe deployment. In this paper, we examine the challenge of costly sanctioning in multi-agent LLM systems, where an agent must decide whether to invest its own resources to incentivize cooperation or penalize defection. To study this, we adapt a public goods game with institutional choice from behavioral economics, allowing us to observe how different LLMs navigate social dilemmas over repeated interactions. Our analysis reveals four distinct behavioral patterns among models: some consistently establish and sustain high levels of cooperation, others fluctuate between engagement and disengagement, some gradually decline in cooperative behavior over time, and others rigidly follow fixed strategies regardless of outcomes. Surprisingly, we find that reasoning LLMs, such as the o1 series, struggle significantly with cooperation, whereas some traditional LLMs consistently achieve high levels of cooperation. These findings suggest that the current approach to improving LLMs, which focuses on enhancing their reasoning capabilities, does not necessarily lead to cooperation, providing valuable insights for deploying LLM agents in environments that require sustained collaboration. Our code is available at https://github.com/davidguzmanp/SanctSim
- Abstract(参考訳): 大規模言語モデル(LLM)が自律的エージェントとしてますます展開されるにつれて、その協力や社会的メカニズムの理解がますます重要になっている。
特に、LCMが自己利益と集合的幸福のバランスをとることは、アライメント、堅牢性、安全なデプロイメントを保証する上で重要な課題です。
本稿では,多エージェント LLM システムにおけるコスト削減の課題について考察する。
これを研究するために,行動経済学から制度的に選択した公共財ゲームに適応し,異なるLLMが反復的な相互作用を通じてどのように社会的ジレンマをナビゲートするかを観察する。
分析の結果,高いレベルの協力を維持し維持するモデル,エンゲージメントと非エンゲージメントの間に変動するモデル,時間とともに協調行動が徐々に低下するモデル,結果に関係なく厳格に一定の戦略に従うモデル,の4つの異なる行動パターンが明らかになった。
意外なことに、o1シリーズのようなLLMの推論は協調に大きく苦労しているのに対し、従来のLLMは高いレベルの協力を継続的に達成している。
これらの結果から,LLMの改善は必ずしも協力に結びつくものではなく,持続的な協力を必要とする環境にLLMエージェントを配置する上で貴重な知見をもたらすことが示唆された。
私たちのコードはhttps://github.com/davidguzmanp/SanctSimで利用可能です。
関連論文リスト
- Static network structure cannot stabilize cooperation among Large Language Model agents [6.868298200380496]
大規模言語モデル(LLM)は、人間の社会的行動のモデル化にますます利用されている。
本研究の目的は,LLMとヒトの協調行動における並列性を明らかにすることである。
論文 参考訳(メタデータ) (2024-11-15T15:52:15Z) - Cooperate or Collapse: Emergence of Sustainable Cooperation in a Society of LLM Agents [101.17919953243107]
GovSimは、大規模言語モデル(LLM)における戦略的相互作用と協調的意思決定を研究するために設計された生成シミュレーションプラットフォームである。
最強のLSMエージェントを除く全てのエージェントは、GovSimの持続的均衡を達成することができず、生存率は54%以下である。
道徳的思考の理論である「大学化」に基づく推論を活用するエージェントは、持続可能性を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-04-25T15:59:16Z) - Exploring Collaboration Mechanisms for LLM Agents: A Social Psychology View [60.80731090755224]
本稿では,理論的洞察を用いた実用実験により,現代NLPシステム間の協調機構を解明する。
我々は, LLMエージェントからなる4つの独特な社会をつくり, それぞれのエージェントは, 特定の特性(容易性, 過信性)によって特徴づけられ, 異なる思考パターン(議論, ふりかえり)と協調する。
以上の結果から, LLMエージェントは, 社会心理学理論を反映した, 適合性やコンセンサスリーディングといった人間的な社会的行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-10-03T15:05:52Z) - The Machine Psychology of Cooperation: Can GPT models operationalise prompts for altruism, cooperation, competitiveness and selfishness in economic games? [0.0]
GPT-3.5大言語モデル(LLM)を用いて,協調的,競争的,利他的,利己的行動の自然言語記述を操作可能とした。
被験者と実験心理学研究で用いられるのと同様のプロトコルを用いて,課題環境を記述するためのプロンプトを用いた。
この結果から,LLM が様々な協調姿勢の自然言語記述を適切な作業行動の記述にある程度翻訳できることが示唆された。
論文 参考訳(メタデータ) (2023-05-13T17:23:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。