論文の概要: More at Stake: How Payoff and Language Shape LLM Agent Strategies in Cooperation Dilemmas
- arxiv url: http://arxiv.org/abs/2601.19082v1
- Date: Tue, 27 Jan 2026 01:36:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.117359
- Title: More at Stake: How Payoff and Language Shape LLM Agent Strategies in Cooperation Dilemmas
- Title(参考訳): より詳しく:協力ジレンマにおけるペイオフと言語形LLMエージェントの戦略
- Authors: Trung-Kiet Huynh, Dao-Sy Duy-Minh, Thanh-Bang Cao, Phong-Hao Le, Hong-Dan Nguyen, Nguyen Lam Phu Quy, Minh-Luan Nguyen-Vo, Hong-Phat Pham, Pham Phu Hoa, Thien-Kim Than, Chi-Nguyen Tran, Huy Tran, Gia-Thoai Tran-Le, Alessio Buscemi, Le Hong Trang, The Anh Han,
- Abstract要約: LLMは、インタラクティブでマルチエージェントな設定において、自律的なエージェントとしての役割をますます高めている。
繰り返しの社会的ジレンマにおいて,ペイオフ等級と言語文脈がLCM戦略をどう形成するかを検討する。
モデルと言語全体で、インセンティブに敏感な条件付き戦略や言語間の相違など、一貫した行動パターンを観察する。
- 参考スコア(独自算出の注目度): 1.6487772637295166
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As LLMs increasingly act as autonomous agents in interactive and multi-agent settings, understanding their strategic behavior is critical for safety, coordination, and AI-driven social and economic systems. We investigate how payoff magnitude and linguistic context shape LLM strategies in repeated social dilemmas, using a payoff-scaled Prisoner's Dilemma to isolate sensitivity to incentive strength. Across models and languages, we observe consistent behavioral patterns, including incentive-sensitive conditional strategies and cross-linguistic divergence. To interpret these dynamics, we train supervised classifiers on canonical repeated-game strategies and apply them to LLM decisions, revealing systematic, model- and language-dependent behavioral intentions, with linguistic framing sometimes matching or exceeding architectural effects. Our results provide a unified framework for auditing LLMs as strategic agents and highlight cooperation biases with direct implications for AI governance and multi-agent system design.
- Abstract(参考訳): LLMがインタラクティブでマルチエージェントな環境で自律的なエージェントとして働くようになるにつれ、彼らの戦略的行動を理解することは、安全、調整、AI駆動の社会・経済システムにとって重要である。
報奨規模と言語文脈が繰り返し社会ジレンマにおけるLCM戦略をどのように形成するかを,ペイオフスケールの囚人ジレンマを用いて検討し,インセンティブ強度に対する感受性を分離した。
モデルと言語全体で、インセンティブに敏感な条件付き戦略や言語間の相違など、一貫した行動パターンを観察する。
これらのダイナミクスを解釈するために、標準的な繰り返しゲーム戦略に基づいて教師付き分類器を訓練し、LLM決定に適用し、体系的、モデル的、言語に依存した行動意図を明らかにする。
この結果は,LLMを戦略的エージェントとして監査するための統一的なフレームワークを提供し,AIガバナンスやマルチエージェントシステム設計に直接的な意味を持つ協調バイアスを強調した。
関連論文リスト
- Understanding LLM Agent Behaviours via Game Theory: Strategy Recognition, Biases and Multi-Agent Dynamics [1.6487772637295166]
我々はFAIRGAMEフレームワークを拡張し、繰り返しの社会的ジレンマにおける大規模言語モデル(LLM)の振る舞いを評価する。
LLMは、言語フレーミングが建築的差異に匹敵する効果を発揮することを示し、体系的、モデル的、言語に依存した行動意図を示す。
論文 参考訳(メタデータ) (2025-12-08T11:40:03Z) - EPO: Explicit Policy Optimization for Strategic Reasoning in LLMs via Reinforcement Learning [69.55982246413046]
戦略的推論のための明示的なポリシー最適化(EPO)を提案する。
我々は,マルチターン強化学習(RL)による戦略的推論モデルを訓練し,プロセス報酬と反復的な自己プレイを活用する。
本研究は, EPOに出現する様々な協調的推論機構と, 新規戦略の創出における有効性を明らかにするものである。
論文 参考訳(メタデータ) (2025-02-18T03:15:55Z) - STRIDE: A Tool-Assisted LLM Agent Framework for Strategic and Interactive Decision-Making [43.734386326024016]
大規模言語モデル(LLM)は自然言語処理に革命をもたらしており、言語能力と推論能力が顕著である。
本稿では,その戦略的意思決定能力を高めるため,メモリと特殊なツールを備えた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-25T23:25:10Z) - Rethinking ChatGPT's Success: Usability and Cognitive Behaviors Enabled by Auto-regressive LLMs' Prompting [5.344199202349884]
本研究では,2種類の大規模言語モデルと6種類のタスク固有チャネルにおけるモーダル性の構造を分析した。
本研究では,LLMにおける多様な認知行動の刺激について,自由形テキストと言語文脈の導入を通して検討する。
論文 参考訳(メタデータ) (2024-05-17T00:19:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。