論文の概要: Understanding LLM Agent Behaviours via Game Theory: Strategy Recognition, Biases and Multi-Agent Dynamics
- arxiv url: http://arxiv.org/abs/2512.07462v2
- Date: Thu, 11 Dec 2025 20:32:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 13:50:28.999063
- Title: Understanding LLM Agent Behaviours via Game Theory: Strategy Recognition, Biases and Multi-Agent Dynamics
- Title(参考訳): ゲーム理論によるLLMエージェント行動の理解:戦略認識、バイアス、マルチエージェントダイナミクス
- Authors: Trung-Kiet Huynh, Duy-Minh Dao-Sy, Thanh-Bang Cao, Phong-Hao Le, Hong-Dan Nguyen, Phu-Quy Nguyen-Lam, Minh-Luan Nguyen-Vo, Hong-Phat Pham, Phu-Hoa Pham, Thien-Kim Than, Chi-Nguyen Tran, Huy Tran, Gia-Thoai Tran-Le, Alessio Buscemi, Le Hong Trang, The Anh Han,
- Abstract要約: 我々はFAIRGAMEフレームワークを拡張し、繰り返しの社会的ジレンマにおける大規模言語モデル(LLM)の振る舞いを評価する。
LLMは、言語フレーミングが建築的差異に匹敵する効果を発揮することを示し、体系的、モデル的、言語に依存した行動意図を示す。
- 参考スコア(独自算出の注目度): 1.6487772637295166
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As Large Language Models (LLMs) increasingly operate as autonomous decision-makers in interactive and multi-agent systems and human societies, understanding their strategic behaviour has profound implications for safety, coordination, and the design of AI-driven social and economic infrastructures. Assessing such behaviour requires methods that capture not only what LLMs output, but the underlying intentions that guide their decisions. In this work, we extend the FAIRGAME framework to systematically evaluate LLM behaviour in repeated social dilemmas through two complementary advances: a payoff-scaled Prisoners Dilemma isolating sensitivity to incentive magnitude, and an integrated multi-agent Public Goods Game with dynamic payoffs and multi-agent histories. These environments reveal consistent behavioural signatures across models and languages, including incentive-sensitive cooperation, cross-linguistic divergence and end-game alignment toward defection. To interpret these patterns, we train traditional supervised classification models on canonical repeated-game strategies and apply them to FAIRGAME trajectories, showing that LLMs exhibit systematic, model- and language-dependent behavioural intentions, with linguistic framing at times exerting effects as strong as architectural differences. Together, these findings provide a unified methodological foundation for auditing LLMs as strategic agents and reveal systematic cooperation biases with direct implications for AI governance, collective decision-making, and the design of safe multi-agent systems.
- Abstract(参考訳): 大規模言語モデル(LLM)は、インタラクティブでマルチエージェントなシステムや人間社会において自律的な意思決定者として機能するようになり、その戦略的行動を理解することは、AI駆動の社会・経済基盤の設計に重大な影響を及ぼす。
このような振る舞いを評価するには、LCMが出力するものだけでなく、意思決定を導く基本的な意図をキャプチャするメソッドが必要です。
本研究では, FAIRGAMEフレームワークを拡張して, 報酬スケールの囚人ジレンマと, ダイナミックなペイオフとマルチエージェントヒストリーを備えたマルチエージェント・パブリック・グッズ・ゲームという2つの相補的な進歩を通じて, 繰り返しの社会的ジレンマにおけるLCMの挙動を体系的に評価する。
これらの環境は、インセンティブに敏感な協調、言語間の相違、欠陥に対するエンドゲームアライメントなど、モデルと言語間で一貫した行動シグネチャを示す。
これらのパターンを解釈するために、従来の教師付き分類モデルを学習し、それらをFAIRGAMEトラジェクトリに適用し、LLMが体系的、モデル的、言語に依存した行動意図を示すことを示す。
これらの知見は、LLMを戦略的エージェントとして監査するための統一的な方法論基盤を提供し、AIガバナンス、集合的意思決定、安全なマルチエージェントシステムの設計といった直接的な意味を持つ体系的な協調バイアスを明らかにする。
関連論文リスト
- Fundamentals of Building Autonomous LLM Agents [64.39018305018904]
本稿では,大規模言語モデル(LLM)を用いたエージェントのアーキテクチャと実装手法について概説する。
この研究は、複雑なタスクを自動化し、人間の能力でパフォーマンスのギャップを埋めることのできる「アジェンティック」なLLMを開発するためのパターンを探求することを目的としている。
論文 参考訳(メタデータ) (2025-10-10T10:32:39Z) - Corrupted by Reasoning: Reasoning Language Models Become Free-Riders in Public Goods Games [87.5673042805229]
大規模言語モデルは、アライメント、堅牢性、安全なデプロイメントを保証する上で、いかに自己関心と集合的幸福のバランスをとるかが重要な課題である。
我々は、行動経済学から制度的に選択した公共財ゲームに適応し、異なるLLMがいかに社会的ジレンマをナビゲートするかを観察することができる。
意外なことに、o1シリーズのようなLCMの推論は、協調にかなり苦労している。
論文 参考訳(メタデータ) (2025-06-29T15:02:47Z) - A Survey of Frontiers in LLM Reasoning: Inference Scaling, Learning to Reason, and Agentic Systems [93.8285345915925]
推論(Reasoning)は、論理的推論、問題解決、意思決定を可能にする基本的な認知プロセスである。
大規模言語モデル(LLM)の急速な進歩により、推論は高度なAIシステムを区別する重要な能力として浮上した。
我々は,(1)推論が達成される段階を定義するレジーム,(2)推論プロセスに関与するコンポーネントを決定するアーキテクチャの2つの側面に沿って既存の手法を分類する。
論文 参考訳(メタデータ) (2025-04-12T01:27:49Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - Rethinking ChatGPT's Success: Usability and Cognitive Behaviors Enabled by Auto-regressive LLMs' Prompting [5.344199202349884]
本研究では,2種類の大規模言語モデルと6種類のタスク固有チャネルにおけるモーダル性の構造を分析した。
本研究では,LLMにおける多様な認知行動の刺激について,自由形テキストと言語文脈の導入を通して検討する。
論文 参考訳(メタデータ) (2024-05-17T00:19:41Z) - Organizing a Society of Language Models: Structures and Mechanisms for Enhanced Collective Intelligence [0.0]
本稿では,大規模言語モデルからコミュニティ構造への変換手法を提案する。
協力型AIシステムに特有のメリットと課題を提示する,階層的,フラット,ダイナミック,フェデレートされたさまざまな組織モデルについて検討する。
このようなコミュニティの実装は、AIにおける問題解決能力を改善するための大きな約束を持っている。
論文 参考訳(メタデータ) (2024-05-06T20:15:45Z) - Transforming Competition into Collaboration: The Revolutionary Role of Multi-Agent Systems and Language Models in Modern Organizations [0.0]
本稿では,マルチエージェントシステム理論(SMA)と大規模言語モデル(LLM)に基づく計算エンティティがユーザインタラクションに与える影響について考察する。
提案手法では,大規模言語モデル (LLM) から発達したエージェントを用いて,行動要素を考慮したプロトタイピングを行う。
我々は,多エージェントシステム理論(SMA)と大規模言語モデル(LLM)に基づく革新的な利用に基づいて,組織戦略に有用なエージェントの開発の可能性を示す。
論文 参考訳(メタデータ) (2024-03-12T15:56:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。