論文の概要: Collaboration and Conflict between Humans and Language Models through the Lens of Game Theory
- arxiv url: http://arxiv.org/abs/2509.04847v1
- Date: Fri, 05 Sep 2025 06:55:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.497657
- Title: Collaboration and Conflict between Humans and Language Models through the Lens of Game Theory
- Title(参考訳): ゲーム理論のレンズによる人間と言語モデル間の協調と衝突
- Authors: Mukul Singh, Arjun Radhakrishna, Sumit Gulwani,
- Abstract要約: 繰り返し受刑者のジレンマ(IPD)における言語モデル行動のダイナミクスについて検討する。
言語モデルがパフォーマンスを達成できることに気付き、場合によっては最もよく知られた古典的戦略に匹敵する結果が得られる。
行動分析により、言語モデルが強力な協調戦略に関連する重要な特性を示すことが明らかとなった。
- 参考スコア(独自算出の注目度): 11.715338068067373
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language models are increasingly deployed in interactive online environments, from personal chat assistants to domain-specific agents, raising questions about their cooperative and competitive behavior in multi-party settings. While prior work has examined language model decision-making in isolated or short-term game-theoretic contexts, these studies often neglect long-horizon interactions, human-model collaboration, and the evolution of behavioral patterns over time. In this paper, we investigate the dynamics of language model behavior in the iterated prisoner's dilemma (IPD), a classical framework for studying cooperation and conflict. We pit model-based agents against a suite of 240 well-established classical strategies in an Axelrod-style tournament and find that language models achieve performance on par with, and in some cases exceeding, the best-known classical strategies. Behavioral analysis reveals that language models exhibit key properties associated with strong cooperative strategies - niceness, provocability, and generosity while also demonstrating rapid adaptability to changes in opponent strategy mid-game. In controlled "strategy switch" experiments, language models detect and respond to shifts within only a few rounds, rivaling or surpassing human adaptability. These results provide the first systematic characterization of long-term cooperative behaviors in language model agents, offering a foundation for future research into their role in more complex, mixed human-AI social environments.
- Abstract(参考訳): 言語モデルは、パーソナルチャットアシスタントからドメイン固有のエージェントまで、インタラクティブなオンライン環境にますます多くデプロイされ、多人数での協調的かつ競争的な振る舞いに関する疑問が提起されている。
先行研究は、孤立的または短期的なゲーム理論の文脈における言語モデル決定について検討してきたが、これらの研究は、長い水平相互作用、人間-モデル協調、時間経過に伴う行動パターンの進化を無視することが多い。
本稿では,協力と対立を研究するための古典的枠組みである反復囚人ジレンマ(IPD)における言語モデル行動のダイナミクスについて検討する。
Axelrodスタイルのトーナメントでは、240の確立された古典的ストラテジーに対してモデルベースのエージェントをピットし、言語モデルが最もよく知られた古典的ストラテジーに匹敵するパフォーマンスを達成することを発見した。
行動分析は、言語モデルが強力な協調戦略(良さ、挑発性、寛大さ)に関連する重要な特性を示す一方で、対戦相手の戦略中盤における変化に迅速に適応できることを明らかにしている。
制御された「戦略スイッチ」実験では、言語モデルはわずか数ラウンドで変化を検出し、反応する。
これらの結果は、言語モデルエージェントにおける長期的な協調行動の体系的特徴として初めて提供され、より複雑で混合された人間とAIの社会環境におけるそれらの役割に関する将来の研究の基礎となる。
関連論文リスト
- MT-PingEval: Evaluating Multi-Turn Collaboration with Private Information Games [70.37904949359938]
我々は,プライベート情報に関する効果的なコミュニケーションを必要とする協調ゲーム群を用いて,マルチターンインタラクションにおける言語モデルの評価を行った。
言語モデルでは,非対話的なベースラインシナリオを改善するために,対話的なコラボレーションを利用できないことがわかった。
我々は,これらの対話の言語的特徴を分析し,サイコフナンシー,情報密度,談話コヒーレンスの役割を評価する。
論文 参考訳(メタデータ) (2026-02-27T17:13:20Z) - Agentic Conversational Search with Contextualized Reasoning via Reinforcement Learning [66.52010873968383]
本稿では,RL学習を通じて学習した探索的,適応的な行動を可能にする,交互に探索と推論をインターリーブする対話エージェントを提案する。
広く使われている4つの対話型ベンチマークによる実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2026-01-19T14:55:54Z) - Super-additive Cooperation in Language Model Agents [4.14360329494344]
この研究は、反復的相互作用とグループ間競争の複合効果が人間の協調傾向の原因であると主張する超付加的協調理論に着想を得たものである。
私たちは、言語モデルエージェントがチームに分かれて、囚人のジレンマゲームで互いに対決する仮想トーナメントを考案しました。
チーム内部のダイナミクスと外部の競争をシミュレートすることで、このブレンドによって、全体的なコラボレーションレベルと最初のコラボレーションレベルの両方が大幅に向上することが分かりました。
論文 参考訳(メタデータ) (2025-08-21T12:36:44Z) - Beyond Nash Equilibrium: Bounded Rationality of LLMs and humans in Strategic Decision-making [33.2843381902912]
大規模言語モデルは、戦略的意思決定設定にますます使われている。
行動ゲーム理論研究に適応した実験パラダイムを用いて,LLMと人間を比較した。
論文 参考訳(メタデータ) (2025-06-11T04:43:54Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - MultiAgent Collaboration Attack: Investigating Adversarial Attacks in Large Language Model Collaborations via Debate [24.92465108034783]
大規模言語モデル(LLM)は、個別に作業する場合に、現在のベンチマークで例外的な結果を示す。
パラメータサイズと推論時間の短縮とともに、それらの能力の進歩は、これらのモデルをエージェントとしての使用を促進する。
敵の影響下での議論を通じて協調するモデルのネットワークの挙動を評価する。
論文 参考訳(メタデータ) (2024-06-20T20:09:37Z) - Efficient Adaptation in Mixed-Motive Environments via Hierarchical Opponent Modeling and Planning [51.52387511006586]
本稿では,HOP(Hierarchical Opponent Modeling and Planning)を提案する。
HOPは階層的に2つのモジュールから構成される: 相手の目標を推論し、対応する目標条件のポリシーを学ぶ、反対モデリングモジュール。
HOPは、さまざまな未確認エージェントと相互作用する際、優れた少数ショット適応能力を示し、セルフプレイのシナリオで優れている。
論文 参考訳(メタデータ) (2024-06-12T08:48:06Z) - Transforming Competition into Collaboration: The Revolutionary Role of Multi-Agent Systems and Language Models in Modern Organizations [0.0]
本稿では,マルチエージェントシステム理論(SMA)と大規模言語モデル(LLM)に基づく計算エンティティがユーザインタラクションに与える影響について考察する。
提案手法では,大規模言語モデル (LLM) から発達したエージェントを用いて,行動要素を考慮したプロトタイピングを行う。
我々は,多エージェントシステム理論(SMA)と大規模言語モデル(LLM)に基づく革新的な利用に基づいて,組織戦略に有用なエージェントの開発の可能性を示す。
論文 参考訳(メタデータ) (2024-03-12T15:56:10Z) - Towards the Scalable Evaluation of Cooperativeness in Language Models [1.7875811547963403]
我々は, PLMのマルチエージェント行動を理解し, 形成することを目的としている。
クラウドワーカーと言語モデルの両方で、特定の構造でシナリオを生成します。
インストラクションをチューニングしたモデルは、スケールアップ時に協調的と見なされるような振る舞いをする傾向にある。
論文 参考訳(メタデータ) (2023-03-16T15:34:23Z) - Foundation Models for Decision Making: Problems, Methods, and
Opportunities [124.79381732197649]
大規模に多様なデータに基づいて事前訓練された基礎モデルは、幅広いビジョンと言語タスクにおいて異常な能力を示してきた。
ファンデーションモデルをトレーニングし、他のエージェントと対話し、長期的な推論を行うための新しいパラダイムが生まれている。
基礎モデルと意思決定の交わりにおける研究は、強力な新しいシステムを作るための大きな約束である。
論文 参考訳(メタデータ) (2023-03-07T18:44:07Z) - Incorporating Rivalry in Reinforcement Learning for a Competitive Game [65.2200847818153]
本研究は,競争行動の社会的影響に基づく新しい強化学習機構を提案する。
提案モデルでは, 人工エージェントの学習を調節するための競合スコアを導出するために, 客観的, 社会的認知的メカニズムを集約する。
論文 参考訳(メタデータ) (2022-08-22T14:06:06Z) - Conditional Imitation Learning for Multi-Agent Games [89.897635970366]
本研究では,条件付きマルチエージェント模倣学習の課題について考察する。
本稿では,スケーラビリティとデータ不足の難しさに対処する新しい手法を提案する。
我々のモデルは,egoやパートナエージェント戦略よりも低ランクなサブスペースを学習し,サブスペースに補間することで,新たなパートナ戦略を推論し,適応する。
論文 参考訳(メタデータ) (2022-01-05T04:40:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。