論文の概要: Collaboration and Conflict between Humans and Language Models through the Lens of Game Theory
- arxiv url: http://arxiv.org/abs/2509.04847v1
- Date: Fri, 05 Sep 2025 06:55:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.497657
- Title: Collaboration and Conflict between Humans and Language Models through the Lens of Game Theory
- Title(参考訳): ゲーム理論のレンズによる人間と言語モデル間の協調と衝突
- Authors: Mukul Singh, Arjun Radhakrishna, Sumit Gulwani,
- Abstract要約: 繰り返し受刑者のジレンマ(IPD)における言語モデル行動のダイナミクスについて検討する。
言語モデルがパフォーマンスを達成できることに気付き、場合によっては最もよく知られた古典的戦略に匹敵する結果が得られる。
行動分析により、言語モデルが強力な協調戦略に関連する重要な特性を示すことが明らかとなった。
- 参考スコア(独自算出の注目度): 11.715338068067373
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language models are increasingly deployed in interactive online environments, from personal chat assistants to domain-specific agents, raising questions about their cooperative and competitive behavior in multi-party settings. While prior work has examined language model decision-making in isolated or short-term game-theoretic contexts, these studies often neglect long-horizon interactions, human-model collaboration, and the evolution of behavioral patterns over time. In this paper, we investigate the dynamics of language model behavior in the iterated prisoner's dilemma (IPD), a classical framework for studying cooperation and conflict. We pit model-based agents against a suite of 240 well-established classical strategies in an Axelrod-style tournament and find that language models achieve performance on par with, and in some cases exceeding, the best-known classical strategies. Behavioral analysis reveals that language models exhibit key properties associated with strong cooperative strategies - niceness, provocability, and generosity while also demonstrating rapid adaptability to changes in opponent strategy mid-game. In controlled "strategy switch" experiments, language models detect and respond to shifts within only a few rounds, rivaling or surpassing human adaptability. These results provide the first systematic characterization of long-term cooperative behaviors in language model agents, offering a foundation for future research into their role in more complex, mixed human-AI social environments.
- Abstract(参考訳): 言語モデルは、パーソナルチャットアシスタントからドメイン固有のエージェントまで、インタラクティブなオンライン環境にますます多くデプロイされ、多人数での協調的かつ競争的な振る舞いに関する疑問が提起されている。
先行研究は、孤立的または短期的なゲーム理論の文脈における言語モデル決定について検討してきたが、これらの研究は、長い水平相互作用、人間-モデル協調、時間経過に伴う行動パターンの進化を無視することが多い。
本稿では,協力と対立を研究するための古典的枠組みである反復囚人ジレンマ(IPD)における言語モデル行動のダイナミクスについて検討する。
Axelrodスタイルのトーナメントでは、240の確立された古典的ストラテジーに対してモデルベースのエージェントをピットし、言語モデルが最もよく知られた古典的ストラテジーに匹敵するパフォーマンスを達成することを発見した。
行動分析は、言語モデルが強力な協調戦略(良さ、挑発性、寛大さ)に関連する重要な特性を示す一方で、対戦相手の戦略中盤における変化に迅速に適応できることを明らかにしている。
制御された「戦略スイッチ」実験では、言語モデルはわずか数ラウンドで変化を検出し、反応する。
これらの結果は、言語モデルエージェントにおける長期的な協調行動の体系的特徴として初めて提供され、より複雑で混合された人間とAIの社会環境におけるそれらの役割に関する将来の研究の基礎となる。
関連論文リスト
- PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Towards the Scalable Evaluation of Cooperativeness in Language Models [1.7875811547963403]
我々は, PLMのマルチエージェント行動を理解し, 形成することを目的としている。
クラウドワーカーと言語モデルの両方で、特定の構造でシナリオを生成します。
インストラクションをチューニングしたモデルは、スケールアップ時に協調的と見なされるような振る舞いをする傾向にある。
論文 参考訳(メタデータ) (2023-03-16T15:34:23Z) - Foundation Models for Decision Making: Problems, Methods, and
Opportunities [124.79381732197649]
大規模に多様なデータに基づいて事前訓練された基礎モデルは、幅広いビジョンと言語タスクにおいて異常な能力を示してきた。
ファンデーションモデルをトレーニングし、他のエージェントと対話し、長期的な推論を行うための新しいパラダイムが生まれている。
基礎モデルと意思決定の交わりにおける研究は、強力な新しいシステムを作るための大きな約束である。
論文 参考訳(メタデータ) (2023-03-07T18:44:07Z) - Incorporating Rivalry in Reinforcement Learning for a Competitive Game [65.2200847818153]
本研究は,競争行動の社会的影響に基づく新しい強化学習機構を提案する。
提案モデルでは, 人工エージェントの学習を調節するための競合スコアを導出するために, 客観的, 社会的認知的メカニズムを集約する。
論文 参考訳(メタデータ) (2022-08-22T14:06:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。