論文の概要: Strategic Intelligence in Large Language Models: Evidence from evolutionary Game Theory
- arxiv url: http://arxiv.org/abs/2507.02618v1
- Date: Thu, 03 Jul 2025 13:45:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:16.372277
- Title: Strategic Intelligence in Large Language Models: Evidence from evolutionary Game Theory
- Title(参考訳): 大規模言語モデルにおけるストラテジックインテリジェンス--進化ゲーム理論からのエビデンス
- Authors: Kenneth Payne, Baptiste Alloui-Cros,
- Abstract要約: 我々は,Large Language Models (LLMs) に対する説得力のある支持証拠を提示する。
私たちは、先進的なフロンティアAI企業OpenAI、Google、およびAnthropicのエージェントに対する標準的な戦略を練り、進化的なIDDトーナメントを初めて実施します。
以上の結果から, LLMは競争力が高く, 持続的であり, 複雑な生態系で増殖することさえあることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Are Large Language Models (LLMs) a new form of strategic intelligence, able to reason about goals in competitive settings? We present compelling supporting evidence. The Iterated Prisoner's Dilemma (IPD) has long served as a model for studying decision-making. We conduct the first ever series of evolutionary IPD tournaments, pitting canonical strategies (e.g., Tit-for-Tat, Grim Trigger) against agents from the leading frontier AI companies OpenAI, Google, and Anthropic. By varying the termination probability in each tournament (the "shadow of the future"), we introduce complexity and chance, confounding memorisation. Our results show that LLMs are highly competitive, consistently surviving and sometimes even proliferating in these complex ecosystems. Furthermore, they exhibit distinctive and persistent "strategic fingerprints": Google's Gemini models proved strategically ruthless, exploiting cooperative opponents and retaliating against defectors, while OpenAI's models remained highly cooperative, a trait that proved catastrophic in hostile environments. Anthropic's Claude emerged as the most forgiving reciprocator, showing remarkable willingness to restore cooperation even after being exploited or successfully defecting. Analysis of nearly 32,000 prose rationales provided by the models reveals that they actively reason about both the time horizon and their opponent's likely strategy, and we demonstrate that this reasoning is instrumental to their decisions. This work connects classic game theory with machine psychology, offering a rich and granular view of algorithmic decision-making under uncertainty.
- Abstract(参考訳): 大規模言語モデル(LLM)は新たな戦略的インテリジェンスの形態であり、競合する設定で目標を推論できるだろうか?
私たちは説得力のある証拠を提示します。
Iterated Prisoner's Dilemma (IPD) は長い間、意思決定のモデルとして機能してきた。
私たちは、先進的なAI企業のOpenAI、Google、Anthhropicのエージェントに対して、最初の進化的なIDDトーナメントを行い、標準的な戦略(例えば、Tit-for-Tat、Grim Trigger)をピットします。
各トーナメントの終了確率(「未来の影」)を変動させることで、複雑さとチャンスを導入し、記憶を紛らわす。
以上の結果から, LLMは競争力が高く, 持続的であり, 複雑な生態系で増殖することさえあることが示唆された。
さらに、彼らは独特で永続的な「戦略的な指紋」を示す: GoogleのGeminiモデルは戦略的に冷酷で、協力的相手を搾取し、欠陥者に対して報復する一方で、OpenAIのモデルは、敵対的環境において破滅的な特徴である非常に協力的であった。
人類学のクロードは最も寛容な互恵者として登場し、搾取されたり、失敗に終わった後でも、協力を回復する有能な意志を示していた。
モデルによって提供される約32,000の散文論理の分析により、彼らは時間的地平線と敵の潜在的戦略の両方を積極的に推論していることが明らかとなり、この推論が彼らの決定に有効であることが示される。
この研究は、古典的なゲーム理論と機械心理学を結びつけ、不確実性の下でアルゴリズムによる意思決定の豊かできめ細かいビューを提供する。
関連論文リスト
- Do LLMs Know When to Flip a Coin? Strategic Randomization through Reasoning and Experience [1.7223564681760168]
戦略的ランダム化はゲーム理論の鍵となる原理であるが、大きな言語モデル(LLM)では未探索のままである。
我々は,天地競馬に触発された新たなゼロサムゲームを提案し,ナッシュ均衡は最大エントロピー戦略に対応する。
より弱いモデルはプロンプトによらず決定論的であることを示し、強いモデルは明示的なヒントの下でランダム化を増大させることを示した。
論文 参考訳(メタデータ) (2025-06-21T05:26:33Z) - FAIRGAME: a Framework for AI Agents Bias Recognition using Game Theory [51.96049148869987]
ゲーム理論を用いたAIエージェントバイアス認識フレームワークFAIRGAMEを提案する。
我々は,AIエージェント間の人気ゲームにおけるバイアスのある結果を明らかにするために,その実装と利用について述べる。
全体として、FAIRGAMEはユーザーが望むゲームやシナリオを確実に簡単にシミュレートできる。
論文 参考訳(メタデータ) (2025-04-19T15:29:04Z) - Capturing the Complexity of Human Strategic Decision-Making with Machine Learning [4.308322597847064]
我々は,2プレイヤーマトリックスゲームにおける初期プレイの文脈において,戦略的意思決定の現在までの最大の研究を行う。
これらのデータに基づいてトレーニングされたディープニューラルネットワークは、戦略行動の理論を先導するよりも、人々の選択を予測できることを示す。
論文 参考訳(メタデータ) (2024-08-15T00:39:42Z) - ALYMPICS: LLM Agents Meet Game Theory -- Exploring Strategic
Decision-Making with AI Agents [77.34720446306419]
Alympicsは、ゲーム理論の研究にLarge Language Model (LLM)エージェントを利用する、体系的なシミュレーションフレームワークである。
Alympicsは、複雑なゲーム理論の問題を研究するための汎用的なプラットフォームを作成する。
論文 参考訳(メタデータ) (2023-11-06T16:03:46Z) - All by Myself: Learning Individualized Competitive Behaviour with a
Contrastive Reinforcement Learning optimization [57.615269148301515]
競争ゲームのシナリオでは、エージェントのセットは、彼らの目標を最大化し、敵の目標を同時に最小化する決定を学習する必要があります。
本稿では,競争ゲームの表現を学習し,特定の相手の戦略をどうマップするか,それらを破壊するかを学習する3つのニューラルネットワーク層からなる新しいモデルを提案する。
我々の実験は、オフライン、オンライン、競争特化モデル、特に同じ対戦相手と複数回対戦した場合に、我々のモデルがより良いパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2023-10-02T08:11:07Z) - Strategic Behavior of Large Language Models: Game Structure vs.
Contextual Framing [0.0]
本稿では,GPT-3.5,GPT-4,LLaMa-2の3つの大規模言語モデル(LLM)の戦略的意思決定能力について検討する。
4つの標準的な2プレイヤーゲームを利用して、これらのモデルがどのように社会的ジレンマをナビゲートするかを探索する。
論文 参考訳(メタデータ) (2023-09-12T00:54:15Z) - Combining Deep Reinforcement Learning and Search with Generative Models for Game-Theoretic Opponent Modeling [30.465929764202155]
深層ゲーム理論強化学習を用いた対戦型モデリングのためのスケーラブルで汎用的なマルチエージェントトレーニングシステムを提案する。
まず,モンテカルロ木探索(MCTS)に基づく最適応答アルゴリズムGenBRを提案する。
我々は,政策空間対応オラクル (PSRO) の枠組みの下で,この新たな手法を用いて,エホフライン反対モデルの自動生成を行う。
論文 参考訳(メタデータ) (2023-02-01T23:06:23Z) - L2E: Learning to Exploit Your Opponent [66.66334543946672]
本稿では,暗黙的対向モデリングのための新しい学習フレームワークを提案する。
L2Eは、トレーニング中に異なる相手との対話によって、相手を悪用する能力を取得する。
本稿では, 対戦相手を自動的に生成する新しい対戦相手戦略生成アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-18T14:27:59Z) - Learning to Play Sequential Games versus Unknown Opponents [93.8672371143881]
学習者が最初にプレーするゲームと、選択した行動に反応する相手との連続的なゲームについて考察する。
対戦相手の対戦相手列と対戦する際,学習者に対して新しいアルゴリズムを提案する。
我々の結果には、相手の反応の正則性に依存するアルゴリズムの後悔の保証が含まれている。
論文 参考訳(メタデータ) (2020-07-10T09:33:05Z) - Learning to Resolve Alliance Dilemmas in Many-Player Zero-Sum Games [22.38765498549914]
我々は多人数ゼロサムゲームの体系的な研究が人工知能研究の重要な要素であると主張している。
対称ゼロサム行列ゲームを用いて、アライアンス形成が社会的ジレンマと見なされることを示す。
我々は、強化学習をピアツーピア契約機構で強化し、アライアンスを発見・実施する方法を示す。
論文 参考訳(メタデータ) (2020-02-27T10:32:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。