論文の概要: Strategic Reasoning with Language Models
- arxiv url: http://arxiv.org/abs/2305.19165v1
- Date: Tue, 30 May 2023 16:09:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 15:16:19.666699
- Title: Strategic Reasoning with Language Models
- Title(参考訳): 言語モデルによる戦略的推論
- Authors: Kanishk Gandhi, Dorsa Sadigh, Noah D. Goodman
- Abstract要約: 戦略的推論は、エージェントが様々な状況において他のエージェントと協力し、コミュニケーションし、競合することを可能にする。
既存の戦略ゲームに対するアプローチは、広範なトレーニングに依存しており、再訓練なしに新しいシナリオやゲームに一般化しない戦略を生み出している。
本稿では,AIエージェントの戦略的推論を可能にするために,事前訓練された大規模言語モデルと数発の連鎖例を用いたアプローチを提案する。
- 参考スコア(独自算出の注目度): 35.63300060111918
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Strategic reasoning enables agents to cooperate, communicate, and compete
with other agents in diverse situations. Existing approaches to solving
strategic games rely on extensive training, yielding strategies that do not
generalize to new scenarios or games without retraining. Large Language Models
(LLMs), with their ability to comprehend and generate complex, context-rich
language, could prove powerful as tools for strategic gameplay. This paper
introduces an approach that uses pretrained LLMs with few-shot chain-of-thought
examples to enable strategic reasoning for AI agents. Our approach uses
systematically generated demonstrations of reasoning about states, values, and
beliefs to prompt the model. Using extensive variations of simple matrix games,
we show that strategies that are derived based on systematically generated
prompts generalize almost perfectly to new game structures, alternate
objectives, and hidden information. Additionally, we demonstrate our approach
can lead to human-like negotiation strategies in realistic scenarios without
any extra training or fine-tuning. Our results highlight the ability of LLMs,
guided by systematic reasoning demonstrations, to adapt and excel in diverse
strategic scenarios.
- Abstract(参考訳): 戦略的な推論により、エージェントは様々な状況で他のエージェントと協力し、コミュニケーションし、競争することができる。
戦略ゲームを解く既存のアプローチは広範なトレーニングに依存しており、再トレーニングせずに新しいシナリオやゲームに一般化しない戦略を生み出している。
大規模言語モデル(llm)は、複雑なコンテキストに富んだ言語を理解し、生成する能力を備えており、戦略的ゲームプレイのツールとして強力である。
本稿では,AIエージェントの戦略的推論を可能にするために,事前訓練されたLLMと数発の連鎖例を用いたアプローチを提案する。
我々のアプローチは、状態、価値観、信念を推論する体系的に生成されたデモを使用してモデルを促進する。
単純なマトリクスゲームの多種多様なバリエーションを用いて,体系的に生成されたプロンプトに基づく戦略が,新しいゲーム構造,代替目的,隠れた情報にほぼ完全に一般化することを示す。
さらに,我々のアプローチが,トレーニングや微調整を必要とせずに,現実的なシナリオで人間的な交渉戦略につながることを実証する。
本研究は,多種多様な戦略シナリオに適応し,卓越するLLMを,系統的推論実証によって導出する能力を強調した。
関連論文リスト
- K-Level Reasoning: Establishing Higher Order Beliefs in Large Language Models for Strategic Reasoning [76.3114831562989]
マルチエージェント環境で戦略を動的に適応させるためには、LLM(Large Language Model)エージェントが必要である。
我々は,「K-Level Reasoning with Large Language Models (K-R)」という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-02T16:07:05Z) - States as Strings as Strategies: Steering Language Models with
Game-Theoretic Solvers [44.64118885012762]
言語相互作用に関連するプレイヤー、戦略、ペイオフの適切なモデルにより、既存のゲーム理論アルゴリズムは言語空間における戦略的解決策を提供することができる。
本稿では,対話からゲーム理論への結合の可能性と,既存の平衡探索アルゴリズムの一般化について述べる。
論文 参考訳(メタデータ) (2024-01-24T22:22:00Z) - StrategyLLM: Large Language Models as Strategy Generators, Executors, Optimizers, and Evaluators for Problem Solving [76.5322280307861]
StrategyLLM は LLM が帰納的推論、特定のタスクインスタンスからの一般的な戦略の導出、帰納的推論を可能にし、これらの一般的な戦略を特定のタスク例に適用し、一般化可能で一貫した数発のプロンプトを構築する。
実験の結果、StrategyLLMは、数学推論(34.2%$rightarrow$38.8%)、コモンセンス推論(70.3%$rightarrow$72.5%)、アルゴリズム推論(73.7%$rightarrow$85.0)を含む、4つの難しいタスクにまたがる13のデータセットに対して、人間によるアノテートソリューションを必要とする競争ベースラインのCoT-SCよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-11-15T09:18:09Z) - ALYMPICS: LLM Agents Meet Game Theory -- Exploring Strategic
Decision-Making with AI Agents [77.34720446306419]
Alympicsは、ゲーム理論の研究にLarge Language Model (LLM)エージェントを利用する、体系的なシミュレーションフレームワークである。
Alympicsは、複雑なゲーム理論の問題を研究するための汎用的なプラットフォームを作成する。
論文 参考訳(メタデータ) (2023-11-06T16:03:46Z) - All by Myself: Learning Individualized Competitive Behaviour with a
Contrastive Reinforcement Learning optimization [57.615269148301515]
競争ゲームのシナリオでは、エージェントのセットは、彼らの目標を最大化し、敵の目標を同時に最小化する決定を学習する必要があります。
本稿では,競争ゲームの表現を学習し,特定の相手の戦略をどうマップするか,それらを破壊するかを学習する3つのニューラルネットワーク層からなる新しいモデルを提案する。
我々の実験は、オフライン、オンライン、競争特化モデル、特に同じ対戦相手と複数回対戦した場合に、我々のモデルがより良いパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2023-10-02T08:11:07Z) - Strategy Extraction in Single-Agent Games [0.19336815376402716]
本研究では,行動戦略を用いた知識伝達を,人間の認知能力に左右される伝達可能な知識の形式として提案する。
提案手法は,Pacman, Bank Heist, Dungeon-crawling(ダンジョンクローリングゲーム)の3つの環境において有効な戦略を同定できることを示す。
論文 参考訳(メタデータ) (2023-05-22T01:28:59Z) - Learning Meta Representations for Agents in Multi-Agent Reinforcement
Learning [12.170248966278281]
多エージェント強化学習では、エージェントが1つのマルコフゲーム(MG)で学習する振る舞いは、通常、与えられたエージェント番号に制限される。
本研究は,人口変動型MGを対象とするエージェントの創出に焦点をあてる。
一元的なポリシーを学ぶ代わりに、各エージェントは、様々なゲームにまたがる効果的な戦略を構成するポリシーセットを学ぶ。
論文 参考訳(メタデータ) (2021-08-30T04:30:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。