論文の概要: Strategy Adaptation in Large Language Model Werewolf Agents
- arxiv url: http://arxiv.org/abs/2507.12732v1
- Date: Thu, 17 Jul 2025 02:27:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.322
- Title: Strategy Adaptation in Large Language Model Werewolf Agents
- Title(参考訳): 大規模言語モデルワイアウルフエージェントの戦略適応
- Authors: Fuya Nakamori, Yin Jou Huang, Fei Cheng,
- Abstract要約: 本研究では,他のプレイヤーの態度と会話の文脈に基づく事前定義された戦略を切り替えることで,Werewolfエージェントの性能を向上させる手法を提案する。
Werewolf エージェントを暗黙的あるいは固定的な戦略を用いてベースラインエージェントと比較し,提案手法の有効性を検証した。
- 参考スコア(独自算出の注目度): 9.851961546227912
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This study proposes a method to improve the performance of Werewolf agents by switching between predefined strategies based on the attitudes of other players and the context of conversations. While prior works of Werewolf agents using prompt engineering have employed methods where effective strategies are implicitly defined, they cannot adapt to changing situations. In this research, we propose a method that explicitly selects an appropriate strategy based on the game context and the estimated roles of other players. We compare the strategy adaptation Werewolf agents with baseline agents using implicit or fixed strategies and verify the effectiveness of our proposed method.
- Abstract(参考訳): 本研究では,他のプレイヤーの態度と会話の文脈に基づく事前定義された戦略を切り替えることで,Werewolfエージェントの性能を向上させる手法を提案する。
プロンプトエンジニアリングを用いたWerewolfエージェントの以前の研究では、効果的な戦略を暗黙的に定義する手法が用いられてきたが、状況の変化には適応できない。
本研究では,ゲームコンテキストと他のプレイヤーの役割推定に基づいて,適切な戦略を明示的に選択する手法を提案する。
Werewolf エージェントを暗黙的あるいは固定的な戦略を用いてベースラインエージェントと比較し,提案手法の有効性を検証する。
関連論文リスト
- TacticCraft: Natural Language-Driven Tactical Adaptation for StarCraft II [4.059142160949011]
本稿では,StarCraft IIのAIエージェントの戦術的条件付けのためのアダプタベースのアプローチを提案する。
提案手法は,事前学習されたポリシーネットワーク(DI-Star)を凍結し,各アクションヘッドに軽量なアダプタモジュールを付加する。
実験の結果,攻撃性,拡張パターン,技術嗜好など,戦術的側面におけるエージェントの挙動の調整に成功していることがわかった。
論文 参考訳(メタデータ) (2025-07-21T13:42:06Z) - Ranking Joint Policies in Dynamic Games using Evolutionary Dynamics [0.0]
単純な2プレイヤーゲームでもエージェントの相互作用のダイナミクスはナッシュ平衡に達することができないことが示されている。
我々のゴールは、安定した行動をもたらすエージェントの合同戦略を特定し、変化に抵抗すると同時に、エージェントの支払いも考慮することである。
論文 参考訳(メタデータ) (2025-02-20T16:50:38Z) - EPO: Explicit Policy Optimization for Strategic Reasoning in LLMs via Reinforcement Learning [69.55982246413046]
戦略的推論のための明示的なポリシー最適化(EPO)を提案する。
我々は,マルチターン強化学習(RL)による戦略的推論モデルを訓練し,プロセス報酬と反復的な自己プレイを活用する。
本研究は, EPOに出現する様々な協調的推論機構と, 新規戦略の創出における有効性を明らかにするものである。
論文 参考訳(メタデータ) (2025-02-18T03:15:55Z) - Learning Strategic Language Agents in the Werewolf Game with Iterative Latent Space Policy Optimization [13.496120603859701]
戦略言語エージェントを構築するために,ゲーム理論の手法と微調整を組み合わせた反復的フレームワークであるLatent Space Policy Optimization (LSPO)を提案する。
Werewolfゲームの実験では、我々のエージェントは、性能を改善し、既存のWerewolfエージェントを上回るパフォーマンスで戦略空間を反復的に拡張している。
論文 参考訳(メタデータ) (2025-02-07T06:19:55Z) - Indefinite causal order strategy nor adaptive strategy does not improve the estimation of group action [53.64687146666141]
可能ユニタリ演算の集合がコンパクト群の射影ユニタリ表現によって与えられるとき、未知ユニタリ演算の推定を考える。
誤差関数が群共分散を満たす場合,不確定因果順序戦略や適応戦略は,この推定性能を向上しないことを示す。
論文 参考訳(メタデータ) (2025-01-16T06:00:57Z) - Preference-based opponent shaping in differentiable games [3.373994463906893]
そこで我々は,エージェントの嗜好を協調に向けて形作ることによって,戦略学習プロセスを強化するためのPBOS法を提案する。
様々な異なるゲームにおいてPBOSアルゴリズムの性能を検証する。
論文 参考訳(メタデータ) (2024-12-04T06:49:21Z) - Strength Lies in Differences! Improving Strategy Planning for Non-collaborative Dialogues via Diversified User Simulation [69.5677514160986]
本研究では,多様なユーザとの戦略的対話に携わる非協力的対話エージェントについて検討する。
これは既存の対話エージェントに2つの大きな課題をもたらす。
本稿では,ユーザ認識型戦略計画モジュールと人口ベーストレーニングパラダイムを取り入れた,適切な戦略計画の能力を高めるためのTripを提案する。
論文 参考訳(メタデータ) (2024-03-11T14:38:16Z) - LAS-AT: Adversarial Training with Learnable Attack Strategy [82.88724890186094]
LAS-ATと呼ばれる「学習可能な攻撃戦略」は、モデル堅牢性を改善するための攻撃戦略を自動生成することを学ぶ。
当社のフレームワークは,強靭性向上のためのトレーニングにAEを使用するターゲットネットワークと,AE生成を制御するための攻撃戦略を生成する戦略ネットワークで構成されている。
論文 参考訳(メタデータ) (2022-03-13T10:21:26Z) - Portfolio Search and Optimization for General Strategy Game-Playing [58.896302717975445]
ローリングホライズン進化アルゴリズムに基づく最適化とアクション選択のための新しいアルゴリズムを提案する。
エージェントのパラメータとポートフォリオセットの最適化について,N-tuple Bandit Evolutionary Algorithmを用いて検討する。
エージェントの性能分析により,提案手法はすべてのゲームモードによく一般化し,他のポートフォリオ手法よりも優れることが示された。
論文 参考訳(メタデータ) (2021-04-21T09:28:28Z) - Learning Goal-oriented Dialogue Policy with Opposite Agent Awareness [116.804536884437]
本稿では,目標指向対話における政策学習のための逆行動認識フレームワークを提案する。
我々は、その行動から相手エージェントの方針を推定し、この推定を用いてターゲットエージェントを対象ポリシーの一部として関連づけて改善する。
論文 参考訳(メタデータ) (2020-04-21T03:13:44Z) - Adaptive strategy in differential evolution via explicit exploitation
and exploration controls [0.0]
本稿では,明示的適応スキーム (Ea scheme) という新しい戦略適応手法を提案する。
Eaスキームは複数の戦略を分離し、それらをオンデマンドで採用する。
ベンチマーク関数に関する実験的研究は、Eaスキームの有効性を示す。
論文 参考訳(メタデータ) (2020-02-03T09:12:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。