論文の概要: Human-Agent Coordination in Games under Incomplete Information via Multi-Step Intent
- arxiv url: http://arxiv.org/abs/2410.18242v1
- Date: Wed, 23 Oct 2024 19:37:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-25 12:49:04.802394
- Title: Human-Agent Coordination in Games under Incomplete Information via Multi-Step Intent
- Title(参考訳): マルチステップインテントによる不完全情報によるゲームにおけるヒューマンエージェントコーディネーション
- Authors: Shenghui Chen, Ruihan Zhao, Sandeep Chinchali, Ufuk Topcu,
- Abstract要約: 自律エージェントと人間のパートナー間の戦略的調整はターンベースの協調ゲームとしてモデル化できる。
不完全な情報の下でターンベースのゲームを拡張し、プレイヤーが単一のアクションではなく、ターンごとに複数のアクションを実行できるようにする。
- 参考スコア(独自算出の注目度): 21.170542003568674
- License:
- Abstract: Strategic coordination between autonomous agents and human partners under incomplete information can be modeled as turn-based cooperative games. We extend a turn-based game under incomplete information, the shared-control game, to allow players to take multiple actions per turn rather than a single action. The extension enables the use of multi-step intent, which we hypothesize will improve performance in long-horizon tasks. To synthesize cooperative policies for the agent in this extended game, we propose an approach featuring a memory module for a running probabilistic belief of the environment dynamics and an online planning algorithm called IntentMCTS. This algorithm strategically selects the next action by leveraging any communicated multi-step intent via reward augmentation while considering the current belief. Agent-to-agent simulations in the Gnomes at Night testbed demonstrate that IntentMCTS requires fewer steps and control switches than baseline methods. A human-agent user study corroborates these findings, showing an 18.52% higher success rate compared to the heuristic baseline and a 5.56% improvement over the single-step prior work. Participants also report lower cognitive load, frustration, and higher satisfaction with the IntentMCTS agent partner.
- Abstract(参考訳): 不完全な情報の下での自律エージェントと人間のパートナーの戦略的調整はターンベースの協調ゲームとしてモデル化できる。
不完全な情報、共有制御ゲームの下でターンベースのゲームを拡張し、プレイヤーが1回のアクションではなく、ターンごとに複数のアクションを実行できるようにする。
この拡張により,多段階インテントの利用が可能となり,長期タスクの性能向上が期待できる。
この拡張ゲームにおいてエージェントの協調ポリシーを合成するために,環境力学の確率論的信念を実行するためのメモリモジュールと,IntentMCTSと呼ばれるオンライン計画アルゴリズムを提案する。
このアルゴリズムは、現在の信念を考慮しつつ、報酬増強によるコミュニケーションされた多段階インテントを活用することで、次のアクションを戦略的に選択する。
夜間テストベッドでのGnomesのエージェント・ツー・エージェントシミュレーションは、IntentMCTSがベースライン法よりも少ないステップと制御スイッチを必要とすることを示した。
人間のエージェントによる調査では、これらの発見を裏付けており、ヒューリスティックベースラインよりも18.52%の成功率、シングルステップ前の作業よりも5.56%改善している。
参加者はまた、IntentMCTSエージェントパートナーとの認知負荷、フラストレーション、より高い満足度を報告した。
関連論文リスト
- Cooperation, Competition, and Maliciousness: LLM-Stakeholders Interactive Negotiation [52.930183136111864]
我々は,大言語モデル(LLM)を評価するためにスコーラブルネゴシエーション(scorable negotiations)を提案する。
合意に達するには、エージェントは強力な算術、推論、探索、計画能力を持つ必要がある。
我々は、新しいゲームを作成し、進化するベンチマークを持つことの難しさを増大させる手順を提供する。
論文 参考訳(メタデータ) (2023-09-29T13:33:06Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - A Hierarchical Game-Theoretic Decision-Making for Cooperative
Multi-Agent Systems Under the Presence of Adversarial Agents [1.52292571922932]
危険シナリオにおけるマルチエージェントシステム(MAS)間の関係をゲーム理論モデルとして表現することができる。
本稿では,GUT(Game-theoretic Utility Tree)と呼ばれる階層型ネットワークモデルを提案する。
協力的なMAS決定のために、ハイレベル戦略を実行可能な低レベルアクションに分解する。
論文 参考訳(メタデータ) (2023-03-28T15:16:23Z) - Learning cooperative behaviours in adversarial multi-agent systems [2.355408272992293]
この作業は、RoboSumoと呼ばれる既存の仮想マルチエージェントプラットフォームを拡張して、TripleSumoを作成する。
我々は、2人のエージェント、すなわち「バグ」と「アント」が組んで別のエージェント「スパイダー」をアリーナから追い出さなければならないシナリオを調査する。
この目標を達成するため、新たに加わったエージェント「バグ」は「アント」とスパイダー」の対戦中に訓練される。
論文 参考訳(メタデータ) (2023-02-10T22:12:29Z) - Multi-agent Deep Covering Skill Discovery [50.812414209206054]
本稿では,複数エージェントの結合状態空間の予測被覆時間を最小化し,マルチエージェントオプションを構築するマルチエージェントDeep Covering Option Discoveryを提案する。
また、MARLプロセスにマルチエージェントオプションを採用するための新しいフレームワークを提案する。
提案アルゴリズムは,アテンション機構とエージェントの相互作用を効果的に把握し,マルチエージェントオプションの同定に成功した。
論文 参考訳(メタデータ) (2022-10-07T00:40:59Z) - Off-Beat Multi-Agent Reinforcement Learning [62.833358249873704]
オフビート動作が一般的環境におけるモデルフリーマルチエージェント強化学習(MARL)について検討した。
モデルレスMARLアルゴリズムのための新しいエピソードメモリLeGEMを提案する。
我々は,Stag-Hunter Game,Quarry Game,Afforestation Game,StarCraft IIマイクロマネジメントタスクなど,オフビートアクションを伴うさまざまなマルチエージェントシナリオ上でLeGEMを評価する。
論文 参考訳(メタデータ) (2022-05-27T02:21:04Z) - On-the-fly Strategy Adaptation for ad-hoc Agent Coordination [21.029009561094725]
協調的な環境での訓練エージェントは、現実世界の人間(および他のエージェント)と効果的に対話できるAIエージェントの約束を提供する。
主な焦点は、セルフプレイパラダイムである。
本稿では,他のエージェントの戦略に対する後続の信念を用いて,エージェント戦略をその場で適応させることにより,この問題を解決することを提案する。
論文 参考訳(メタデータ) (2022-03-08T02:18:11Z) - Any-Play: An Intrinsic Augmentation for Zero-Shot Coordination [0.4153433779716327]
我々は、協調型AIを評価するための代替基準を定式化し、この基準を「アルゴリズム間クロスプレイ(inter-algorithm cross-play)」と呼ぶ。
このパラダイムでは,Other-Play や Off-Belief Learning といった,最先端の協調型AIアルゴリズムが低性能であることを示す。
本稿では,Any-Play学習のアルゴリズムをアルゴリズム間クロスプレイ設定に一般化するために,Any-Play学習の拡張を提案する。
論文 参考訳(メタデータ) (2022-01-28T21:43:58Z) - Conditional Imitation Learning for Multi-Agent Games [89.897635970366]
本研究では,条件付きマルチエージェント模倣学習の課題について考察する。
本稿では,スケーラビリティとデータ不足の難しさに対処する新しい手法を提案する。
我々のモデルは,egoやパートナエージェント戦略よりも低ランクなサブスペースを学習し,サブスペースに補間することで,新たなパートナ戦略を推論し,適応する。
論文 参考訳(メタデータ) (2022-01-05T04:40:13Z) - A Cordial Sync: Going Beyond Marginal Policies for Multi-Agent Embodied
Tasks [111.34055449929487]
エージェントが協力して家具をリビングルームに移動させるという,新しいタスクFurnMoveを紹介した。
既存のタスクとは異なり、FurnMoveはエージェントが各タイミングで調整する必要がある。
既存の分散化されたアクションサンプリング手順は、表現力のある共同アクションポリシーを許さない。
SynC-policiesとCORDIALを用いて、我々のエージェントはFurnMoveで58%の完成率を達成する。
論文 参考訳(メタデータ) (2020-07-09T17:59:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。