論文の概要: FireCommander: An Interactive, Probabilistic Multi-agent Environment for
Heterogeneous Robot Teams
- arxiv url: http://arxiv.org/abs/2011.00165v2
- Date: Wed, 27 Oct 2021 23:29:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 04:48:21.112310
- Title: FireCommander: An Interactive, Probabilistic Multi-agent Environment for
Heterogeneous Robot Teams
- Title(参考訳): firecommander:異種ロボットチームのための対話型確率的マルチエージェント環境
- Authors: Esmaeil Seraj, Xiyang Wu, Matthew Gombolay
- Abstract要約: このチュートリアルの目的は、個人が研究アプリケーションにアンダーラインFireCommanderゲーム環境を使用するのを支援することである。
FireCommanderは、対話的で確率的な共同認識-行動偵察環境であり、エージェントの複合チームが協力して動的でプロパゲートなファイアスポット(標的など)と戦う。
FireCommander環境は、Reinforcement Learning (RL) や Learning from Demonstration (LfD) から Coordination, Psychology, Human-Robot Interaction (HRI) 、 Teaming など、幅広いアプリケーションにまたがるトピックに有用である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The purpose of this tutorial is to help individuals use the
\underline{FireCommander} game environment for research applications. The
FireCommander is an interactive, probabilistic joint perception-action
reconnaissance environment in which a composite team of agents (e.g., robots)
cooperate to fight dynamic, propagating firespots (e.g., targets). In
FireCommander game, a team of agents must be tasked to optimally deal with a
wildfire situation in an environment with propagating fire areas and some
facilities such as houses, hospitals, power stations, etc. The team of agents
can accomplish their mission by first sensing (e.g., estimating fire states),
communicating the sensed fire-information among each other and then taking
action to put the firespots out based on the sensed information (e.g., dropping
water on estimated fire locations). The FireCommander environment can be useful
for research topics spanning a wide range of applications from Reinforcement
Learning (RL) and Learning from Demonstration (LfD), to Coordination,
Psychology, Human-Robot Interaction (HRI) and Teaming. There are four important
facets of the FireCommander environment that overall, create a non-trivial
game: (1) Complex Objectives: Multi-objective Stochastic Environment,
(2)Probabilistic Environment: Agents' actions result in probabilistic
performance, (3) Hidden Targets: Partially Observable Environment and, (4)
Uni-task Robots: Perception-only and Action-only agents. The FireCommander
environment is first-of-its-kind in terms of including Perception-only and
Action-only agents for coordination. It is a general multi-purpose game that
can be useful in a variety of combinatorial optimization problems and
stochastic games, such as applications of Reinforcement Learning (RL), Learning
from Demonstration (LfD) and Inverse RL (iRL).
- Abstract(参考訳): このチュートリアルの目的は、研究アプリケーションに \underline{FireCommander} ゲーム環境を使用することを支援することである。
firecommanderは対話的で確率的な共同認識・行動偵察環境であり、エージェント(例えばロボット)の複合チームが協力して動的に戦い、火点(例えば標的)を伝播させる。
消防ゲームでは、消防団は、火災地域や住宅、病院、発電所などいくつかの施設のある環境において、山火事の状況を最適に扱うよう任務を負わなければならない。
エージェントのチームは、最初に感知し(例えば、火災状態を推定する)、感知された火災情報を互いに伝達し、その感知された情報(例えば、推定した火災箇所に水を落とすなど)に基づいて消火活動を行う。
FireCommander環境は、Reinforcement Learning (RL) や Learning from Demonstration (LfD) から Coordination, Psychology, Human-Robot Interaction (HRI) 、 Teaming など、幅広いアプリケーションにまたがる研究トピックに有用である。
1)複雑な対象:多目的確率的環境、(2)確率的環境:エージェントの行動が確率的パフォーマンスをもたらすこと、(3)隠れターゲット:部分的に観察可能な環境、(4)ユニタスクロボット:知覚のみ、およびアクションのみのエージェント。
FireCommander環境は、協調のためのパーセプションオンリーとアクションオンリーのエージェントを含む、第一種である。
強化学習(rl)、実演からの学習(lfd)、逆rl(irl)といった様々な組合せ最適化問題や確率ゲームにおいて有用な汎用多目的ゲームである。
関連論文リスト
- AdverSAR: Adversarial Search and Rescue via Multi-Agent Reinforcement
Learning [4.843554492319537]
本稿では,敵対的エージェント間コミュニケーションの存在下で,ロボットの戦略を効率的に調整するアルゴリズムを提案する。
ロボットは対象の場所について事前の知識を持っておらず、隣接するロボットのサブセットのみといつでも対話できると仮定される。
提案手法の有効性は, グリッドワールド環境のプロトタイプで実証した。
論文 参考訳(メタデータ) (2022-12-20T08:13:29Z) - Hidden Agenda: a Social Deduction Game with Diverse Learned Equilibria [57.74495091445414]
社会的推論ゲームは、個人が他人に関する潜在的に信頼できない情報を合成する方法を学ぶための道を提供する。
本研究では,未知のチームアライメントのシナリオにおいて,学習エージェントを研究するための2D環境を提供する2チームソーシャル推論ゲームであるHidden Agendaを紹介する。
Hidden Agendaで訓練された強化学習エージェントは、自然言語でのコミュニケーションを必要とせずに、協力や投票など、さまざまな行動を学ぶことができることを示した。
論文 参考訳(メタデータ) (2022-01-05T20:54:10Z) - Semantic Tracklets: An Object-Centric Representation for Visual
Multi-Agent Reinforcement Learning [126.57680291438128]
本研究では,不整合表現によるスケーラビリティの実現について検討する。
視覚多エージェント粒子環境(VMPE)と視覚多エージェントGFootball環境における意味トラックレット'の評価を行った。
特に,この手法は視覚データのみを用いて,GFootball環境における5人のプレイヤーの戦略を学習した最初の方法である。
論文 参考訳(メタデータ) (2021-08-06T22:19:09Z) - Room Clearance with Feudal Hierarchical Reinforcement Learning [2.867517731896504]
本稿では,RL研究を軍事分析に有用な方向に進めるためのシナリオ構築ツールとして,新しいシミュレーション環境「it」を紹介した。
そこでは、青いエージェントのチームが建物を通り抜け、すべての部屋が敵のレッドエージェントから取り除かれるようにしなければなりません。
封建的階層型RLのマルチエージェント版を実装し、より上位の指揮官が命令を下級の複数のエージェントに送信するコマンド階層を導入する。
このような方法でタスクを壊すことで、私たちはそれを可能にすることに気付きました。
論文 参考訳(メタデータ) (2021-05-24T15:05:58Z) - Learning Generalizable Robotic Reward Functions from "In-The-Wild" Human
Videos [59.58105314783289]
ドメインに依存しないビデオ識別器(DVD)は、2つのビデオが同じタスクを実行しているかどうかを判断するために識別器を訓練することによりマルチタスク報酬関数を学習する。
DVDは、人間のビデオの広いデータセットで少量のロボットデータから学習することで、一般化することができる。
DVDと視覚モデル予測制御を組み合わせることで、実際のWidowX200ロボットのロボット操作タスクを単一の人間のデモから未知の環境で解決できます。
論文 参考訳(メタデータ) (2021-03-31T05:25:05Z) - Multi-Agent Coordination in Adversarial Environments through Signal
Mediated Strategies [37.00818384785628]
チームメンバーはゲームの開始前に戦略を調整できるが、ゲームのプレイ段階ではコミュニケーションが取れない。
この設定では、エージェントのポリシーが分散的に実行されるため、モデルフリーのRLメソッドはコーディネーションをキャプチャできないことが多い。
我々は,従来の最先端マルチエージェントRLアルゴリズムが適用しなかった場合に,座標平衡に収束することを示す。
論文 参考訳(メタデータ) (2021-02-09T18:44:16Z) - Learning Affordance Landscapes for Interaction Exploration in 3D
Environments [101.90004767771897]
エージェントは環境の仕組みを習得できなければならない。
相互作用探索のための強化学習手法を提案する。
AI2-iTHORで私たちのアイデアを実証します。
論文 参考訳(メタデータ) (2020-08-21T00:29:36Z) - Asynchronous Multi Agent Active Search [6.587280549237275]
SPATS (Sparse Parallel Asynchronous Thompson Smpling) とLATSI (Laplace Thompson Smpling with Information gain) という2つの異なる能動探索アルゴリズムを提案する。
ターゲットは、圧縮的な検知仮定に従って、環境の周囲にわずかに配置されているとみなす。
提案アルゴリズムの有効性を実証するために,シミュレーション結果と理論的解析結果を提供する。
論文 参考訳(メタデータ) (2020-06-25T22:17:20Z) - Learning to Simulate Dynamic Environments with GameGAN [109.25308647431952]
本稿では,エージェントが環境と対話するのを見ることでシミュレーターを学習することを目的とする。
ゲームGANは,学習中にスクリーンプレイやキーボード操作を取り入れることで,所望のゲームを視覚的に模倣することを学習する生成モデルである。
論文 参考訳(メタデータ) (2020-05-25T14:10:17Z) - The Chef's Hat Simulation Environment for Reinforcement-Learning-Based
Agents [54.63186041942257]
本稿では,人間-ロボットインタラクションのシナリオで使用されるように設計されたChef's Hatカードゲームを実装する仮想シミュレーション環境を提案する。
本稿では,強化学習アルゴリズムにおける制御可能かつ再現可能なシナリオを提案する。
論文 参考訳(メタデータ) (2020-03-12T15:52:49Z) - Real-World Human-Robot Collaborative Reinforcement Learning [6.089774484591287]
本研究では,人間ロボットによる協調型迷路ゲームの現実的な構成について述べる。
ロボットエージェントの制御には深層強化学習を用い,実戦30分以内の結果を得た。
本研究では,人間とロボットエージェント間の時間的相互政治学習の結果を提示し,各参加者のエージェントがゲームプレイの表現として機能することを示す。
論文 参考訳(メタデータ) (2020-03-02T19:34:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。