論文の概要: Bandit Submodular Maximization for Multi-Robot Coordination in
Unpredictable and Partially Observable Environments
- arxiv url: http://arxiv.org/abs/2305.12795v1
- Date: Mon, 22 May 2023 07:44:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 17:39:54.018820
- Title: Bandit Submodular Maximization for Multi-Robot Coordination in
Unpredictable and Partially Observable Environments
- Title(参考訳): 予測不能および部分可観測環境におけるマルチロボット協調のためのbanditサブモジュラー最大化
- Authors: Zirui Xu, Xiaofeng Lin, Vasileios Tzoumas
- Abstract要約: 帯域フィードバックと追従後悔を伴う最初の部分モジュラコーディネートアルゴリズムを導入する。
盗賊のフィードバックは ロボットが 後ろ向きに計算できる能力だ 彼らの選択した行動の効果だけ
後悔の追跡はアルゴリズムの最適化の亜最適性であり、先駆的な未来を完全に知る最適な時間変化アクションである。
- 参考スコア(独自算出の注目度): 3.0294344089697596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of multi-agent coordination in unpredictable and
partially observable environments, that is, environments whose future evolution
is unknown a priori and that can only be partially observed. We are motivated
by the future of autonomy that involves multiple robots coordinating actions in
dynamic, unstructured, and partially observable environments to complete
complex tasks such as target tracking, environmental mapping, and area
monitoring. Such tasks are often modeled as submodular maximization
coordination problems due to the information overlap among the robots. We
introduce the first submodular coordination algorithm with bandit feedback and
bounded tracking regret -- bandit feedback is the robots' ability to compute in
hindsight only the effect of their chosen actions, instead of all the
alternative actions that they could have chosen instead, due to the partial
observability; and tracking regret is the algorithm's suboptimality with
respect to the optimal time-varying actions that fully know the future a
priori. The bound gracefully degrades with the environments' capacity to change
adversarially, quantifying how often the robots should re-select actions to
learn to coordinate as if they fully knew the future a priori. The algorithm
generalizes the seminal Sequential Greedy algorithm by Fisher et al. to the
bandit setting, by leveraging submodularity and algorithms for the problem of
tracking the best action. We validate our algorithm in simulated scenarios of
multi-target tracking.
- Abstract(参考訳): 予測不能かつ部分的に観測可能な環境におけるマルチエージェント協調の問題、すなわち、将来的な進化が未知であり、部分的にしか観測できない環境について検討する。
我々は、動的、非構造化、部分的に観測可能な環境における行動を調整する複数のロボットが、目標追跡、環境マッピング、地域監視といった複雑なタスクを完了するための自律性の未来に動機づけられている。
このようなタスクは、ロボット間での情報重なり合うため、しばしばサブモジュールの最大化調整問題としてモデル化される。
帯域幅フィードバックと有界追跡後悔を伴う最初の部分モジュラコーディネーションアルゴリズムを導入する -- 帯域幅フィードバックは、選択されたアクションの効果のみを後から計算するロボットの能力であり、部分的な可観測性のために選択できるすべての代替アクションではなく、選択されたアクションの効果である。
境界線は環境が逆向きに変化する能力に優雅に低下し、ロボットが行動を再選択して、未来を十分に知っているかのように調整する方法を定量化する。
このアルゴリズムは、フィッシャーらによるセナル・シーケンシャル・グリーディアルゴリズムを、最善のアクションを追跡する問題のためにサブモジュラリティとアルゴリズムを活用し、バンディット設定に一般化する。
本アルゴリズムをマルチターゲット追跡のシミュレーションシナリオで検証する。
関連論文リスト
- Communication- and Computation-Efficient Distributed Decision-Making in Multi-Robot Networks [2.8936428431504164]
複数のロボット間のスケーラブルでほぼ最適な関節運動計画を可能にする分散協調パラダイムを提供する。
我々のアルゴリズムは、競合する準最適アルゴリズムよりも2桁高速である。
最大45台のロボットによる監視タスクのシミュレーションでは、1Hzのオーダーでリアルタイム計画が可能で、カバー性能も優れている。
論文 参考訳(メタデータ) (2024-07-15T01:25:39Z) - Leveraging Untrustworthy Commands for Multi-Robot Coordination in
Unpredictable Environments: A Bandit Submodular Maximization Approach [5.087424045458335]
本研究では,信頼できない外部コマンドを持つ予測不可能な環境におけるマルチエージェント協調の問題について検討する。
外部コマンドが任意に悪い場合でも性能保証を行うアルゴリズム,Meta Bandit Sequential Greedyを提供する。
論文 参考訳(メタデータ) (2023-09-28T04:26:06Z) - AI planning in the imagination: High-level planning on learned abstract
search spaces [68.75684174531962]
我々は,エージェントが訓練中に学習する抽象的な検索空間において,エージェントが計画することを可能にする,PiZeroと呼ばれる新しい手法を提案する。
本研究では,旅行セールスマン問題,ソコバン問題,2048年,施設立地問題,パックマン問題など,複数の分野で評価を行った。
論文 参考訳(メタデータ) (2023-08-16T22:47:16Z) - Contribution \`a l'Optimisation d'un Comportement Collectif pour un
Groupe de Robots Autonomes [0.0]
この論文は集団ロボット工学の分野、特にマルチロボットシステムの最適化問題を研究している。
最初の貢献は、未知領域探索問題の解決にButterfly Algorithm Optimization (BOA) を用いることである。
第2の貢献は、ロボット工学における動的増分問題をベンチマークするための新しいシミュレーションフレームワークの開発である。
論文 参考訳(メタデータ) (2023-06-10T21:49:08Z) - Latent Exploration for Reinforcement Learning [87.42776741119653]
強化学習では、エージェントは環境を探索し、相互作用することでポリシーを学ぶ。
LATent TIme-Correlated Exploration (Lattice)を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:40:43Z) - Online Submodular Coordination with Bounded Tracking Regret: Theory,
Algorithm, and Applications to Multi-Robot Coordination [15.588080817106563]
私たちは、動的で非構造的で敵対的な環境で複数のロボットが協調する未来の自律性に動機付けられています。
本稿では,前兆を知っており,時間変化の時間的変動を考慮に入れた,有界な追従後悔を伴う最初の部分モジュラコーディネートアルゴリズムを提案する。
提案アルゴリズムは,Fisherらによるセミナル逐次グリーディアルゴリズムを予測不能な環境に一般化し,準モジュラリティとアルゴリズムを利用して,最良の専門家を追跡する。
論文 参考訳(メタデータ) (2022-09-26T05:31:34Z) - SABER: Data-Driven Motion Planner for Autonomously Navigating
Heterogeneous Robots [112.2491765424719]
我々は、データ駆動型アプローチを用いて、異種ロボットチームをグローバルな目標に向けてナビゲートする、エンドツーエンドのオンラインモーションプランニングフレームワークを提案する。
モデル予測制御(SMPC)を用いて,ロボット力学を満たす制御入力を計算し,障害物回避時の不確実性を考慮した。
リカレントニューラルネットワークは、SMPC有限時間地平線解における将来の状態の不確かさを素早く推定するために用いられる。
ディープQ学習エージェントがハイレベルパスプランナーとして機能し、SMPCにロボットを望ましいグローバルな目標に向けて移動させる目標位置を提供する。
論文 参考訳(メタデータ) (2021-08-03T02:56:21Z) - Instance-Aware Predictive Navigation in Multi-Agent Environments [93.15055834395304]
エージェント間の相互作用と将来のシーン構造を予測するIPC(Instance-Aware Predictive Control)アプローチを提案する。
我々は,ego中心の視点でエージェント間のインタラクションを推定するために,新しいマルチインスタンスイベント予測モジュールを採用する。
シーンレベルとインスタンスレベルの両方の予測状態をより有効活用するために、一連のアクションサンプリング戦略を設計します。
論文 参考訳(メタデータ) (2021-01-14T22:21:25Z) - Jump Operator Planning: Goal-Conditioned Policy Ensembles and Zero-Shot
Transfer [71.44215606325005]
本稿では,シーケンシャルなサブゴールタスクの超指数空間における解を高速に計算するための,Jump-Operator Dynamic Programmingという新しいフレームワークを提案する。
このアプローチでは、時間的に拡張された行動として機能する、再利用可能な目標条件付き警察のアンサンブルを制御する。
すると、この部分空間上の目的関数のクラスを、解がグラウンド化に不変であるものとして特定し、最適ゼロショット移動をもたらす。
論文 参考訳(メタデータ) (2020-07-06T05:13:20Z) - Thinking While Moving: Deep Reinforcement Learning with Concurrent
Control [122.49572467292293]
本研究では,制御システムの時間的進化とともに,ポリシーからのアクションのサンプリングを同時に行わなければならないような環境下での強化学習について検討する。
人や動物のように、ロボットは思考と移動を同時に行わなければならず、前の動作が完了する前に次の動作を決定する。
論文 参考訳(メタデータ) (2020-04-13T17:49:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。