論文の概要: DREAM: Decentralized Reinforcement Learning for Exploration and
Efficient Energy Management in Multi-Robot Systems
- arxiv url: http://arxiv.org/abs/2309.17433v1
- Date: Fri, 29 Sep 2023 17:43:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 12:10:29.105574
- Title: DREAM: Decentralized Reinforcement Learning for Exploration and
Efficient Energy Management in Multi-Robot Systems
- Title(参考訳): dream: マルチロボットシステムの探索と効率的なエネルギー管理のための分散強化学習
- Authors: Dipam Patel, Phu Pham, Kshitij Tiwari and Aniket Bera
- Abstract要約: 資源制約されたロボットは、しばしばエネルギー不足、不適切なタスク割り当てによる計算能力の不足、動的環境における堅牢性の欠如に悩まされる。
本稿では,マルチロボットシステムにおける探索と効率的なエネルギー管理のための分散強化学習DREAMを紹介する。
- 参考スコア(独自算出の注目度): 14.266876062352424
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Resource-constrained robots often suffer from energy inefficiencies,
underutilized computational abilities due to inadequate task allocation, and a
lack of robustness in dynamic environments, all of which strongly affect their
performance. This paper introduces DREAM - Decentralized Reinforcement Learning
for Exploration and Efficient Energy Management in Multi-Robot Systems, a
comprehensive framework that optimizes the allocation of resources for
efficient exploration. It advances beyond conventional heuristic-based task
planning as observed conventionally. The framework incorporates Operational
Range Estimation using Reinforcement Learning to perform exploration and
obstacle avoidance in unfamiliar terrains. DREAM further introduces an Energy
Consumption Model for goal allocation, thereby ensuring mission completion
under constrained resources using a Graph Neural Network. This approach also
ensures that the entire Multi-Robot System can survive for an extended period
of time for further missions compared to the conventional approach of randomly
allocating goals, which compromises one or more agents. Our approach adapts to
prioritizing agents in real-time, showcasing remarkable resilience against
dynamic environments. This robust solution was evaluated in various simulated
environments, demonstrating adaptability and applicability across diverse
scenarios. We observed a substantial improvement of about 25% over the baseline
method, leading the way for future research in resource-constrained robotics.
- Abstract(参考訳): 資源に制約のあるロボットは、しばしばエネルギーの非効率、不適切なタスク割り当てによる計算能力の不足、動的環境におけるロバスト性の欠如に苦しむ。
本稿では,効率的な探索のための資源配分を最適化する総合的なフレームワークであるDREAM-Decentralized Reinforcement Learning for Exploration and Efficient Energy Management in Multi-Robot Systemsを紹介する。
従来のヒューリスティックなタスク計画よりも進歩している。
このフレームワークは、強化学習を用いた運用範囲推定を取り入れ、未知の地形での探索と障害物回避を行う。
DREAMはさらに、目標割り当てのためのエネルギー消費モデルを導入し、グラフニューラルネットワークを用いて制約されたリソース下でのミッション完了を保証する。
このアプローチは、複数のエージェントを妥協するランダムに目標を割り当てる従来のアプローチと比較して、マルチロボットシステム全体がさらなるミッションのために長期間生存することを保証する。
我々のアプローチはエージェントをリアルタイムに優先順位付けすることに適応し、動的環境に対する顕著なレジリエンスを示す。
この堅牢なソリューションは様々なシミュレートされた環境で評価され、様々なシナリオで適応性と適用性を示す。
我々は,ベースライン法に比べて約25%の大幅な改善がみられ,資源制約型ロボット研究の道筋を導いた。
関連論文リスト
- Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - Diffusion-Reinforcement Learning Hierarchical Motion Planning in Adversarial Multi-agent Games [6.532258098619471]
部分的に観察可能なマルチエージェント追従ゲーム(PEG)における回避目標の動作計画タスクに焦点をあてる。
これらの追尾回避問題は、捜索・救助活動や監視ロボットなど、様々な応用に関係している。
環境データに応答するグローバルパスを計画するために,高レベル拡散モデルを統合する階層型アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-03-16T03:53:55Z) - From Simulations to Reality: Enhancing Multi-Robot Exploration for Urban
Search and Rescue [46.377510400989536]
本研究では,コミュニケーションが限られ,位置情報がない未知の環境での効率的なマルチロボット探索のための新しいハイブリッドアルゴリズムを提案する。
連続した目標情報なしでシナリオに合うように、ローカルなベストとグローバルなベストポジションを再定義する。
提示された研究は、限られた情報と通信能力を持つシナリオにおけるマルチロボット探索の強化を約束している。
論文 参考訳(メタデータ) (2023-11-28T17:05:25Z) - Robot Fine-Tuning Made Easy: Pre-Training Rewards and Policies for
Autonomous Real-World Reinforcement Learning [58.3994826169858]
ロボット強化学習のためのリセット不要な微調整システムであるRoboFuMEを紹介する。
我々の洞察は、オフラインの強化学習技術を利用して、事前訓練されたポリシーの効率的なオンライン微調整を確保することである。
提案手法では,既存のロボットデータセットからのデータを組み込んで,目標タスクを3時間以内の自律現実体験で改善することができる。
論文 参考訳(メタデータ) (2023-10-23T17:50:08Z) - Bridging Active Exploration and Uncertainty-Aware Deployment Using
Probabilistic Ensemble Neural Network Dynamics [11.946807588018595]
本稿では,活発な探索と不確実性を考慮した展開を橋渡しするモデルベース強化学習フレームワークを提案する。
探索と展開の対立する2つのタスクは、最先端のサンプリングベースのMPCによって最適化されている。
自動運転車と車輪付きロボットの両方で実験を行い、探索と展開の両方に有望な結果を示します。
論文 参考訳(メタデータ) (2023-05-20T17:20:12Z) - Don't Start From Scratch: Leveraging Prior Data to Automate Robotic
Reinforcement Learning [70.70104870417784]
強化学習(RL)アルゴリズムは、ロボットシステムの自律的なスキル獲得を可能にするという約束を持っている。
現実のロボットRLは、通常、環境をリセットするためにデータ収集と頻繁な人間の介入を必要とする。
本研究では,従来のタスクから収集した多様なオフラインデータセットを効果的に活用することで,これらの課題にどのように対処できるかを検討する。
論文 参考訳(メタデータ) (2022-07-11T08:31:22Z) - Online reinforcement learning with sparse rewards through an active
inference capsule [62.997667081978825]
本稿では,将来期待される新しい自由エネルギーを最小化するアクティブ推論エージェントを提案する。
我々のモデルは、非常に高いサンプル効率でスパース・リワード問題を解くことができる。
また、複雑な目的の表現を単純化する報奨関数から事前モデルを近似する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-06-04T10:03:36Z) - Autonomous sPOMDP Environment Modeling With Partial Model Exploitation [0.0]
独自のサプライズに基づく部分観測可能なマルコフ決定過程(sPOMDP)を拡張した新しい状態空間探索アルゴリズムを提案する。
提案手法は,学習速度が31~63%向上した元のsPOMDP学習手法の効率性とスケーラビリティを著しく向上することを示す。
以上の結果から,SPOMDPソリューションをより広い環境に拡張する道を開いた。
論文 参考訳(メタデータ) (2020-12-22T17:48:32Z) - Learning to Plan Optimistically: Uncertainty-Guided Deep Exploration via
Latent Model Ensembles [73.15950858151594]
本稿では,不確実な長期報酬に直面した最適化による深層探査を可能にするLOVE(Latent Optimistic Value Exploration)を提案する。
潜在世界モデルと値関数推定を組み合わせ、無限水平リターンを予測し、アンサンブルにより関連する不確実性を回復する。
連続行動空間における視覚ロボット制御タスクにLOVEを適用し、最先端や他の探査目標と比較して、平均20%以上のサンプル効率の改善を実証する。
論文 参考訳(メタデータ) (2020-10-27T22:06:57Z) - Dynamic Dispatching for Large-Scale Heterogeneous Fleet via Multi-agent
Deep Reinforcement Learning [10.835960004409708]
本研究では,鉱業における動的問題を解決するための新しい深層強化学習手法を提案する。
まず,実地雷のパラメータを校正したイベントベースマイニングシミュレータを開発した。
そこで我々は,異種エージェントから記憶を学習するための,新しい抽象的状態/行動表現を用いた体験共有型ディープQネットワークを提案する。
論文 参考訳(メタデータ) (2020-08-24T21:29:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。