論文の概要: Reinforcement Learning-Based Coverage Path Planning with Implicit
Cellular Decomposition
- arxiv url: http://arxiv.org/abs/2110.09018v1
- Date: Mon, 18 Oct 2021 05:18:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 15:04:11.930249
- Title: Reinforcement Learning-Based Coverage Path Planning with Implicit
Cellular Decomposition
- Title(参考訳): 難解なセル分解による強化学習に基づく被覆経路計画
- Authors: Javad Heydari and Olimpiya Saha and Viswanath Ganapathy
- Abstract要約: 本稿では,カバレッジ問題を体系的に解析し,最適な停止時間問題として定式化する。
本研究では,強化学習に基づくアルゴリズムが,未知の屋内環境を効果的にカバーしていることを示す。
- 参考スコア(独自算出の注目度): 5.2424255020469595
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Coverage path planning in a generic known environment is shown to be NP-hard.
When the environment is unknown, it becomes more challenging as the robot is
required to rely on its online map information built during coverage for
planning its path. A significant research effort focuses on designing heuristic
or approximate algorithms that achieve reasonable performance. Such algorithms
have sub-optimal performance in terms of covering the area or the cost of
coverage, e.g., coverage time or energy consumption. In this paper, we provide
a systematic analysis of the coverage problem and formulate it as an optimal
stopping time problem, where the trade-off between coverage performance and its
cost is explicitly accounted for. Next, we demonstrate that reinforcement
learning (RL) techniques can be leveraged to solve the problem computationally.
To this end, we provide some technical and practical considerations to
facilitate the application of the RL algorithms and improve the efficiency of
the solutions. Finally, through experiments in grid world environments and
Gazebo simulator, we show that reinforcement learning-based algorithms
efficiently cover realistic unknown indoor environments, and outperform the
current state of the art.
- Abstract(参考訳): 一般的な既知の環境における被覆経路計画はNPハードであることが示されている。
環境が未知になると、ロボットはその経路を計画するために、カバー中に構築されたオンラインマップ情報に頼る必要があるため、より困難になる。
重要な研究は、合理的な性能を達成するヒューリスティックまたは近似アルゴリズムの設計に焦点を当てている。
このようなアルゴリズムは、範囲やカバーコスト、例えばカバレッジ時間やエネルギー消費をカバーして、準最適性能を持つ。
本稿では,カバレッジ問題に関する体系的な分析を行い,それに基づいて,カバレッジ性能とコストのトレードオフを明示的に考慮した最適な停止時間問題として定式化する。
次に、強化学習(RL)技術を用いて問題を計算的に解くことを実証する。
この目的のために、RLアルゴリズムの適用を容易にし、解の効率を改善するための技術的および実践的な考察を提供する。
最後に,グリッド・ワールド環境とガゼボ・シミュレータを用いた実験を通じて,強化学習に基づくアルゴリズムが現実的未知の屋内環境を効率的にカバーし,現在のアートを上回っていることを示す。
関連論文リスト
- LLM-A*: Large Language Model Enhanced Incremental Heuristic Search on Path Planning [91.95362946266577]
経路計画はロボット工学と自律航法における基本的な科学的問題である。
A*やその変種のような伝統的なアルゴリズムは、パスの妥当性を保証することができるが、状態空間が大きくなるにつれて、計算とメモリの非効率が著しく低下する。
本稿では, A* の正確なパスフィニング能力と LLM のグローバルな推論能力とを相乗的に組み合わせた LLM ベースの経路計画法を提案する。
このハイブリッドアプローチは、特に大規模シナリオにおいて、パス妥当性の完全性を維持しながら、時間と空間の複雑さの観点からパスフィニング効率を向上させることを目的としている。
論文 参考訳(メタデータ) (2024-06-20T01:24:30Z) - Discovering General Reinforcement Learning Algorithms with Adversarial
Environment Design [54.39859618450935]
メタ学習型更新ルールは,広範囲のRLタスクで良好に機能するアルゴリズムの発見を期待して,実現可能であることを示す。
Learned Policy Gradient (LPG)のようなアルゴリズムによる印象的な初期結果にもかかわらず、これらのアルゴリズムが目に見えない環境に適用される場合、まだギャップが残っている。
本研究では,メタ教師付き学習分布の特性が,これらのアルゴリズムの性能に与える影響について検討する。
論文 参考訳(メタデータ) (2023-10-04T12:52:56Z) - Computation-efficient Deep Learning for Computer Vision: A Survey [121.84121397440337]
ディープラーニングモデルは、さまざまな視覚的知覚タスクにおいて、人間レベルのパフォーマンスに到達または超えた。
ディープラーニングモデルは通常、重要な計算資源を必要とし、現実のシナリオでは非現実的な電力消費、遅延、または二酸化炭素排出量につながる。
新しい研究の焦点は計算効率のよいディープラーニングであり、推論時の計算コストを最小限に抑えつつ、良好な性能を達成することを目指している。
論文 参考訳(メタデータ) (2023-08-27T03:55:28Z) - Learning Coverage Paths in Unknown Environments with Deep Reinforcement Learning [17.69984142788365]
被覆経路計画 (CPP) は、制限された領域の自由空間全体をカバーする経路を見つける問題である。
この課題に対する強化学習の適性について検討する。
本稿では,フロンティアに基づく計算可能なエゴセントリックマップ表現と,全変動に基づく新たな報酬項を提案する。
論文 参考訳(メタデータ) (2023-06-29T14:32:06Z) - Autonomous search of real-life environments combining dynamical
system-based path planning and unsupervised learning [0.0]
本稿では,障害物回避,カオス軌道分散,および正確なカバレッジ計算のためのアルゴリズムを提案する。
アルゴリズムは概してスムーズなカオス軌道を生成し、環境をスキャンする。
このアプリケーションの性能は、従来の最適経路プランナーに匹敵するものだった。
論文 参考訳(メタデータ) (2023-05-03T00:09:31Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - TransPath: Learning Heuristics For Grid-Based Pathfinding via
Transformers [64.88759709443819]
探索の効率を顕著に向上させると考えられる,インスタンス依存のプロキシを学習することを提案する。
私たちが最初に学ぶことを提案するプロキシは、補正係数、すなわち、インスタンスに依存しないコスト・ツー・ゴの見積もりと完璧な見積もりの比率である。
第2のプロキシはパス確率であり、グリッドセルが最も短いパスに横たわっている可能性を示している。
論文 参考訳(メタデータ) (2022-12-22T14:26:11Z) - Offline Stochastic Shortest Path: Learning, Evaluation and Towards
Optimality [57.91411772725183]
本稿では,状態空間と動作空間が有限である場合のオフライン最短経路問題について考察する。
オフラインポリシ評価(OPE)とオフラインポリシ学習タスクの両方を扱うための,シンプルな値ベースアルゴリズムを設計する。
これらの単純なアルゴリズムの解析は、極小値に近い最悪のケース境界を示唆する強いインスタンス依存境界をもたらす。
論文 参考訳(メタデータ) (2022-06-10T07:44:56Z) - Neural Motion Planning for Autonomous Parking [6.1805402105389895]
本稿では,より深い生成ネットワークと従来の動き計画手法を組み合わせたハイブリッドな動き計画手法を提案する。
提案手法は与えられた状態の表現を効果的に学習し,アルゴリズムの性能向上を示す。
論文 参考訳(メタデータ) (2021-11-12T14:29:38Z) - Integrating Deep Reinforcement and Supervised Learning to Expedite
Indoor Mapping [0.0]
その結果,両手法を組み合わせることで,フロンティアをベースとした移動計画に比べて最大75%のマッピング時間を短縮できることがわかった。
一つは、深層強化学習を用いて、運動プランナーを訓練することである。
2つ目は、事前訓練された生成深部ニューラルネットワークがマップ予測器として機能することである。
論文 参考訳(メタデータ) (2021-09-17T12:07:07Z) - Experience-Based Heuristic Search: Robust Motion Planning with Deep
Q-Learning [0.0]
本稿では,Deep Q-Networkの形式でのエクスペリエンスを,探索アルゴリズムの最適ポリシとして統合する方法について述べる。
本手法は、自動運転車分野における強化学習に基づく計画の適用性について、さらなる研究を奨励する可能性がある。
論文 参考訳(メタデータ) (2021-02-05T12:08:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。