論文の概要: MPTP: Motion-Planning-aware Task Planning for Navigation in Belief Space
- arxiv url: http://arxiv.org/abs/2104.04696v1
- Date: Sat, 10 Apr 2021 06:52:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-16 05:27:03.800925
- Title: MPTP: Motion-Planning-aware Task Planning for Navigation in Belief Space
- Title(参考訳): MPTP: 宇宙空間におけるナビゲーションのための運動計画型タスクプランニング
- Authors: Antony Thomas, Fulvio Mastrogiovanni, Marco Baglietto
- Abstract要約: 大規模環境におけるナビゲーションのための統合型タスク・モーション・プランニング・フレームワークを提案する。
このフレームワークは、動作中の運動計画と感覚の不確かさを意図している。
- 参考スコア(独自算出の注目度): 1.3535770763481902
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present an integrated Task-Motion Planning (TMP) framework for navigation
in large-scale environments. Of late, TMP for manipulation has attracted
significant interest resulting in a proliferation of different approaches. In
contrast, TMP for navigation has received considerably less attention.
Autonomous robots operating in real-world complex scenarios require planning in
the discrete (task) space and the continuous (motion) space. In
knowledge-intensive domains, on the one hand, a robot has to reason at the
highest-level, for example, the objects to procure, the regions to navigate to
in order to acquire them; on the other hand, the feasibility of the respective
navigation tasks have to be checked at the execution level. This presents a
need for motion-planning-aware task planners. In this paper, we discuss a
probabilistically complete approach that leverages this task-motion interaction
for navigating in large knowledge-intensive domains, returning a plan that is
optimal at the task-level. The framework is intended for motion planning under
motion and sensing uncertainty, which is formally known as belief space
planning. The underlying methodology is validated in simulation, in an office
environment and its scalability is tested in the larger Willow Garage world. A
reasonable comparison with a work that is closest to our approach is also
provided. We also demonstrate the adaptability of our approach by considering a
building floor navigation domain. Finally, we also discuss the limitations of
our approach and put forward suggestions for improvements and future work.
- Abstract(参考訳): 大規模環境におけるナビゲーションのためのタスク移動計画(TMP)フレームワークについて述べる。
近年,TMPの操作に対する関心が高まり,様々なアプローチが増加している。
対照的に、ナビゲーション用のTMPは、かなり注目を集めていない。
現実の複雑なシナリオで動く自律ロボットは、離散的な(タスク)空間と連続的な(動き)空間での計画を必要とする。
知識集約的なドメインでは、ロボットは、取得する対象、取得する領域、取得する領域など、最も高いレベルを推論しなければならない。
これは、モーションプランニング・アウェアタスクプランナーの必要性を示す。
本稿では,このタスクと動作の相互作用を利用して,大規模知識集約領域をナビゲートし,タスクレベルで最適な計画を返す確率論的に完全なアプローチについて論じる。
このフレームワークは、運動中の運動計画と感覚の不確実性を目的としており、これは正式には信仰空間計画として知られている。
基礎となる方法論は、オフィス環境でのシミュレーションで検証され、そのスケーラビリティは、より大きなwillow garageの世界でテストされる。
私たちのアプローチに最も近い作品との合理的な比較も提供されています。
また,ビルディングフロアナビゲーション領域を考慮し,本手法の適応性を示す。
最後に、我々のアプローチの限界についても議論し、改善と今後の作業を提案する。
関連論文リスト
- A Meta-Engine Framework for Interleaved Task and Motion Planning using Topological Refinements [51.54559117314768]
タスク・アンド・モーション・プランニング(タスク・アンド・モーション・プランニング、TAMP)は、自動化された計画問題の解決策を見つけるための問題である。
本稿では,TAMP問題のモデル化とベンチマークを行うための,汎用的でオープンソースのフレームワークを提案する。
移動エージェントと複数のタスク状態依存障害を含むTAMP問題を解決する革新的なメタ技術を導入する。
論文 参考訳(メタデータ) (2024-08-11T14:57:57Z) - Loc4Plan: Locating Before Planning for Outdoor Vision and Language Navigation [31.509686652011798]
VLN(Vision and Language Navigation)は、視覚環境において、エージェントが指示を理解し、目的地にナビゲートする必要がある課題である。
これまでの研究は主に、自然言語を視覚入力に基盤付けることに焦点を当てていたが、接地過程におけるエージェントの空間的位置情報の重要な役割を無視した。
本研究では,屋外VLNタスクにおける行動計画のための空間認識を取り入れた新しい枠組みであるLocating be for Planning(Loc4Plan)を紹介する。
論文 参考訳(メタデータ) (2024-08-09T14:31:09Z) - TOP-Nav: Legged Navigation Integrating Terrain, Obstacle and Proprioception Estimation [5.484041860401147]
TOP-Navは、包括的パスプランナーとTerran認識、Obstacle回避、クローズループプロプライオセプションを統合した、新しい脚付きナビゲーションフレームワークである。
そこで,TOP-Navは,従来の知識の分布を超えた地形や乱れをロボットが扱えるように,オープンワールドナビゲーションを実現する。
論文 参考訳(メタデータ) (2024-04-23T17:42:45Z) - AI planning in the imagination: High-level planning on learned abstract
search spaces [68.75684174531962]
我々は,エージェントが訓練中に学習する抽象的な検索空間において,エージェントが計画することを可能にする,PiZeroと呼ばれる新しい手法を提案する。
本研究では,旅行セールスマン問題,ソコバン問題,2048年,施設立地問題,パックマン問題など,複数の分野で評価を行った。
論文 参考訳(メタデータ) (2023-08-16T22:47:16Z) - ETPNav: Evolving Topological Planning for Vision-Language Navigation in
Continuous Environments [56.194988818341976]
視覚言語ナビゲーションは、エージェントが環境中をナビゲートするための指示に従う必要があるタスクである。
本研究では,1)環境を抽象化し,長距離航法計画を生成する能力,2)連続環境における障害物回避制御能力の2つの重要なスキルに焦点を当てたETPNavを提案する。
ETPNavは、R2R-CEとRxR-CEデータセットの先行技術よりも10%以上、20%改善されている。
論文 参考訳(メタデータ) (2023-04-06T13:07:17Z) - Long-HOT: A Modular Hierarchical Approach for Long-Horizon Object
Transport [83.06265788137443]
我々は、時間的拡張ナビゲーションのための新しいオブジェクトトランスポートタスクと新しいモジュラーフレームワークを提案することで、長距離探査と航法を具現化する上で重要な課題に対処する。
私たちの最初の貢献は、深層探査と長期計画に焦点を当てた新しいLong-HOT環境の設計である。
重み付けされたフロンティアの助けを借りて探索を行うために,シーンのトポロジカルグラフを構築するモジュラー階層輸送ポリシー(HTP)を提案する。
論文 参考訳(メタデータ) (2022-10-28T05:30:49Z) - Incremental 3D Scene Completion for Safe and Efficient Exploration
Mapping and Planning [60.599223456298915]
本研究では,情報,安全,解釈可能な地図作成と計画に3次元シーン補完を活用することによって,深層学習を探索に統合する新しい手法を提案する。
本手法は,地図の精度を最小限に抑えることで,ベースラインに比べて環境のカバレッジを73%高速化できることを示す。
最終地図にシーン完了が含まれていなくても、ロボットがより情報的な経路を選択するように誘導し、ロボットのセンサーでシーンの測定を35%高速化できることが示される。
論文 参考訳(メタデータ) (2022-08-17T14:19:33Z) - Towards Multi-Robot Task-Motion Planning for Navigation in Belief Space [1.4824891788575418]
本稿では,知識集約領域におけるナビゲーションのためのマルチロボットタスクモーション計画フレームワークを提案する。
特に,ロボット間の相互観測を取り入れた分散マルチロボットの設定について考察する。
このフレームワークは、運動中の運動計画と感覚の不確実性を目的としており、これは正式には信仰空間計画として知られている。
論文 参考訳(メタデータ) (2020-10-01T06:45:17Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。