論文の概要: Physics-informed Neural Motion Planning on Constraint Manifolds
- arxiv url: http://arxiv.org/abs/2403.05765v1
- Date: Sat, 9 Mar 2024 02:24:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 12:32:03.021338
- Title: Physics-informed Neural Motion Planning on Constraint Manifolds
- Title(参考訳): 拘束多様体上の物理インフォームドニューラルモーション計画
- Authors: Ruiqi Ni and Ahmed H. Qureshi
- Abstract要約: Constrained Motion Planning (CMP) は、運動論的制約多様体上の与えられた開始と目標設定の間の衝突のない経路を見つけることを目的としている。
制約多様体上のアイコン方程式を解き、専門家データなしでCMPの神経機能を訓練する最初の物理インフォームドCMPフレームワークを提案する。
提案手法は,方向制約下での物体操作や,高次元6-DOFロボットマニピュレータを用いたドア開口など,シミュレーションおよび実世界の様々なCMP問題を効率的に解決する。
- 参考スコア(独自算出の注目度): 6.439800184169697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Constrained Motion Planning (CMP) aims to find a collision-free path between
the given start and goal configurations on the kinematic constraint manifolds.
These problems appear in various scenarios ranging from object manipulation to
legged-robot locomotion. However, the zero-volume nature of manifolds makes the
CMP problem challenging, and the state-of-the-art methods still take several
seconds to find a path and require a computationally expansive path dataset for
imitation learning. Recently, physics-informed motion planning methods have
emerged that directly solve the Eikonal equation through neural networks for
motion planning and do not require expert demonstrations for learning. Inspired
by these approaches, we propose the first physics-informed CMP framework that
solves the Eikonal equation on the constraint manifolds and trains neural
function for CMP without expert data. Our results show that the proposed
approach efficiently solves various CMP problems in both simulation and
real-world, including object manipulation under orientation constraints and
door opening with a high-dimensional 6-DOF robot manipulator. In these complex
settings, our method exhibits high success rates and finds paths in
sub-seconds, which is many times faster than the state-of-the-art CMP methods.
- Abstract(参考訳): Constrained Motion Planning (CMP) は、運動論的制約多様体上の与えられた開始と目標設定の間の衝突のない経路を見つけることを目的としている。
これらの問題は、物体操作から脚ロボットの移動まで様々なシナリオに現れる。
しかし、多様体のゼロ体積の性質は、CMP問題を難しくし、最先端の手法はパスを見つけるのに数秒を要し、模倣学習のために計算的に拡張可能なパスデータセットを必要とする。
近年,運動計画のためのニューラルネットワークを用いて固有方程式を直接解く物理学的な運動計画法が登場し,学習のための専門的な実演は不要である。
これらの手法に着想を得て,制約多様体上のアイコン方程式を解く物理インフォームドCMPフレームワークを提案し,専門家データなしでCMPのニューラル関数を訓練する。
提案手法は,方向制約下での物体操作や,高次元6-DOFロボットマニピュレータを用いたドア開口など,シミュレーションおよび実世界の様々なCMP問題を効率的に解決する。
これらの複雑な設定では,提案手法は高い成功率を示し,最先端のCMP手法の何倍も高速なサブ秒の経路を求める。
関連論文リスト
- Trajectory Manifold Optimization for Fast and Adaptive Kinodynamic Motion Planning [5.982922468400902]
システムが動的に変化する環境に適応するためには、高速なキノダイナミックな運動計画が不可欠である。
本稿では,新しいニューラルネットワークモデル,その微分可能な運動マニフォールドプリミティブ(DMMP)と実践的なトレーニング戦略を提案する。
任意の目標位置への動的投球を行う7-DoFロボットアームを用いた実験により,提案手法が計画速度,タスク成功,制約満足度といった既存手法を超えることを示した。
論文 参考訳(メタデータ) (2024-10-16T03:29:33Z) - DeNoising-MOT: Towards Multiple Object Tracking with Severe Occlusions [52.63323657077447]
DNMOTは、複数のオブジェクト追跡のためのエンドツーエンドのトレーニング可能なDeNoising Transformerである。
具体的には、トレーニング中にノイズを伴って軌道を拡大し、エンコーダ・デコーダアーキテクチャのデノイング過程をモデルに学習させる。
我々はMOT17,MOT20,DanceTrackのデータセットについて広範な実験を行い,実験結果から,提案手法が従来の最先端手法よりも明確なマージンで優れていることが示された。
論文 参考訳(メタデータ) (2023-09-09T04:40:01Z) - Progressive Learning for Physics-informed Neural Motion Planning [1.9798034349981157]
モーションプランニングは、衝突のないロボットの動き経路を見つけるための高速な方法を必要とする、中核的なロボティクス問題の1つである。
近年の進歩は、運動計画のためのアイコン方程式を直接解く物理インフォームドNMPアプローチにつながっている。
本稿では,ニューラルネットワークをエキスパートデータなしで学習するための新しい進化的学習戦略を提案する。
論文 参考訳(メタデータ) (2023-06-01T12:41:05Z) - Fast Kinodynamic Planning on the Constraint Manifold with Deep Neural
Networks [29.239926645660823]
本稿では,制約多様体の概念を利用した新しい学習計画フレームワークを提案する。
我々の手法は任意の制約を満たす計画を生成し、ニューラルネットワークの推論時間という短い一定時間でそれらを計算する。
我々は,2つのシミュレートされたタスクと,ロボット・エアホッケーにおける打撃動作を実行するために,クカ・LBRIiwa 14ロボットアームを用いた実世界のシナリオに対して,我々のアプローチを検証した。
論文 参考訳(メタデータ) (2023-01-11T06:54:11Z) - Guaranteed Conservation of Momentum for Learning Particle-based Fluid
Dynamics [96.9177297872723]
本稿では,学習物理シミュレーションにおける線形運動量を保証する新しい手法を提案する。
我々は、強い制約で運動量の保存を強制し、反対称的な連続的な畳み込み層を通して実現する。
提案手法により,学習シミュレータの物理的精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-10-12T09:12:59Z) - NTFields: Neural Time Fields for Physics-Informed Robot Motion Planning [1.9798034349981157]
乱雑なシナリオにおけるロボット動作計画のためのニューラルタイムフィールド(NTFields)を提案する。
本フレームワークは,Eykonal Equationと呼ばれる非線形一階PDEから得られる経路解を見つけるために,連続到着時間を生成する波動伝搬モデルを表す。
ギブソン・データセットを含む様々な散在した3次元環境において本手法の評価を行い,4-DOFおよび6-DOFロボットマニピュレータの動作計画問題を解く能力を実証した。
論文 参考訳(メタデータ) (2022-09-30T22:34:54Z) - Multi-Objective Policy Gradients with Topological Constraints [108.10241442630289]
本稿では, PPOアルゴリズムの簡単な拡張により, TMDPにおけるポリシー勾配に対する新しいアルゴリズムを提案する。
シミュレーションと実ロボットの両方の目的を任意に並べた実世界の多目的ナビゲーション問題に対して,これを実証する。
論文 参考訳(メタデータ) (2022-09-15T07:22:58Z) - Simultaneous Contact-Rich Grasping and Locomotion via Distributed
Optimization Enabling Free-Climbing for Multi-Limbed Robots [60.06216976204385]
移動, 把握, 接触問題を同時に解くための効率的な運動計画フレームワークを提案する。
ハードウェア実験において提案手法を実証し, より短い計画時間で, 傾斜角45degで自由クライミングを含む様々な動作を実現できることを示す。
論文 参考訳(メタデータ) (2022-07-04T13:52:10Z) - Neural Motion Fields: Encoding Grasp Trajectories as Implicit Value
Functions [65.84090965167535]
本稿では,ニューラルネットワークによってパラメータ化される暗黙的値関数として,オブジェクト点群と相対的タスク軌跡の両方を符号化する新しいオブジェクト表現であるNeural Motion Fieldsを提案する。
このオブジェクト中心表現は、SE(3)空間上の連続分布をモデル化し、サンプリングベースのMPCを利用して、この値関数を最適化することで、反応的に把握することができる。
論文 参考訳(メタデータ) (2022-06-29T18:47:05Z) - MPC-MPNet: Model-Predictive Motion Planning Networks for Fast,
Near-Optimal Planning under Kinodynamic Constraints [15.608546987158613]
Kinodynamic Motion Planning (KMP) は、ロボットの動きを同時に運動学や力学の制約を受ける計算である。
ほぼ最適経路の解を求める,スケーラブルで模倣可能なモデル予測型運動計画ネットワークフレームワークを提案する。
提案アルゴリズムは, 時間, 経路特性, 既存手法に対する成功率の大幅な改善を示す結果から, 乱雑な, キノダイナミックに制約された, 不安定な計画上の問題に対して評価を行う。
論文 参考訳(メタデータ) (2021-01-17T23:07:04Z) - End-to-end Learning for Inter-Vehicle Distance and Relative Velocity
Estimation in ADAS with a Monocular Camera [81.66569124029313]
本稿では,ディープニューラルネットワークのエンドツーエンドトレーニングに基づくカメラによる車間距離と相対速度推定手法を提案する。
提案手法の重要な特徴は,2つの時間的単眼フレームによって提供される複数の視覚的手がかりの統合である。
また,移動場における視線歪みの影響を緩和する車両中心サンプリング機構を提案する。
論文 参考訳(メタデータ) (2020-06-07T08:18:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。