論文の概要: Motion Policy Networks
- arxiv url: http://arxiv.org/abs/2210.12209v1
- Date: Fri, 21 Oct 2022 19:37:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 18:41:44.964803
- Title: Motion Policy Networks
- Title(参考訳): 運動政策ネットワーク
- Authors: Adam Fishman, Adithyavairan Murali, Clemens Eppner, Bryan Peele, Byron
Boots, Dieter Fox
- Abstract要約: 本稿では,M$pi$Nets (Motion Policy Networks) と呼ばれるエンドツーエンドのニューラルモデルを提案する。
実験の結果,M$pi$Netsはグローバルプランナーよりもはるかに高速であり,動的シーンに対処するために必要な反応性を示した。
- 参考スコア(独自算出の注目度): 61.87789591369106
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Collision-free motion generation in unknown environments is a core building
block for robot manipulation. Generating such motions is challenging due to
multiple objectives; not only should the solutions be optimal, the motion
generator itself must be fast enough for real-time performance and reliable
enough for practical deployment. A wide variety of methods have been proposed
ranging from local controllers to global planners, often being combined to
offset their shortcomings. We present an end-to-end neural model called Motion
Policy Networks (M$\pi$Nets) to generate collision-free, smooth motion from
just a single depth camera observation. M$\pi$Nets are trained on over 3
million motion planning problems in over 500,000 environments. Our experiments
show that M$\pi$Nets are significantly faster than global planners while
exhibiting the reactivity needed to deal with dynamic scenes. They are 46%
better than prior neural planners and more robust than local control policies.
Despite being only trained in simulation, M$\pi$Nets transfer well to the real
robot with noisy partial point clouds. Code and data are publicly available at
https://mpinets.github.io.
- Abstract(参考訳): 未知環境における衝突のないモーション生成は、ロボット操作のコアビルディングブロックである。
このような動きの生成は、複数の目的のために困難であり、解決策が最適であるだけでなく、モーションジェネレータ自体がリアルタイムのパフォーマンスに十分早く、実用的な展開に十分な信頼性を持つ必要がある。
ローカルコントローラからグローバルプランナーまで、様々な方法が提案されており、しばしばそれらの欠点を相殺するために組み合わされる。
我々は,単一深度のカメラ観測から衝突のない滑らかな動きを生成するために,モーション・ポリシー・ネットワーク(m$\pi$nets)と呼ばれるエンドツーエンドのニューラルモデルを提案する。
M$\pi$Netsは、50万以上の環境で300万以上のモーションプランニング問題をトレーニングしている。
実験の結果,M$\pi$Netsはグローバルプランナーよりもはるかに高速であり,動的シーンに対処するために必要な反応性を示した。
従来の神経プランナーよりも46%優れ、局所的な制御ポリシーよりも堅牢である。
M$\pi$Netsはシミュレーションでしか訓練されていないが、ノイズのある部分点の雲を持つ本物のロボットにうまく移行する。
コードとデータはhttps://mpinets.github.ioで公開されている。
関連論文リスト
- Generalizability of Graph Neural Networks for Decentralized Unlabeled Motion Planning [72.86540018081531]
ラベルなしの動作計画では、衝突回避を確保しながら、ロボットのセットを目標の場所に割り当てる。
この問題は、探査、監視、輸送などの応用において、マルチロボットシステムにとって不可欠なビルディングブロックを形成している。
この問題に対処するために、各ロボットは、その400ドルのアネレストロボットと$k$アネレストターゲットの位置のみを知っている分散環境で対処する。
論文 参考訳(メタデータ) (2024-09-29T23:57:25Z) - Neural MP: A Generalist Neural Motion Planner [75.82675575009077]
運動計画問題にデータ駆動学習を大規模に適用することで,これを実現する。
提案手法は, シミュレーションの複雑なシーンを多数構築し, モーションプランナーから専門家のデータを収集し, 反応的なジェネラリストポリシーに抽出する。
我々は,4つの異なる環境における64の動作計画タスクについて,その方法の徹底的な評価を行う。
論文 参考訳(メタデータ) (2024-09-09T17:59:45Z) - CabiNet: Scaling Neural Collision Detection for Object Rearrangement
with Procedural Scene Generation [54.68738348071891]
私たちはまず、さまざまな日常環境において、650万以上の散らばったシーン(前よりも桁違いに多い)を生成します。
このデータから合成部分点雲をレンダリングし、それをCabiNetモデルアーキテクチャのトレーニングに使用します。
CabiNetは、オブジェクトとシーンポイントの雲を受け入れる衝突モデルである。
論文 参考訳(メタデータ) (2023-04-18T21:09:55Z) - Robot Motion Planning as Video Prediction: A Spatio-Temporal Neural
Network-based Motion Planner [16.26965535164238]
ニューラルネットワーク(NN)ベースの手法は、NNモデルの強力な学習能力と本質的に高い並列性により、ロボットの動作計画に魅力的なアプローチとして登場した。
本稿では,重要な時間的情報を完全に抽出し活用し,効率的なニューラルモーションプランナを構築するためのエンドツーエンド学習フレームワークであるNeural-Netを提案する。
論文 参考訳(メタデータ) (2022-08-24T03:45:27Z) - N$^2$M$^2$: Learning Navigation for Arbitrary Mobile Manipulation
Motions in Unseen and Dynamic Environments [9.079709086741987]
モバイル操作のためのニューラルナビゲーション(N$2$M$2$)を導入する。
結果として生じるアプローチは、動的障害物や環境変化に即座に反応しながら、探索されていない環境で、目に見えない、長い水平タスクを実行することができる。
提案手法は,複数の運動学的に多様な移動マニピュレータ上での広範囲なシミュレーションおよび実世界の実験において有効であることを示す。
論文 参考訳(メタデータ) (2022-06-17T12:52:41Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z) - An advantage actor-critic algorithm for robotic motion planning in dense
and dynamic scenarios [0.8594140167290099]
本稿では,既存のアクター批判アルゴリズムを改良し,複雑な動作計画に適合する。
ロボットが目標を達成するまでの処理時間を短縮し、動き計画においてより高い成功率を達成する。
論文 参考訳(メタデータ) (2021-02-05T12:30:23Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z) - MotionNet: Joint Perception and Motion Prediction for Autonomous Driving
Based on Bird's Eye View Maps [34.24949016811546]
我々は,3次元点雲からの知覚と運動予測を協調的に行うために,MotionNetと呼ばれる効率的な深層モデルを提案する。
MotionNetは一連のスイープを入力として、各グリッドセルのオブジェクトカテゴリとモーション情報をエンコードする鳥の目視マップ(BEV)を出力する。
論文 参考訳(メタデータ) (2020-03-15T04:37:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。