論文の概要: Robot Motion Planning as Video Prediction: A Spatio-Temporal Neural
Network-based Motion Planner
- arxiv url: http://arxiv.org/abs/2208.11287v1
- Date: Wed, 24 Aug 2022 03:45:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-25 13:28:43.668760
- Title: Robot Motion Planning as Video Prediction: A Spatio-Temporal Neural
Network-based Motion Planner
- Title(参考訳): 映像予測としてのロボット運動計画 : 時空間ニューラルネットワークを用いた運動プランナ
- Authors: Xiao Zang, Miao Yin, Lingyi Huang, Jingjin Yu, Saman Zonouz and Bo
Yuan
- Abstract要約: ニューラルネットワーク(NN)ベースの手法は、NNモデルの強力な学習能力と本質的に高い並列性により、ロボットの動作計画に魅力的なアプローチとして登場した。
本稿では,重要な時間的情報を完全に抽出し活用し,効率的なニューラルモーションプランナを構築するためのエンドツーエンド学習フレームワークであるNeural-Netを提案する。
- 参考スコア(独自算出の注目度): 16.26965535164238
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural network (NN)-based methods have emerged as an attractive approach for
robot motion planning due to strong learning capabilities of NN models and
their inherently high parallelism. Despite the current development in this
direction, the efficient capture and processing of important sequential and
spatial information, in a direct and simultaneous way, is still relatively
under-explored. To overcome the challenge and unlock the potentials of neural
networks for motion planning tasks, in this paper, we propose STP-Net, an
end-to-end learning framework that can fully extract and leverage important
spatio-temporal information to form an efficient neural motion planner. By
interpreting the movement of the robot as a video clip, robot motion planning
is transformed to a video prediction task that can be performed by STP-Net in
both spatially and temporally efficient ways. Empirical evaluations across
different seen and unseen environments show that, with nearly 100% accuracy
(aka, success rate), STP-Net demonstrates very promising performance with
respect to both planning speed and path cost. Compared with existing NN-based
motion planners, STP-Net achieves at least 5x, 2.6x and 1.8x faster speed with
lower path cost on 2D Random Forest, 2D Maze and 3D Random Forest environments,
respectively. Furthermore, STP-Net can quickly and simultaneously compute
multiple near-optimal paths in multi-robot motion planning tasks
- Abstract(参考訳): ニューラルネットワーク(NN)ベースの手法は、NNモデルの強力な学習能力と本質的に高い並列性により、ロボットの動作計画に魅力的なアプローチとして登場した。
この方向の現在の発展にもかかわらず、重要な逐次的および空間的情報の効率的なキャプチャと処理は、直接的かつ同時的に、比較的未検討のままである。
本稿では、この課題を克服し、動作計画タスクのためのニューラルネットワークの可能性を解き放つために、重要な時空間情報を完全に抽出し活用し、効率的なニューラルモーションプランナーを構築するためのエンドツーエンド学習フレームワークであるSTP-Netを提案する。
ロボットの動きをビデオクリップとして解釈することにより、ロボットの動き計画が、空間的にも時間的にもSTP-Netによって実行できる映像予測タスクに変換される。
STP-Netは、見知らぬ様々な環境において、100%近い精度(つまり成功率)で、計画速度とパスコストの両方に関して非常に有望な性能を示します。
既存のNNベースのモーションプランナーと比較すると、STP-Netは2Dランダムフォレスト、2D迷路、3Dランダムフォレストで少なくとも5倍、2.6倍、1.8倍の速度を実現している。
さらに、マルチロボット動作計画タスクにおいて、STP-Netは複数の近最適経路を迅速かつ同時に計算できる
関連論文リスト
- Potential Based Diffusion Motion Planning [73.593988351275]
本稿では,潜在的行動計画の学習に向けた新しいアプローチを提案する。
我々はニューラルネットワークを訓練し、運動計画軌跡よりも容易に最適化可能なポテンシャルを捕捉し、学習する。
我々は、その固有の構成可能性を示し、様々な動きの制約に一般化することができる。
論文 参考訳(メタデータ) (2024-07-08T17:48:39Z) - PNAS-MOT: Multi-Modal Object Tracking with Pareto Neural Architecture Search [64.28335667655129]
複数の物体追跡は、自律運転において重要な課題である。
トラッキングの精度が向上するにつれて、ニューラルネットワークはますます複雑になり、レイテンシが高いため、実際の運転シナリオにおける実践的な応用に課題が生じる。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法を用いて追跡のための効率的なアーキテクチャを探索し,比較的高い精度を維持しつつ,低リアルタイム遅延を実現することを目的とした。
論文 参考訳(メタデータ) (2024-03-23T04:18:49Z) - Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - Progressive Learning for Physics-informed Neural Motion Planning [1.9798034349981157]
モーションプランニングは、衝突のないロボットの動き経路を見つけるための高速な方法を必要とする、中核的なロボティクス問題の1つである。
近年の進歩は、運動計画のためのアイコン方程式を直接解く物理インフォームドNMPアプローチにつながっている。
本稿では,ニューラルネットワークをエキスパートデータなしで学習するための新しい進化的学習戦略を提案する。
論文 参考訳(メタデータ) (2023-06-01T12:41:05Z) - Simultaneous Contact-Rich Grasping and Locomotion via Distributed
Optimization Enabling Free-Climbing for Multi-Limbed Robots [60.06216976204385]
移動, 把握, 接触問題を同時に解くための効率的な運動計画フレームワークを提案する。
ハードウェア実験において提案手法を実証し, より短い計画時間で, 傾斜角45degで自由クライミングを含む様々な動作を実現できることを示す。
論文 参考訳(メタデータ) (2022-07-04T13:52:10Z) - SABER: Data-Driven Motion Planner for Autonomously Navigating
Heterogeneous Robots [112.2491765424719]
我々は、データ駆動型アプローチを用いて、異種ロボットチームをグローバルな目標に向けてナビゲートする、エンドツーエンドのオンラインモーションプランニングフレームワークを提案する。
モデル予測制御(SMPC)を用いて,ロボット力学を満たす制御入力を計算し,障害物回避時の不確実性を考慮した。
リカレントニューラルネットワークは、SMPC有限時間地平線解における将来の状態の不確かさを素早く推定するために用いられる。
ディープQ学習エージェントがハイレベルパスプランナーとして機能し、SMPCにロボットを望ましいグローバルな目標に向けて移動させる目標位置を提供する。
論文 参考訳(メタデータ) (2021-08-03T02:56:21Z) - Learning Interaction-Aware Trajectory Predictions for Decentralized
Multi-Robot Motion Planning in Dynamic Environments [10.345048137438623]
本稿では、リカレントニューラルネットワーク(RNN)に基づく新しい軌道予測モデルを提案する。
次に,軌道予測モデルをマルチロボット衝突回避のための分散モデル予測制御(MPC)フレームワークに組み込む。
論文 参考訳(メタデータ) (2021-02-10T11:11:08Z) - An advantage actor-critic algorithm for robotic motion planning in dense
and dynamic scenarios [0.8594140167290099]
本稿では,既存のアクター批判アルゴリズムを改良し,複雑な動作計画に適合する。
ロボットが目標を達成するまでの処理時間を短縮し、動き計画においてより高い成功率を達成する。
論文 参考訳(メタデータ) (2021-02-05T12:30:23Z) - Neural Manipulation Planning on Constraint Manifolds [13.774614900994342]
マルチモーダルキネマティック制約に対する最初のニューラルプランナーであるConstrained Motion Planning Networks (CoMPNet)を提案する。
我々は,制約のない問題と制約のない問題の両方を含む実用的な動作計画タスクを,CoMPNetが解決していることを示す。
トレーニング中に見えないような、高い成功率の環境において、オブジェクトの新しい見えない場所に一般化する。
論文 参考訳(メタデータ) (2020-08-09T18:58:10Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z) - MotionNet: Joint Perception and Motion Prediction for Autonomous Driving
Based on Bird's Eye View Maps [34.24949016811546]
我々は,3次元点雲からの知覚と運動予測を協調的に行うために,MotionNetと呼ばれる効率的な深層モデルを提案する。
MotionNetは一連のスイープを入力として、各グリッドセルのオブジェクトカテゴリとモーション情報をエンコードする鳥の目視マップ(BEV)を出力する。
論文 参考訳(メタデータ) (2020-03-15T04:37:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。