論文の概要: FRMD: Fast Robot Motion Diffusion with Consistency-Distilled Movement Primitives for Smooth Action Generation
- arxiv url: http://arxiv.org/abs/2503.02048v1
- Date: Mon, 03 Mar 2025 20:56:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:15:54.996405
- Title: FRMD: Fast Robot Motion Diffusion with Consistency-Distilled Movement Primitives for Smooth Action Generation
- Title(参考訳): FRMD:スムース動作生成のための連続型運動プリミティブを用いた高速ロボット運動拡散
- Authors: Xirui Shi, Jun Jin,
- Abstract要約: 本研究では,スムーズかつ時間的に一貫したロボットの動きを生成するための高速ロボット運動拡散法を提案する。
本手法は,移動プリミティブ(MP)と一貫性モデルを統合し,効率的な単一ステップ軌道生成を実現する。
その結果,FRMDはより高速でスムーズな軌道を発生し,高い成功率を達成できた。
- 参考スコア(独自算出の注目度): 3.7351623987275873
- License:
- Abstract: We consider the problem of using diffusion models to generate fast, smooth, and temporally consistent robot motions. Although diffusion models have demonstrated superior performance in robot learning due to their task scalability and multi-modal flexibility, they suffer from two fundamental limitations: (1) they often produce non-smooth, jerky motions due to their inability to capture temporally consistent movement dynamics, and (2) their iterative sampling process incurs prohibitive latency for many robotic tasks. Inspired by classic robot motion generation methods such as DMPs and ProMPs, which capture temporally and spatially consistent dynamic of trajectories using low-dimensional vectors -- and by recent advances in diffusion-based image generation that use consistency models with probability flow ODEs to accelerate the denoising process, we propose Fast Robot Motion Diffusion (FRMD). FRMD uniquely integrates Movement Primitives (MPs) with Consistency Models to enable efficient, single-step trajectory generation. By leveraging probabilistic flow ODEs and consistency distillation, our method models trajectory distributions while learning a compact, time-continuous motion representation within an encoder-decoder architecture. This unified approach eliminates the slow, multi-step denoising process of conventional diffusion models, enabling efficient one-step inference and smooth robot motion generation. We extensively evaluated our FRMD on the well-recognized Meta-World and ManiSkills Benchmarks, ranging from simple to more complex manipulation tasks, comparing its performance against state-of-the-art baselines. Our results show that FRMD generates significantly faster, smoother trajectories while achieving higher success rates.
- Abstract(参考訳): 本研究では,高速で滑らかで時間的に一貫したロボットの動きを生成するために拡散モデルを用いることの問題点を考察する。
拡散モデルは,タスクのスケーラビリティとマルチモーダルな柔軟性により,ロボット学習において優れた性能を示したが,時間的に一貫した運動のダイナミクスを捉えることができないため,非滑らかで不安定な動作がしばしば発生すること,また,反復的なサンプリング処理が多くのロボット作業に不規則な遅延を引き起こすこと,の2つの根本的な制限を被った。
低次元ベクトルを用いた軌道の時間的・空間的一貫したダイナミクスを捉えるDMPやProMPなどの古典的なロボットモーション生成手法に着想を得て,確率フローODEとの整合性モデルを用いた拡散画像生成の進歩により,高速ロボットモーション拡散(FRMD)を提案する。
FRMDは、効率的な単一ステップの軌道生成を可能にするために、運動プリミティブ(MP)と一貫性モデルを統合する。
本手法は,確率論的フローODEと整合蒸留を利用して,エンコーダ・デコーダアーキテクチャ内でのコンパクトかつ連続的な運動表現を学習しながら,軌道分布をモデル化する。
この統一されたアプローチは、従来の拡散モデルの遅いマルチステップデノーミングプロセスを排除し、効率的なワンステップ推論とスムーズなロボットモーション生成を可能にする。
FRMDをよく認識されているMeta-WorldとManiSkills Benchmarksで広範囲に評価し、その性能を最先端のベースラインと比較した。
その結果,FRMDはより高速でスムーズな軌道を発生し,高い成功率を達成できた。
関連論文リスト
- Simultaneous Multi-Robot Motion Planning with Projected Diffusion Models [57.45019514036948]
MRMP拡散(SMD)は、制約付き最適化を拡散サンプリングプロセスに統合し、運動学的に実現可能な軌道を生成する新しい手法である。
本稿では, ロボット密度, 障害物の複雑度, 動作制約の異なるシナリオ間の軌道計画アルゴリズムを評価するための総合的MRMPベンチマークを提案する。
論文 参考訳(メタデータ) (2025-02-05T20:51:28Z) - FAST: Efficient Action Tokenization for Vision-Language-Action Models [98.15494168962563]
離散コサイン変換に基づくロボット動作のための圧縮に基づく新しいトークン化手法を提案する。
FASTをベースとしたFAST+は,100万個のリアルロボットアクショントラジェクトリに基づいて訓練されたユニバーサルロボットアクショントークンである。
論文 参考訳(メタデータ) (2025-01-16T18:57:04Z) - RobotDiffuse: Motion Planning for Redundant Manipulator based on Diffusion Model [13.110235244912474]
冗長マニピュレータは、キネマティック性能と汎用性の向上を提供する。
これらのマニピュレータの動作計画は、DOFの増加と複雑な動的環境のために困難である。
本稿では,冗長マニピュレータにおける運動計画のための拡散モデルに基づくロボットディフューズを提案する。
論文 参考訳(メタデータ) (2024-12-27T07:34:54Z) - ManiCM: Real-time 3D Diffusion Policy via Consistency Model for Robotic Manipulation [16.272352213590313]
拡散モデルは自然画像から運動軌道への複雑な分布を生成するのに有効であることが確認されている。
近年の手法では3次元ロボット操作作業において顕著な性能を示すが、複数のデノナイジングステップにより実行時の非効率が悪化している。
拡散過程に一貫性の制約を課すリアルタイムロボット操作モデルManiCMを提案する。
論文 参考訳(メタデータ) (2024-06-03T17:59:23Z) - Motion Flow Matching for Human Motion Synthesis and Editing [75.13665467944314]
本研究では,効率的なサンプリングと効率性を備えた人体運動生成のための新しい生成モデルであるemphMotion Flow Matchingを提案する。
提案手法は, 従来の拡散モデルにおいて, サンプリングの複雑さを1000ステップから10ステップに減らし, テキスト・ツー・モーション・ジェネレーション・ベンチマークやアクション・ツー・モーション・ジェネレーション・ベンチマークで同等の性能を実現する。
論文 参考訳(メタデータ) (2023-12-14T12:57:35Z) - EMDM: Efficient Motion Diffusion Model for Fast and High-Quality Motion Generation [57.539634387672656]
現在の最先端生成拡散モデルでは、優れた結果が得られたが、品質を犠牲にすることなく、高速な生成に苦慮している。
高速かつ高品質な人体運動生成のための効率的な運動拡散モデル(EMDM)を提案する。
論文 参考訳(メタデータ) (2023-12-04T18:58:38Z) - Interactive Character Control with Auto-Regressive Motion Diffusion Models [18.727066177880708]
リアルタイム動作合成のためのA-MDM(Auto-Regressive Motion Diffusion Model)を提案する。
我々の条件拡散モデルは初期ポーズを入力とし、前者のフレームに条件付けられた連続した動きフレームを自動回帰的に生成する。
本稿では,タスク指向サンプリング,インペインティング,階層的強化学習など,対話型制御をA-MDMに組み込む一連の手法を紹介する。
論文 参考訳(メタデータ) (2023-06-01T07:48:34Z) - Diffusion Glancing Transformer for Parallel Sequence to Sequence
Learning [52.72369034247396]
モーダリティ拡散プロセスと残差グランシングサンプリングを併用した拡散グランシング変換器を提案する。
DIFFGLATは、自己回帰モデルと非自己回帰モデルの両方と比較して、高速な復号速度を維持しながら、より優れた生成精度を実現する。
論文 参考訳(メタデータ) (2022-12-20T13:36:25Z) - Executing your Commands via Motion Diffusion in Latent Space [51.64652463205012]
本研究では,動作遅延に基づく拡散モデル(MLD)を提案し,条件付き入力に対応する鮮明な動き列を生成する。
我々のMDDは、広範囲な人体運動生成タスクにおいて、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-12-08T03:07:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。