論文の概要: Controllable Motion Generation via Diffusion Modal Coupling
- arxiv url: http://arxiv.org/abs/2503.02353v1
- Date: Tue, 04 Mar 2025 07:22:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:14:02.237035
- Title: Controllable Motion Generation via Diffusion Modal Coupling
- Title(参考訳): 拡散モード結合による制御可能な運動生成
- Authors: Luobin Wang, Hongzhan Yu, Chenning Yu, Sicun Gao, Henrik Christensen,
- Abstract要約: マルチモーダルな事前分布を利用して拡散モデルの制御性を向上する新しいフレームワークを提案する。
Maze2D環境におけるデータセットとマルチタスク制御を用いた動作予測手法の評価を行った。
- 参考スコア(独自算出の注目度): 14.004287903552534
- License:
- Abstract: Diffusion models have recently gained significant attention in robotics due to their ability to generate multi-modal distributions of system states and behaviors. However, a key challenge remains: ensuring precise control over the generated outcomes without compromising realism. This is crucial for applications such as motion planning or trajectory forecasting, where adherence to physical constraints and task-specific objectives is essential. We propose a novel framework that enhances controllability in diffusion models by leveraging multi-modal prior distributions and enforcing strong modal coupling. This allows us to initiate the denoising process directly from distinct prior modes that correspond to different possible system behaviors, ensuring sampling to align with the training distribution. We evaluate our approach on motion prediction using the Waymo dataset and multi-task control in Maze2D environments. Experimental results show that our framework outperforms both guidance-based techniques and conditioned models with unimodal priors, achieving superior fidelity, diversity, and controllability, even in the absence of explicit conditioning. Overall, our approach provides a more reliable and scalable solution for controllable motion generation in robotics.
- Abstract(参考訳): 拡散モデルは最近、システム状態と挙動のマルチモーダル分布を生成する能力により、ロボット工学において大きな注目を集めている。
しかし、重要な課題は、現実主義を損なうことなく、生成された結果の正確な制御を確保することである。
これは、物理的な制約やタスク固有の目的に固執することが不可欠である、運動計画や軌道予測のような応用に不可欠である。
本稿では,マルチモーダル事前分布を活用し,強いモーダル結合を強制することにより,拡散モデルの制御可能性を高める新しいフレームワークを提案する。
これにより、異なるシステム動作に対応する異なる事前モードから、denoisingプロセスを直接起動し、トレーニング分布に合わせてサンプリングを確実にすることが可能になります。
Maze2D環境におけるWaymoデータセットとマルチタスク制御を用いた動作予測手法の評価を行った。
実験結果から, 明示的条件付けがなくても, 本フレームワークは指導に基づく手法と条件付きモデルの両方より優れ, 忠実度, 多様性, 制御性に優れていたことが示唆された。
全体として、ロボット工学における制御可能なモーション生成に対して、より信頼性が高くスケーラブルなソリューションを提供する。
関連論文リスト
- End-to-End Predictive Planner for Autonomous Driving with Consistency Models [5.966385886363771]
軌道予測と計画は、自動運転車が動的環境において安全かつ効率的に航行するための基本的な要素である。
伝統的に、これらのコンポーネントは、しばしば別々のモジュールとして扱われ、インタラクティブな計画を実行する能力を制限する。
単一の一貫性モデルで予測と計画を統合する,統一的でデータ駆動のフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-12T00:26:01Z) - Stochastic Control for Fine-tuning Diffusion Models: Optimality, Regularity, and Convergence [11.400431211239958]
拡散モデルは生成モデリングの強力なツールとして登場してきた。
微調整拡散モデルのための制御フレームワークを提案する。
PI-FTは線形速度で大域収束することを示す。
論文 参考訳(メタデータ) (2024-12-24T04:55:46Z) - Diffusion Predictive Control with Constraints [51.91057765703533]
制約付き拡散予測制御(DPCC)
トレーニングデータから逸脱可能な、明示的な状態と行動制約を持つ拡散制御アルゴリズム。
DPCCは,学習した制御タスクの性能を維持しつつ,新しいテスト時間制約を満たす上で,既存の手法よりも優れるロボットマニピュレータのシミュレーションを通して示す。
論文 参考訳(メタデータ) (2024-12-12T15:10:22Z) - Learning Diffusion Policies from Demonstrations For Compliant Contact-rich Manipulation [5.1245307851495]
本稿では,DIPCOM(Diffusion Policies for Compliant Manipulation)を提案する。
生成拡散モデルを活用することで、カルト効果のポーズを予測し、腕の硬さを調整し、必要な力を維持できる政策を開発する。
提案手法は,マルチモーダル分布モデリングによる力制御を強化し,コンプライアンス制御における拡散ポリシの統合を改善し,実世界のタスクにおいてその効果を示すことによって,これまでの作業を拡張する。
論文 参考訳(メタデータ) (2024-10-25T00:56:15Z) - Diffusion-Based Environment-Aware Trajectory Prediction [3.1406146587437904]
自動運転車の安全かつ効率的な運転には、交通参加者の将来の軌跡を予測する能力が不可欠である。
本稿では,多エージェント軌道予測のための拡散モデルを提案する。
このモデルは、交通参加者と環境の間の複雑な相互作用を捉え、データのマルチモーダルな性質を正確に学習することができる。
論文 参考訳(メタデータ) (2024-03-18T10:35:15Z) - Exploiting Modality-Specific Features For Multi-Modal Manipulation
Detection And Grounding [54.49214267905562]
マルチモーダルな操作検出とグラウンド処理のためのトランスフォーマーベースのフレームワークを構築する。
本フレームワークは,マルチモーダルアライメントの能力を維持しながら,モダリティ特有の特徴を同時に探求する。
本稿では,グローバルな文脈的キューを各モーダル内に適応的に集約する暗黙的操作クエリ(IMQ)を提案する。
論文 参考訳(メタデータ) (2023-09-22T06:55:41Z) - Collaborative Diffusion for Multi-Modal Face Generation and Editing [34.16906110777047]
本稿では,事前学習した単モーダル拡散モデルと協調して複数モーダル顔の生成と編集を行うコラボレーティブ拡散について述べる。
具体的には、事前学習された各ユニモーダルモデルに対する空間的時間的影響関数を予測することにより、マルチモーダルな認知ステップを適応的に幻覚するメタネットワークである動的ディフューザを提案する。
論文 参考訳(メタデータ) (2023-04-20T17:59:02Z) - Model-Based Reinforcement Learning with Isolated Imaginations [61.67183143982074]
モデルに基づく強化学習手法であるIso-Dream++を提案する。
我々は、切り離された潜在的想像力に基づいて政策最適化を行う。
これにより、野生の混合力学源を孤立させることで、長い水平振動子制御タスクの恩恵を受けることができる。
論文 参考訳(メタデータ) (2023-03-27T02:55:56Z) - Unified Discrete Diffusion for Simultaneous Vision-Language Generation [78.21352271140472]
本稿では,「モダリティ変換」タスクと「マルチモダリティ生成」タスクの両方を実行することができる統一型マルチモーダル生成モデルを提案する。
具体的には,マルチモーダル信号の離散拡散過程を統一遷移行列を用いて統一する。
提案手法は, 様々な生成タスクにおいて, 最先端のソリューションと同等に動作可能である。
論文 参考訳(メタデータ) (2022-11-27T14:46:01Z) - Efficient Empowerment Estimation for Unsupervised Stabilization [75.32013242448151]
エンパワーメント原理は 直立位置での 力学系の教師なし安定化を可能にする
本稿では,ガウスチャネルとして動的システムのトレーニング可能な表現に基づく代替解を提案する。
提案手法は, サンプルの複雑さが低く, 訓練時より安定であり, エンパワーメント機能の本質的特性を有し, 画像からエンパワーメントを推定できることを示す。
論文 参考訳(メタデータ) (2020-07-14T21:10:16Z) - Goal-Conditioned End-to-End Visuomotor Control for Versatile Skill
Primitives [89.34229413345541]
本稿では,制御器とその条件をエンドツーエンドに学習することで,落とし穴を回避する条件付け手法を提案する。
本モデルでは,ロボットの動きのダイナミックな画像表現に基づいて,複雑な動作シーケンスを予測する。
代表的MPCおよびILベースラインに対するタスク成功の大幅な改善を報告した。
論文 参考訳(メタデータ) (2020-03-19T15:04:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。