論文の概要: Self-Guided Action Diffusion
- arxiv url: http://arxiv.org/abs/2508.12189v1
- Date: Sun, 17 Aug 2025 00:39:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.608873
- Title: Self-Guided Action Diffusion
- Title(参考訳): 自己ガイド型アクション拡散
- Authors: Rhea Malhotra, Yuejiang Liu, Chelsea Finn,
- Abstract要約: 自己誘導的行動拡散は、拡散に基づくポリシーに適した双方向デコーディングのより効率的な変種である。
本手法は,従来の動的タスクよりも最大70%高い成功率を達成する。
- 参考スコア(独自算出の注目度): 53.38661283705301
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent works have shown the promise of inference-time search over action samples for improving generative robot policies. In particular, optimizing cross-chunk coherence via bidirectional decoding has proven effective in boosting the consistency and reactivity of diffusion policies. However, this approach remains computationally expensive as the diversity of sampled actions grows. In this paper, we introduce self-guided action diffusion, a more efficient variant of bidirectional decoding tailored for diffusion-based policies. At the core of our method is to guide the proposal distribution at each diffusion step based on the prior decision. Experiments in simulation tasks show that the proposed self-guidance enables near-optimal performance at negligible inference cost. Notably, under a tight sampling budget, our method achieves up to 70% higher success rates than existing counterparts on challenging dynamic tasks. See project website at https://rhea-mal.github.io/selfgad.github.io.
- Abstract(参考訳): 近年の研究では、生成ロボットポリシーを改善するための行動サンプルの推測時間探索が期待されている。
特に、双方向デコーディングによるクロスチャンクのコヒーレンスを最適化することは、拡散政策の一貫性と反応性を高めるのに有効であることが証明された。
しかし、サンプルアクションの多様性が増大するにつれて、このアプローチは計算に費用がかかる。
本稿では、拡散に基づくポリシーに適した双方向デコーディングのより効率的な変種である自己誘導型行動拡散を導入する。
提案手法の核心は,事前決定に基づいて,各拡散段階における提案分布を導出することである。
シミュレーションタスクの実験では,提案した自己誘導により,無視可能な推論コストでほぼ最適性能が得られることが示された。
特に,厳密なサンプリング予算の下では,既存の動的タスクよりも最大70%高い成功率が得られる。
プロジェクトのWebサイトはhttps://rhea-mal.github.io/selfgad.github.ioを参照してください。
関連論文リスト
- Bidirectional Decoding: Improving Action Chunking via Guided Test-Time Sampling [51.38330727868982]
動作チャンキングが学習者と実証者の間の分岐にどのように影響するかを示す。
動作チャンキングをクローズドループ適応でブリッジするテスト時間推論アルゴリズムである双方向デコーディング(BID)を提案する。
提案手法は、7つのシミュレーションベンチマークと2つの実世界のタスクにまたがって、最先端の2つの生成ポリシーの性能を向上させる。
論文 参考訳(メタデータ) (2024-08-30T15:39:34Z) - Optimizing Diffusion Models for Joint Trajectory Prediction and Controllable Generation [49.49868273653921]
拡散モデルは、自律運転における共同軌道予測と制御可能な生成を約束する。
最適ガウス拡散(OGD)と推定クリーンマニフォールド(ECM)誘導を導入する。
提案手法は生成過程の合理化を図り,計算オーバーヘッドを低減した実用的な応用を実現する。
論文 参考訳(メタデータ) (2024-08-01T17:59:59Z) - Diffusion-DICE: In-Sample Diffusion Guidance for Offline Reinforcement Learning [43.74071631716718]
DICEに基づく手法は,行動分布から最適な政策分布への変換とみなすことができる。
本稿では拡散モデルを用いて直接この変換を行う新しい手法Diffusion-DICEを提案する。
論文 参考訳(メタデータ) (2024-07-29T15:36:42Z) - Score Regularized Policy Optimization through Diffusion Behavior [25.926641622408752]
オフライン強化学習の最近の進歩は拡散モデリングの潜在可能性を明らかにしている。
本稿では,批判モデルと事前学習した拡散行動モデルから,効率的な決定論的推論ポリシーを抽出することを提案する。
本手法は,移動作業における各種拡散法と比較して,動作サンプリング速度を25倍以上に向上させる。
論文 参考訳(メタデータ) (2023-10-11T08:31:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。