論文の概要: Retrieve-Augmented Generation for Speeding up Diffusion Policy without Additional Training
- arxiv url: http://arxiv.org/abs/2507.21452v1
- Date: Tue, 29 Jul 2025 02:43:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:55.560631
- Title: Retrieve-Augmented Generation for Speeding up Diffusion Policy without Additional Training
- Title(参考訳): 予備訓練を伴わない拡散政策の高速化のための検索強化生成
- Authors: Sodtavilan Odonchimed, Tatsuya Matsushima, Simon Holk, Yusuke Iwasawa, Yutaka Matsuo,
- Abstract要約: 拡散政策(DP)は,様々な模倣学習タスクにおいて,大幅な精度向上を実現する能力に注目されている。
DPは拡散モデルに依存しており、1つのアクションを生成するために複数のノイズ除去ステップを必要とするため、長い時間が発生する。
本稿では,事前学習されたDPの推測を高速化するために,知識ベースを用いた追加トレーニングを不要とする新しいフレームワークとして,RAGDPを提案する。
- 参考スコア(独自算出の注目度): 25.184915903566104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion Policies (DPs) have attracted attention for their ability to achieve significant accuracy improvements in various imitation learning tasks. However, DPs depend on Diffusion Models, which require multiple noise removal steps to generate a single action, resulting in long generation times. To solve this problem, knowledge distillation-based methods such as Consistency Policy (CP) have been proposed. However, these methods require a significant amount of training time, especially for difficult tasks. In this study, we propose RAGDP (Retrieve-Augmented Generation for Diffusion Policies) as a novel framework that eliminates the need for additional training using a knowledge base to expedite the inference of pre-trained DPs. In concrete, RAGDP encodes observation-action pairs through the DP encoder to construct a vector database of expert demonstrations. During inference, the current observation is embedded, and the most similar expert action is extracted. This extracted action is combined with an intermediate noise removal step to reduce the number of steps required compared to the original diffusion step. We show that by using RAGDP with the base model and existing acceleration methods, we improve the accuracy and speed trade-off with no additional training. Even when accelerating the models 20 times, RAGDP maintains an advantage in accuracy, with a 7% increase over distillation models such as CP.
- Abstract(参考訳): 拡散政策(DP)は,様々な模倣学習タスクにおいて,大幅な精度向上を実現する能力に注目されている。
しかし、DPは拡散モデルに依存しており、1つのアクションを生成するために複数のノイズ除去ステップを必要とするため、長い時間が発生する。
この問題を解決するために, CP (Consistency Policy) などの知識蒸留方式が提案されている。
しかし、これらの手法は、特に困難なタスクにおいて、かなりの量のトレーニング時間を必要とする。
本研究では,事前学習されたDPの推測を迅速化する知識ベースを用いた追加トレーニングを不要とする新しいフレームワークとして,RAGDPを提案する。
具体的には、RAGDPはDPエンコーダを介して観測対を符号化し、専門家によるデモンストレーションのベクトルデータベースを構築する。
推測中は、現在の観測が組み込まれ、最もよく似た専門家の行動が抽出される。
この抽出された動作は、中間ノイズ除去ステップと組み合わせて、元の拡散ステップと比較して必要なステップ数を削減する。
RAGDPをベースモデルと既存の加速度法と組み合わせることで、追加のトレーニングを伴わずに精度と速度のトレードオフを改善することができることを示す。
モデルが20倍に加速しても、RAGDPは精度の優位性を維持し、CPなどの蒸留モデルよりも7%向上する。
関連論文リスト
- Partial Forward Blocking: A Novel Data Pruning Paradigm for Lossless Training Acceleration [32.21701911161334]
既存のデータプルーニングアプローチは、これらの重要でないサンプルを取り除き、トレーニングを加速することを目的としている。
本稿では、ロスレストレーニングアクセラレーションのための新しいフレームワークであるPartial Forward Blocking (PFB)を提案する。
PFBは,プルーニング試料の深層フォワードパスとバックプロパゲーションの計算オーバーヘッドを著しく低減する。
ImageNetでは、PFBは0.5%の精度向上と33%のトレーニング時間短縮を実現し、40%のデータをプルーニングした。
論文 参考訳(メタデータ) (2025-06-30T09:53:26Z) - Improved Diffusion-based Generative Model with Better Adversarial Robustness [65.38540020916432]
拡散確率モデル(DPM)は、生成タスクにおいて大きな成功を収めた。
デノナイジングプロセスでは、入力データ分布はトレーニングと推論の段階によって異なる。
論文 参考訳(メタデータ) (2025-02-24T12:29:16Z) - RAPID: Retrieval Augmented Training of Differentially Private Diffusion Models [26.66607257183987]
RAPID: Retrieval Augmented PrIvate Diffusion modelを提案する。
DPDMトレーニングに検索拡張生成を統合する新しいアプローチである。
これは、生成的品質、メモリフットプリント、推論コストにおいて、最先端のアプローチよりも大幅に優れています。
論文 参考訳(メタデータ) (2025-02-18T11:56:51Z) - Diffusion Policies creating a Trust Region for Offline Reinforcement Learning [66.17291150498276]
本稿では,拡散信頼型Q-Learning (DTQL) という2つの政策アプローチを導入する。
DTQLは、トレーニングと推論の両方において反復的なデノレーションサンプリングの必要性を排除し、計算的に極めて効率的である。
DTQLは、D4RLベンチマークタスクの大部分において、他のメソッドよりも優れているだけでなく、トレーニングや推論速度の効率性も示すことができる。
論文 参考訳(メタデータ) (2024-05-30T05:04:33Z) - Structural Pruning for Diffusion Models [65.02607075556742]
Diff-Pruningは、既存のものから軽量拡散モデルの学習に適した効率的な圧縮手法である。
複数のデータセットにまたがって実施した経験的評価は,提案手法の2つの利点を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-05-18T12:38:21Z) - Training Discrete Deep Generative Models via Gapped Straight-Through
Estimator [72.71398034617607]
再サンプリングのオーバーヘッドを伴わずに分散を低減するため, GST (Gapped Straight-Through) 推定器を提案する。
この推定子は、Straight-Through Gumbel-Softmaxの本質的な性質に着想を得たものである。
実験により,提案したGST推定器は,2つの離散的な深部生成モデリングタスクの強いベースラインと比較して,優れた性能を享受できることが示された。
論文 参考訳(メタデータ) (2022-06-15T01:46:05Z) - Towards Rapid and Robust Adversarial Training with One-Step Attacks [0.0]
敵の訓練は、敵の攻撃に対するニューラルネットワークの堅牢性を高める最も成功した方法である。
本稿では,計算コストの低いFast Gradient Sign Methodを用いて,敵対的学習を可能にする2つのアイデアを提案する。
FGSMをベースとした対向訓練と併用したノイズ注入は、PGDによる対向訓練に匹敵する結果が得られ、より高速であることを示す。
論文 参考訳(メタデータ) (2020-02-24T07:28:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。