論文の概要: Habitizing Diffusion Planning for Efficient and Effective Decision Making
- arxiv url: http://arxiv.org/abs/2502.06401v1
- Date: Mon, 10 Feb 2025 12:40:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:30:30.528547
- Title: Habitizing Diffusion Planning for Efficient and Effective Decision Making
- Title(参考訳): 効率的かつ効果的な意思決定のためのハビライズ拡散計画
- Authors: Haofei Lu, Yifei Shen, Dongsheng Li, Junliang Xing, Dongqi Han,
- Abstract要約: 強力だが遅い拡散計画モデルを高速な意思決定モデルに変換するフレームワークであるHabiを紹介します。
ラップトップのCPUを使っても、習慣化されたモデルは平均800Hz以上の意思決定周波数を達成できる。
- 参考スコア(独自算出の注目度): 41.128266491447334
- License:
- Abstract: Diffusion models have shown great promise in decision-making, also known as diffusion planning. However, the slow inference speeds limit their potential for broader real-world applications. Here, we introduce Habi, a general framework that transforms powerful but slow diffusion planning models into fast decision-making models, which mimics the cognitive process in the brain that costly goal-directed behavior gradually transitions to efficient habitual behavior with repetitive practice. Even using a laptop CPU, the habitized model can achieve an average 800+ Hz decision-making frequency (faster than previous diffusion planners by orders of magnitude) on standard offline reinforcement learning benchmarks D4RL, while maintaining comparable or even higher performance compared to its corresponding diffusion planner. Our work proposes a fresh perspective of leveraging powerful diffusion models for real-world decision-making tasks. We also provide robust evaluations and analysis, offering insights from both biological and engineering perspectives for efficient and effective decision-making.
- Abstract(参考訳): 拡散モデルは、拡散計画としても知られる意思決定において大きな可能性を示してきた。
しかし、速度の遅い推論速度は、より広い現実世界のアプリケーションに対する可能性を制限する。
本稿では,強大だが遅い拡散計画モデルを高速な意思決定モデルに変換する一般的なフレームワークであるHabiを紹介する。
ラップトップCPUを使用しても、標準のオフライン強化学習ベンチマークD4RL上で平均800Hz以上の決定周波数(以前の拡散プランナよりも桁違いに速い)を達成でき、対応する拡散プランナと比較して同等またはそれ以上の性能を維持することができる。
我々の研究は、現実世界の意思決定タスクに強力な拡散モデルを活用するという新しい視点を提案する。
我々は、生物学的および工学的な視点から、効率的かつ効果的な意思決定の見地から、堅牢な評価と分析も提供します。
関連論文リスト
- Effortless Efficiency: Low-Cost Pruning of Diffusion Models [29.821803522137913]
本稿では,拡散モデルに対するモデルに依存しない構造解析フレームワークを提案する。
最終復号化潜水剤の品質を保った効率的な刈り出しを確保するため, 拡散過程全体にわたる新しいエンドツーエンドの刈り出し目標を設計する。
最新のU-Net拡散モデル SDXL と拡散変換器 (FLUX) による結果から,本手法は性能劣化を最小限に抑え,20%のパラメータを効果的に生成できることを示した。
論文 参考訳(メタデータ) (2024-12-03T21:37:50Z) - Optimizing Diffusion Models for Joint Trajectory Prediction and Controllable Generation [49.49868273653921]
拡散モデルは、自律運転における共同軌道予測と制御可能な生成を約束する。
最適ガウス拡散(OGD)と推定クリーンマニフォールド(ECM)誘導を導入する。
提案手法は生成過程の合理化を図り,計算オーバーヘッドを低減した実用的な応用を実現する。
論文 参考訳(メタデータ) (2024-08-01T17:59:59Z) - Diffusion Models as Optimizers for Efficient Planning in Offline RL [47.0835433289033]
拡散モデルはオフラインの強化学習タスクにおいて強い競争力を示している。
本稿では,より高速な自己回帰モデルを提案する。
これにより、能力を犠牲にすることなく、より効率的な計画を達成することができます。
論文 参考訳(メタデータ) (2024-07-23T03:00:01Z) - Self-Play Fine-Tuning of Diffusion Models for Text-to-Image Generation [59.184980778643464]
ファインチューニング拡散モデル : 生成人工知能(GenAI)の最前線
本稿では,拡散モデル(SPIN-Diffusion)のための自己演奏ファインチューニングという革新的な手法を紹介する。
提案手法は従来の教師付き微調整とRL戦略の代替として,モデル性能とアライメントの両方を大幅に改善する。
論文 参考訳(メタデータ) (2024-02-15T18:59:18Z) - DiffuserLite: Towards Real-time Diffusion Planning [39.93614402208524]
超高速で軽量な拡散計画フレームワークを導入し,計画修正プロセス(PRP)を用いて粗粒度軌道を生成する。
実験により、diffuserLiteは122.2Hzの判定周波数を実現し、D4RL, Robomimic, FinRLベンチマークで最先端の性能を達成した。
さらにdiffuserLiteは、他の拡散計画アルゴリズムの意思決定頻度を高めるための柔軟なプラグインとしても機能する。
論文 参考訳(メタデータ) (2024-01-27T15:30:49Z) - Memory-Efficient Fine-Tuning for Quantized Diffusion Model [12.875837358532422]
本稿では,量子化拡散モデルのためのメモリ効率の良い微調整手法であるTuneQDMを紹介する。
提案手法は, 単目的/多目的の両方の世代において, ベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2024-01-09T03:42:08Z) - Guided Diffusion from Self-Supervised Diffusion Features [49.78673164423208]
ガイダンスは拡散モデルにおいて重要な概念として機能するが、その効果は追加のデータアノテーションや事前学習の必要性によって制限されることが多い。
本稿では,拡散モデルからガイダンスを抽出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T11:19:11Z) - Score Regularized Policy Optimization through Diffusion Behavior [25.926641622408752]
オフライン強化学習の最近の進歩は拡散モデリングの潜在可能性を明らかにしている。
本稿では,批判モデルと事前学習した拡散行動モデルから,効率的な決定論的推論ポリシーを抽出することを提案する。
本手法は,移動作業における各種拡散法と比較して,動作サンプリング速度を25倍以上に向上させる。
論文 参考訳(メタデータ) (2023-10-11T08:31:26Z) - DDTSE: Discriminative Diffusion Model for Target Speech Extraction [62.422291953387955]
ターゲット音声抽出(DDTSE)のための識別拡散モデルを提案する。
拡散モデルと同じ前方プロセスを適用し, 判別法と同様の復元損失を利用する。
モデルトレーニング中に推論過程をエミュレートするための2段階のトレーニング戦略を考案する。
論文 参考訳(メタデータ) (2023-09-25T04:58:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。