論文の概要: Robust Learning of Diffusion Models with Extremely Noisy Conditions
- arxiv url: http://arxiv.org/abs/2510.10149v1
- Date: Sat, 11 Oct 2025 10:16:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.811043
- Title: Robust Learning of Diffusion Models with Extremely Noisy Conditions
- Title(参考訳): 極雑音条件下における拡散モデルのロバスト学習
- Authors: Xin Chen, Gillian Dobbie, Xinyu Wang, Feng Liu, Di Wang, Jingfeng Zhang,
- Abstract要約: 条件拡散モデルは外部条件を取り入れることで生成的制御性を持つ。
本稿では,条件付き拡散モデルにおいて,非常にノイズの多い条件に対処する頑健な学習フレームワークを提案する。
提案手法は,クラス条件画像生成タスクとビズモータポリシー生成タスクの両方において,様々なノイズレベルにまたがる最先端性能を実現する。
- 参考スコア(独自算出の注目度): 28.519168402002293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conditional diffusion models have the generative controllability by incorporating external conditions. However, their performance significantly degrades with noisy conditions, such as corrupted labels in the image generation or unreliable observations or states in the control policy generation. This paper introduces a robust learning framework to address extremely noisy conditions in conditional diffusion models. We empirically demonstrate that existing noise-robust methods fail when the noise level is high. To overcome this, we propose learning pseudo conditions as surrogates for clean conditions and refining pseudo ones progressively via the technique of temporal ensembling. Additionally, we develop a Reverse-time Diffusion Condition (RDC) technique, which diffuses pseudo conditions to reinforce the memorization effect and further facilitate the refinement of the pseudo conditions. Experimentally, our approach achieves state-of-the-art performance across a range of noise levels on both class-conditional image generation and visuomotor policy generation tasks.The code can be accessible via the project page https://robustdiffusionpolicy.github.io
- Abstract(参考訳): 条件拡散モデルは外部条件を取り入れることで生成的制御性を持つ。
しかし、その性能は画像生成における劣化ラベルや制御ポリシ生成における信頼性の低い観測、状態など、ノイズの多い条件で著しく劣化する。
本稿では,条件付き拡散モデルにおいて,非常にノイズの多い条件に対処する頑健な学習フレームワークを提案する。
本研究では,ノイズレベルが高い場合に既存のノイズ破砕法が故障することを実証的に示す。
そこで本稿では, 擬似条件をクリーンな条件の代理として学習し, 時間的アンサンブルの手法を用いて段階的に擬似条件を精製する手法を提案する。
さらに,擬似条件を拡散させて記憶効果を増強し,擬似条件の洗練を促進させる逆時間拡散条件(RDC)技術を開発した。
提案手法は,クラス条件画像生成タスクとビジュモータポリシー生成タスクの両方において,さまざまなノイズレベルの最先端性能を実現し,プロジェクトページ https://robustdiffusionpolicy.github.io からアクセス可能である。
関連論文リスト
- Unconditional Priors Matter! Improving Conditional Generation of Fine-Tuned Diffusion Models [10.542645300983878]
CFGの非条件雑音をベースモデルで予測したノイズに置き換えることで条件生成を大幅に改善できることを示す。
我々は,画像生成と映像生成の両面において,CFGに基づく条件付きモデルを用いて,我々の主張を実験的に検証した。
論文 参考訳(メタデータ) (2025-03-26T05:11:38Z) - Steered Diffusion: A Generalized Framework for Plug-and-Play Conditional
Image Synthesis [62.07413805483241]
Steered Diffusionは、無条件生成のために訓練された拡散モデルを用いたゼロショット条件画像生成のためのフレームワークである。
塗装,着色,テキスト誘導セマンティック編集,画像超解像などのタスクに対して,ステアリング拡散を用いた実験を行った。
論文 参考訳(メタデータ) (2023-09-30T02:03:22Z) - Gradpaint: Gradient-Guided Inpainting with Diffusion Models [71.47496445507862]
Denoising Diffusion Probabilistic Models (DDPM) は近年,条件付きおよび非条件付き画像生成において顕著な成果を上げている。
我々はGradPaintを紹介し、グローバルな一貫性のあるイメージに向けて世代を操る。
我々は、様々なデータセットで訓練された拡散モデルによく適応し、現在最先端の教師付きおよび教師なしの手法を改善している。
論文 参考訳(メタデータ) (2023-09-18T09:36:24Z) - Instructed Diffuser with Temporal Condition Guidance for Offline
Reinforcement Learning [71.24316734338501]
テンポラリ・コンポラブル・ディフューザ(TCD)を用いた実効時間条件拡散モデルを提案する。
TCDは、相互作用シーケンスから時間情報を抽出し、時間条件で生成を明示的にガイドする。
提案手法は,従来のSOTAベースラインと比較して最高の性能を達成または一致させる。
論文 参考訳(メタデータ) (2023-06-08T02:12:26Z) - Conditional Generation from Unconditional Diffusion Models using
Denoiser Representations [94.04631421741986]
本稿では,学習したデノイザネットワークの内部表現を用いて,事前学習した非条件拡散モデルを新しい条件に適用することを提案する。
提案手法により生成した合成画像を用いたTiny ImageNetトレーニングセットの強化により,ResNetベースラインの分類精度が最大8%向上することを示す。
論文 参考訳(メタデータ) (2023-06-02T20:09:57Z) - ShiftDDPMs: Exploring Conditional Diffusion Models by Shifting Diffusion
Trajectories [144.03939123870416]
本稿では,前処理に条件を導入することで,新しい条件拡散モデルを提案する。
いくつかのシフト規則に基づいて各条件に対して排他的拡散軌跡を割り当てるために、余剰潜在空間を用いる。
我々は textbfShiftDDPMs と呼ぶメソッドを定式化し、既存のメソッドの統一的な視点を提供する。
論文 参考訳(メタデータ) (2023-02-05T12:48:21Z) - On Conditioning the Input Noise for Controlled Image Generation with
Diffusion Models [27.472482893004862]
条件付き画像生成は、画像編集、ストック写真の生成、および3Dオブジェクト生成におけるいくつかのブレークスルーの道を開いた。
本研究では,入出力ノイズアーチファクトを慎重に構築した条件拡散モデルを提案する。
論文 参考訳(メタデータ) (2022-05-08T13:18:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。