論文の概要: Robust Learning of Diffusion Models with Extremely Noisy Conditions
- arxiv url: http://arxiv.org/abs/2510.10149v1
- Date: Sat, 11 Oct 2025 10:16:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.811043
- Title: Robust Learning of Diffusion Models with Extremely Noisy Conditions
- Title(参考訳): 極雑音条件下における拡散モデルのロバスト学習
- Authors: Xin Chen, Gillian Dobbie, Xinyu Wang, Feng Liu, Di Wang, Jingfeng Zhang,
- Abstract要約: 条件拡散モデルは外部条件を取り入れることで生成的制御性を持つ。
本稿では,条件付き拡散モデルにおいて,非常にノイズの多い条件に対処する頑健な学習フレームワークを提案する。
提案手法は,クラス条件画像生成タスクとビズモータポリシー生成タスクの両方において,様々なノイズレベルにまたがる最先端性能を実現する。
- 参考スコア(独自算出の注目度): 28.519168402002293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conditional diffusion models have the generative controllability by incorporating external conditions. However, their performance significantly degrades with noisy conditions, such as corrupted labels in the image generation or unreliable observations or states in the control policy generation. This paper introduces a robust learning framework to address extremely noisy conditions in conditional diffusion models. We empirically demonstrate that existing noise-robust methods fail when the noise level is high. To overcome this, we propose learning pseudo conditions as surrogates for clean conditions and refining pseudo ones progressively via the technique of temporal ensembling. Additionally, we develop a Reverse-time Diffusion Condition (RDC) technique, which diffuses pseudo conditions to reinforce the memorization effect and further facilitate the refinement of the pseudo conditions. Experimentally, our approach achieves state-of-the-art performance across a range of noise levels on both class-conditional image generation and visuomotor policy generation tasks.The code can be accessible via the project page https://robustdiffusionpolicy.github.io
- Abstract(参考訳): 条件拡散モデルは外部条件を取り入れることで生成的制御性を持つ。
しかし、その性能は画像生成における劣化ラベルや制御ポリシ生成における信頼性の低い観測、状態など、ノイズの多い条件で著しく劣化する。
本稿では,条件付き拡散モデルにおいて,非常にノイズの多い条件に対処する頑健な学習フレームワークを提案する。
本研究では,ノイズレベルが高い場合に既存のノイズ破砕法が故障することを実証的に示す。
そこで本稿では, 擬似条件をクリーンな条件の代理として学習し, 時間的アンサンブルの手法を用いて段階的に擬似条件を精製する手法を提案する。
さらに,擬似条件を拡散させて記憶効果を増強し,擬似条件の洗練を促進させる逆時間拡散条件(RDC)技術を開発した。
提案手法は,クラス条件画像生成タスクとビジュモータポリシー生成タスクの両方において,さまざまなノイズレベルの最先端性能を実現し,プロジェクトページ https://robustdiffusionpolicy.github.io からアクセス可能である。
関連論文リスト
- Condition Errors Refinement in Autoregressive Image Generation with Diffusion Loss [56.120591983649824]
本稿では拡散損失を伴う拡散・自己回帰モデルの理論解析について述べる。
自動回帰モデルにおけるパッチデノゲーション最適化は、条件誤差を効果的に軽減し、安定した条件分布をもたらすことを示す。
「条件不整合に対処するための最適輸送(OT)理論に基づく新しい条件改善手法を導入する。」
論文 参考訳(メタデータ) (2026-02-02T07:48:04Z) - Mitigating the Noise Shift for Denoising Generative Models via Noise Awareness Guidance [54.88271057438763]
ノイズアウェアネスガイダンス (NAG) は、事前に定義された騒音スケジュールと整合性を保つために、サンプリング軌道を明示的に制御する補正手法である。
NAGは一貫してノイズシフトを緩和し、主流拡散モデルの生成品質を大幅に改善する。
論文 参考訳(メタデータ) (2025-10-14T13:31:34Z) - Unconditional Priors Matter! Improving Conditional Generation of Fine-Tuned Diffusion Models [10.542645300983878]
CFGの非条件雑音をベースモデルで予測したノイズに置き換えることで条件生成を大幅に改善できることを示す。
我々は,画像生成と映像生成の両面において,CFGに基づく条件付きモデルを用いて,我々の主張を実験的に検証した。
論文 参考訳(メタデータ) (2025-03-26T05:11:38Z) - Steered Diffusion: A Generalized Framework for Plug-and-Play Conditional
Image Synthesis [62.07413805483241]
Steered Diffusionは、無条件生成のために訓練された拡散モデルを用いたゼロショット条件画像生成のためのフレームワークである。
塗装,着色,テキスト誘導セマンティック編集,画像超解像などのタスクに対して,ステアリング拡散を用いた実験を行った。
論文 参考訳(メタデータ) (2023-09-30T02:03:22Z) - Gradpaint: Gradient-Guided Inpainting with Diffusion Models [71.47496445507862]
Denoising Diffusion Probabilistic Models (DDPM) は近年,条件付きおよび非条件付き画像生成において顕著な成果を上げている。
我々はGradPaintを紹介し、グローバルな一貫性のあるイメージに向けて世代を操る。
我々は、様々なデータセットで訓練された拡散モデルによく適応し、現在最先端の教師付きおよび教師なしの手法を改善している。
論文 参考訳(メタデータ) (2023-09-18T09:36:24Z) - Instructed Diffuser with Temporal Condition Guidance for Offline
Reinforcement Learning [71.24316734338501]
テンポラリ・コンポラブル・ディフューザ(TCD)を用いた実効時間条件拡散モデルを提案する。
TCDは、相互作用シーケンスから時間情報を抽出し、時間条件で生成を明示的にガイドする。
提案手法は,従来のSOTAベースラインと比較して最高の性能を達成または一致させる。
論文 参考訳(メタデータ) (2023-06-08T02:12:26Z) - Conditional Generation from Unconditional Diffusion Models using
Denoiser Representations [94.04631421741986]
本稿では,学習したデノイザネットワークの内部表現を用いて,事前学習した非条件拡散モデルを新しい条件に適用することを提案する。
提案手法により生成した合成画像を用いたTiny ImageNetトレーニングセットの強化により,ResNetベースラインの分類精度が最大8%向上することを示す。
論文 参考訳(メタデータ) (2023-06-02T20:09:57Z) - ShiftDDPMs: Exploring Conditional Diffusion Models by Shifting Diffusion
Trajectories [144.03939123870416]
本稿では,前処理に条件を導入することで,新しい条件拡散モデルを提案する。
いくつかのシフト規則に基づいて各条件に対して排他的拡散軌跡を割り当てるために、余剰潜在空間を用いる。
我々は textbfShiftDDPMs と呼ぶメソッドを定式化し、既存のメソッドの統一的な視点を提供する。
論文 参考訳(メタデータ) (2023-02-05T12:48:21Z) - On Conditioning the Input Noise for Controlled Image Generation with
Diffusion Models [27.472482893004862]
条件付き画像生成は、画像編集、ストック写真の生成、および3Dオブジェクト生成におけるいくつかのブレークスルーの道を開いた。
本研究では,入出力ノイズアーチファクトを慎重に構築した条件拡散モデルを提案する。
論文 参考訳(メタデータ) (2022-05-08T13:18:14Z) - Behavior of Keyword Spotting Networks Under Noisy Conditions [1.5425424751424208]
キーワードスポッティング(KWS)は、人工知能とスマートデバイスの発展とともに、ユビキタスなニーズになりつつある。
この分野での最近の研究は、低音から中音のデータセットに対して良い結果を得るために、いくつかの異なるアーキテクチャに焦点を当てている。
本稿では,様々な雑音条件下での最先端KWSネットワークの比較について述べる。
論文 参考訳(メタデータ) (2021-09-15T10:02:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。