論文の概要: Memorization Control in Diffusion Models from Denoising-centric Perspective
- arxiv url: http://arxiv.org/abs/2601.21348v1
- Date: Thu, 29 Jan 2026 07:16:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.641302
- Title: Memorization Control in Diffusion Models from Denoising-centric Perspective
- Title(参考訳): ディノナイジング中心から見た拡散モデルの記憶制御
- Authors: Thuy Phuong Vu, Mai Viet Hoang Do, Minhhuy Le, Dinh-Cuong Hoang, Phan Xuan Tan,
- Abstract要約: 拡散モデルにおける記憶の制御は、トレーニング分布によく適合するために生成されたデータを必要とするアプリケーションにとって重要である。
その結果,信号と雑音の比の差により,一様時間ステップサンプリングが学習に不等な寄与をもたらすことが明らかとなった。
本稿では,学習経路に沿って学習が行われる場所を明示的に制御する時間ステップサンプリング戦略を提案する。
- 参考スコア(独自算出の注目度): 0.6741942263052466
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Controlling memorization in diffusion models is critical for applications that require generated data to closely match the training distribution. Existing approaches mainly focus on data centric or model centric modifications, treating the diffusion model as an isolated predictor. In this paper, we study memorization in diffusion models from a denoising centric perspective. We show that uniform timestep sampling leads to unequal learning contributions across denoising steps due to differences in signal to noise ratio, which biases training toward memorization. To address this, we propose a timestep sampling strategy that explicitly controls where learning occurs along the denoising trajectory. By adjusting the width of the confidence interval, our method provides direct control over the memorization generalization trade off. Experiments on image and 1D signal generation tasks demonstrate that shifting learning emphasis toward later denoising steps consistently reduces memorization and improves distributional alignment with training data, validating the generality and effectiveness of our approach.
- Abstract(参考訳): 拡散モデルにおける記憶の制御は、トレーニング分布によく適合するために生成されたデータを必要とするアプリケーションにとって重要である。
既存のアプローチは主にデータ中心またはモデル中心の修正に焦点を当て、拡散モデルを独立した予測子として扱う。
本稿では,拡散モデルにおける暗記を認知中心の視点から検討する。
均一な時間ステップサンプリングは,信号と雑音の比の差による学習の寄与が不等化し,記憶へのトレーニングに偏りがあることが示される。
そこで本研究では,学習経路に沿って学習が行われる場所を明示的に制御する時間ステップサンプリング戦略を提案する。
信頼区間の幅を調整することにより、記憶一般化トレードオフを直接制御する。
画像および1D信号生成タスクの実験により、後段の復調ステップへの学習強調のシフトは、記憶の減少とトレーニングデータとの分散アライメントの改善を継続し、我々のアプローチの汎用性と有効性を検証した。
関連論文リスト
- Detecting and Mitigating Memorization in Diffusion Models through Anisotropy of the Log-Probability [9.133729396364952]
拡散に基づく画像生成モデルは、反復的復調によって高忠実度画像を生成するが、記憶に弱いままである。
最近の暗記検出法は主に暗記の指標としてスコア差のノルムに基づいている。
等方性ノルムと異方性アライメントを統合することで,記憶度検出尺度を開発した。
論文 参考訳(メタデータ) (2026-01-28T14:29:42Z) - The Principles of Diffusion Models [81.12042238390075]
拡散モデリングは、データを徐々にノイズに分解するフォワードプロセスを定義することから始まる。
目標は、ノイズをデータに変換しながら、同じ中間体を回復するリバースプロセスを学ぶことだ。
エネルギーベースモデリングに根ざしたスコアベースビューは、進化するデータ分布の勾配を学習する。
フローベースのビューは、フローの正規化に関連するもので、サンプルをノイズからデータに移すスムーズなパスに従って生成する。
論文 参考訳(メタデータ) (2025-10-24T02:29:02Z) - How Diffusion Models Memorize [26.711679643772623]
拡散モデルはトレーニングデータを記憶し 深刻なプライバシーと著作権の懸念を 引き起こすことができます
初診時のトレーニングサンプルの過大評価により,暗記が促進されることが示唆された。
論文 参考訳(メタデータ) (2025-09-30T03:03:27Z) - Guiding Noisy Label Conditional Diffusion Models with Score-based Discriminator Correction [1.8434042562191815]
本稿では,Score-based Discriminator Correction(SBDC)について述べる。
提案手法は計算効率が良く, 推論時間を極端に増加させるだけであり, 再学習拡散モデルを必要としない。
論文 参考訳(メタデータ) (2025-08-27T05:29:07Z) - ADT: Tuning Diffusion Models with Adversarial Supervision [16.974169058917443]
拡散モデルは、真のデータ分布を近似するために前方ノイズ発生過程を反転させることで、優れた画像生成を実現している。
本稿では、最適化中の推論プロセスを刺激し、最終的な出力をトレーニングデータと整合させるために、Adrial Diffusion Tuning (ADT)を提案する。
ADTは、固定されたトレーニング済みのバックボーンと軽量なトレーニング可能なパラメータを備えたシアム-ネットワーク識別器を備えている。
論文 参考訳(メタデータ) (2025-04-15T17:37:50Z) - Consistent Diffusion Meets Tweedie: Training Exact Ambient Diffusion Models with Noisy Data [74.2507346810066]
アンビエント拡散(アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散
本稿では,ノイズの多い学習データのみを考慮し,故障のない分布から確実にサンプルを採取する拡散モデルのトレーニングのための最初のフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-20T14:22:12Z) - Erasing Undesirable Influence in Diffusion Models [51.225365010401006]
拡散モデルは高品質な画像を生成するのに非常に効果的であるが、NSFW(職場では安全ではない)コンテンツの意図しない生成のようなリスクを引き起こす。
本研究では,データに関連付けられた不要な情報を取り除き,保存データに対する拡散モデルの実用性を維持するために設計されたアルゴリズムであるEraseDiffを紹介する。
論文 参考訳(メタデータ) (2024-01-11T09:30:36Z) - Adaptive Training Meets Progressive Scaling: Elevating Efficiency in Diffusion Models [52.1809084559048]
TDCトレーニングと呼ばれる新しい2段階分割型トレーニング戦略を提案する。
タスクの類似性と難易度に基づいてタイムステップをグループ化し、高度にカスタマイズされた復調モデルを各グループに割り当て、拡散モデルの性能を向上させる。
2段階のトレーニングでは、各モデルを個別にトレーニングする必要がなくなるが、総トレーニングコストは、単一の統合されたデノナイジングモデルをトレーニングするよりもさらに低い。
論文 参考訳(メタデータ) (2023-12-20T03:32:58Z) - One More Step: A Versatile Plug-and-Play Module for Rectifying Diffusion
Schedule Flaws and Enhancing Low-Frequency Controls [77.42510898755037]
One More Step (OMS) は、推論中に単純だが効果的なステップを付加したコンパクトネットワークである。
OMSは画像の忠実度を高め、トレーニングと推論の二分法を調和させ、元のモデルパラメータを保存する。
トレーニングが完了すると、同じ潜在ドメインを持つ様々な事前訓練された拡散モデルが同じOMSモジュールを共有することができる。
論文 参考訳(メタデータ) (2023-11-27T12:02:42Z) - Unsupervised Discovery of Interpretable Directions in h-space of
Pre-trained Diffusion Models [63.1637853118899]
本稿では,事前学習した拡散モデルのh空間における解釈可能な方向を特定するための,教師なしおよび学習に基づく最初の手法を提案する。
我々は、事前訓練された拡散モデルのh-スペースで動作するシフト制御モジュールを用いて、サンプルをシフトしたバージョンに操作する。
それらを共同で最適化することで、モデルは自然に絡み合った、解釈可能な方向を発見する。
論文 参考訳(メタデータ) (2023-10-15T18:44:30Z) - Observation-Guided Diffusion Probabilistic Models [41.749374023639156]
観測誘導拡散確率モデル(OGDM)と呼ばれる新しい拡散に基づく画像生成法を提案する。
本手法は,観測プロセスの指導をマルコフ連鎖と統合することにより,トレーニング目標を再構築する。
本研究では,強力な拡散モデルベースライン上での多様な推論手法を用いたトレーニングアルゴリズムの有効性を示す。
論文 参考訳(メタデータ) (2023-10-06T06:29:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。