論文の概要: Two Calm Ends and the Wild Middle: A Geometric Picture of Memorization in Diffusion Models
- arxiv url: http://arxiv.org/abs/2602.17846v1
- Date: Thu, 19 Feb 2026 21:21:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.151367
- Title: Two Calm Ends and the Wild Middle: A Geometric Picture of Memorization in Diffusion Models
- Title(参考訳): 2つのカルム端と野生の中期:拡散モデルにおける記憶の幾何学的画像
- Authors: Nick Dodson, Xinyu Gao, Qingsong Wang, Yusu Wang, Zhengchao Wan,
- Abstract要約: 拡散モデルは高品質なサンプルを生成するが、トレーニングデータを記憶することもできる。
ノイズスケジュールの暗記が生じる場所、データ形状がそれに与える影響、および異なるノイズスケールにおける現象の相互作用について検討する。
- 参考スコア(独自算出の注目度): 24.20376691354505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models generate high-quality samples but can also memorize training data, raising serious privacy concerns. Understanding the mechanisms governing when memorization versus generalization occurs remains an active area of research. In particular, it is unclear where along the noise schedule memorization is induced, how data geometry influences it, and how phenomena at different noise scales interact. We introduce a geometric framework that partitions the noise schedule into three regimes based on the coverage properties of training data by Gaussian shells and the concentration behavior of the posterior, which we argue are two fundamental objects governing memorization and generalization in diffusion models. This perspective reveals that memorization risk is highly non-uniform across noise levels. We further identify a danger zone at medium noise levels where memorization is most pronounced. In contrast, both the small and large noise regimes resist memorization, but through fundamentally different mechanisms: small noise avoids memorization due to limited training coverage, while large noise exhibits low posterior concentration and admits a provably near linear Gaussian denoising behavior. For the medium noise regime, we identify geometric conditions through which we propose a geometry-informed targeted intervention that mitigates memorization.
- Abstract(参考訳): 拡散モデルは高品質なサンプルを生成するが、トレーニングデータを記憶することもできる。
記憶と一般化がいつ起こるかを決定するメカニズムを理解することは研究の活発な領域である。
特に、ノイズスケジュールの暗記がどこから引き起こされるか、データ幾何がそれに影響を与えるか、異なるノイズスケールでの現象がどのように相互作用するかは不明確である。
本稿では,ガウス貝殻による訓練データのカバレッジ特性と後部濃度の挙動に基づいて,騒音スケジュールを3つの規則に分割する幾何学的枠組みを提案する。
この視点は、暗記リスクがノイズレベルを越えて非常に不均一であることを示している。
さらに,暗記が最も顕著な中音域の危険域を同定する。
対照的に、小さいノイズと大きなノイズは暗記に抵抗するが、基本的に異なるメカニズムにより、小さなノイズは訓練範囲が限られているため暗記を避ける。
本研究では, 中音環境において, 暗記を緩和する幾何学的インフォームド・ターゲット介入を提案する幾何学的条件を同定する。
関連論文リスト
- Noise as a Probe: Membership Inference Attacks on Diffusion Models Leveraging Initial Noise [51.179816451161635]
拡散モデルは画像生成において顕著な進歩を遂げているが、そのデプロイの増加はプライバシに関する深刻な懸念を引き起こす。
広範に使われているノイズスケジュールは、画像のセマンティック情報を完全に排除することができない。
本稿では,初期雑音に意味情報を注入し,モデル生成結果を解析してメンバーシップを推定する,シンプルで効果的なメンバーシップ推論攻撃を提案する。
論文 参考訳(メタデータ) (2026-01-29T12:29:01Z) - How Diffusion Models Memorize [26.711679643772623]
拡散モデルはトレーニングデータを記憶し 深刻なプライバシーと著作権の懸念を 引き起こすことができます
初診時のトレーニングサンプルの過大評価により,暗記が促進されることが示唆された。
論文 参考訳(メタデータ) (2025-09-30T03:03:27Z) - A self-supervised learning approach for denoising autoregressive models with additive noise: finite and infinite variance cases [0.9217021281095907]
応用においては、自己回帰信号は加法雑音によってしばしば破損する。
本稿では,付加的な雑音崩壊型自己回帰モデルを示す自己教師型学習手法を提案する。
論文 参考訳(メタデータ) (2025-08-18T14:46:56Z) - Demystifying Foreground-Background Memorization in Diffusion Models [23.914702151370204]
拡散モデル(DM)はトレーニング画像を記憶し、生成中にほぼ重複を再現することができる。
現在の検出法は動詞の暗記を識別するが、2つの重要な側面を捉えることができない。
生成した画像内の記憶領域を分類・定量化するセグメンテーションに基づく新しい指標であるフォアグラウンド背景記憶法(FB-Mem)を提案する。
論文 参考訳(メタデータ) (2025-08-16T20:15:16Z) - Be Decisive: Noise-Induced Layouts for Multi-Subject Generation [56.80513553424086]
複雑なプロンプトは被写体漏れを引き起こし、量、属性、視覚的特徴の不正確さを引き起こす。
本稿では,初期雑音から導出されるプロンプトに整合した空間配置を予測し,デノナイジング過程を通じて改良する手法を提案する。
提案手法では,各聴覚ステップにおける雑音誘発レイアウトを予測・改善するために,小さなニューラルネットワークを用いる。
論文 参考訳(メタデータ) (2025-05-27T17:54:24Z) - Noisier2Inverse: Self-Supervised Learning for Image Reconstruction with Correlated Noise [1.099532646524593]
Noisier2Inverseは、一般的な逆確率補題に対する修正不要な自己教師型深層学習手法である。
本手法は, 相関雑音を考慮した従来の自己教師型手法よりも明らかに優れていることを示す。
論文 参考訳(メタデータ) (2025-03-25T08:59:11Z) - The role of noise in denoising models for anomaly detection in medical
images [62.0532151156057]
病理脳病変は脳画像に多彩な外観を示す。
正規データのみを用いた教師なし異常検出手法が提案されている。
空間分解能の最適化と雑音の大きさの最適化により,異なるモデル学習体制の性能が向上することを示す。
論文 参考訳(メタデータ) (2023-01-19T21:39:38Z) - Noise-Tolerant Learning for Audio-Visual Action Recognition [31.641972732424463]
ビデオデータセットは通常、粗い注釈付きまたはインターネットから収集される。
本稿では,雑音ラベルと雑音対応の両方に対して,反干渉モデルパラメータを求めるための耐雑音性学習フレームワークを提案する。
本手法は,動作認識モデルのロバスト性を大幅に向上し,ベースラインをクリアマージンで越える。
論文 参考訳(メタデータ) (2022-05-16T12:14:03Z) - Towards Adversarially Robust Deep Image Denoising [199.2458715635285]
本研究は,ディープ・イメージ・デノイザ(DID)の対角的ロバスト性について系統的に検討する。
本稿では,観測に基づくゼロ平均アタック(sc ObsAtk)という新たな敵攻撃を提案する。
DIDを頑健化するために,DIDと非対向雑音データとを併用したハイブリッド対向訓練(sc HAT)を提案する。
論文 参考訳(メタデータ) (2022-01-12T10:23:14Z) - Combating Noise: Semi-supervised Learning by Region Uncertainty
Quantification [55.23467274564417]
現在の手法は、擬似ラベルによって生成されるノイズの多い領域によって容易に妨げられる。
領域の不確実性を定量化して雑音耐性半教師付き学習を提案する。
PASCAL VOCとMS COCOの併用実験により,本手法の異常な性能を実証した。
論文 参考訳(メタデータ) (2021-11-01T13:23:42Z) - Removing Adversarial Noise in Class Activation Feature Space [160.78488162713498]
クラスアクティベーション機能空間において,自己監視型対人訓練機構を実装することにより,対人雑音の除去を提案する。
クラスアクティベーション機能空間における敵対例と自然な例の間の距離を最小にするために、デノイジングモデルを訓練する。
経験的評価により, 従来の手法と比較して, 敵対的堅牢性が有意に向上できることが示された。
論文 参考訳(メタデータ) (2021-04-19T10:42:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。