論文の概要: How Diffusion Models Memorize
- arxiv url: http://arxiv.org/abs/2509.25705v1
- Date: Tue, 30 Sep 2025 03:03:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 14:44:59.994297
- Title: How Diffusion Models Memorize
- Title(参考訳): 拡散モデルはどのように記憶するか
- Authors: Juyeop Kim, Songkuk Kim, Jong-Seok Lee,
- Abstract要約: 拡散モデルはトレーニングデータを記憶し 深刻なプライバシーと著作権の懸念を 引き起こすことができます
初診時のトレーニングサンプルの過大評価により,暗記が促進されることが示唆された。
- 参考スコア(独自算出の注目度): 26.711679643772623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite their success in image generation, diffusion models can memorize training data, raising serious privacy and copyright concerns. Although prior work has sought to characterize, detect, and mitigate memorization, the fundamental question of why and how it occurs remains unresolved. In this paper, we revisit the diffusion and denoising process and analyze latent space dynamics to address the question: "How do diffusion models memorize?" We show that memorization is driven by the overestimation of training samples during early denoising, which reduces diversity, collapses denoising trajectories, and accelerates convergence toward the memorized image. Specifically: (i) memorization cannot be explained by overfitting alone, as training loss is larger under memorization due to classifier-free guidance amplifying predictions and inducing overestimation; (ii) memorized prompts inject training images into noise predictions, forcing latent trajectories to converge and steering denoising toward their paired samples; and (iii) a decomposition of intermediate latents reveals how initial randomness is quickly suppressed and replaced by memorized content, with deviations from the theoretical denoising schedule correlating almost perfectly with memorization severity. Together, these results identify early overestimation as the central underlying mechanism of memorization in diffusion models.
- Abstract(参考訳): 画像生成の成功にもかかわらず、拡散モデルはトレーニングデータを記憶し、深刻なプライバシーと著作権の懸念を引き起こす。
過去の研究は記憶を特徴づけ、検出し、緩和しようと試みてきたが、なぜ、どのように起こるのかという根本的な疑問は未解決のままである。
本稿では,拡散・復調過程を再考し,潜在空間力学を解析し,「拡散モデルはどのように記憶するのか?」という問題に対処する。
記憶化は,早期認知におけるトレーニングサンプルの過大評価によって引き起こされ,多様性が低下し,軌道が崩壊し,記憶画像への収束が加速することを示す。
具体的には
一 暗記は、予知を増幅し過大評価を誘導することによる暗記の際、暗記の損失が大きいので、単体では説明できない。
(二)暗記プロンプトは、学習画像を雑音予測に注入し、潜時軌道を収束させ、対のサンプルに向かってデノベーションする。
3) 中間潜水剤の分解により, 初期乱れが急速に抑制され, 記憶された内容に置き換わることが明らかとなった。
これらの結果は,拡散モデルにおいて,初期過大評価を記憶機構の中心として認識するものである。
関連論文リスト
- Demystifying Foreground-Background Memorization in Diffusion Models [23.914702151370204]
拡散モデル(DM)はトレーニング画像を記憶し、生成中にほぼ重複を再現することができる。
現在の検出法は動詞の暗記を識別するが、2つの重要な側面を捉えることができない。
生成した画像内の記憶領域を分類・定量化するセグメンテーションに基づく新しい指標であるフォアグラウンド背景記憶法(FB-Mem)を提案する。
論文 参考訳(メタデータ) (2025-08-16T20:15:16Z) - Bigger Isn't Always Memorizing: Early Stopping Overparameterized Diffusion Models [56.032091696552094]
自然データ領域の一般化は、記憶の開始前に訓練中に徐々に達成される。
一般化対メモ化は、時間スケール間の競合として最もよく理解される。
この現象学は,確率論的文脈自由文法をランダムな規則で学習する拡散モデルにおいて復元されることを示す。
論文 参考訳(メタデータ) (2025-05-22T17:40:08Z) - Redistribute Ensemble Training for Mitigating Memorization in Diffusion Models [31.92526915009259]
拡散モデルは非常に高品質なサンプルを生成する能力で知られている。
最近のメモリ緩和法は、主にテキストモダリティの文脈における問題に対処している。
本稿では,視覚的モダリティの観点からの拡散モデルの新たな手法を提案する。
論文 参考訳(メタデータ) (2025-02-13T15:56:44Z) - Exploring Local Memorization in Diffusion Models via Bright Ending Attention [62.979954692036685]
テキスト・画像拡散モデルにおける「右端」(BE)異常は、トレーニング画像の記憶に起因する。
本稿では,BEを既存のフレームワークに統合する簡易かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-29T02:16:01Z) - Detecting, Explaining, and Mitigating Memorization in Diffusion Models [49.438362005962375]
そこで本研究では,テキスト条件予測の大きさを検査することで,暗黙のプロンプトを検出する方法を提案する。
提案手法はサンプリングアルゴリズムを中断することなくシームレスに統合し,第1世代でも高い精度を実現する。
検出戦略に基づいて,個々の単語やトークンの記憶への寄与を示す説明可能なアプローチを提示する。
論文 参考訳(メタデータ) (2024-07-31T16:13:29Z) - Memorized Images in Diffusion Models share a Subspace that can be Located and Deleted [15.162296378581853]
大規模テキスト・画像拡散モデルはテキスト入力から高品質な画像を生成するのに優れている。
研究は、トレーニングデータを記憶し複製する傾向を示すため、懸念が生じる。
データ重複、複製されたキャプション、トークンのトリガーなどの原因を探る。
論文 参考訳(メタデータ) (2024-06-01T15:47:13Z) - An Inversion-based Measure of Memorization for Diffusion Models [37.9715620828388]
拡散モデルは、データの記憶をトレーニングし、著作権侵害やプライバシー侵害に関する懸念を提起する。
InvMMは,画像の複製を考慮に入れた感度潜時雑音分布の反転に基づく,インバージョンに基づく暗黙化尺度である。
InvMMはサンプル間で共振可能であり、正反対の立場から記憶の真の範囲を明らかにし、記憶がメンバーシップとどのように異なるかを示す。
論文 参考訳(メタデータ) (2024-05-09T15:32:00Z) - Unveiling and Mitigating Memorization in Text-to-image Diffusion Models through Cross Attention [62.671435607043875]
研究は、テキストから画像への拡散モデルがトレーニングデータから画像を複製し、著作権侵害やプライバシーのリスクに対する大きな懸念を引き起こすことを示唆している。
暗記中、クロスアテンションは特定のトークンの埋め込みに不均等に集中する傾向にあることが明らかとなった。
拡散モデルにおける記憶の検出と緩和のための革新的なアプローチを導入する。
論文 参考訳(メタデータ) (2024-03-17T01:27:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。