論文の概要: CAPTAIN: Semantic Feature Injection for Memorization Mitigation in Text-to-Image Diffusion Models
- arxiv url: http://arxiv.org/abs/2512.10655v1
- Date: Thu, 11 Dec 2025 14:01:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.392394
- Title: CAPTAIN: Semantic Feature Injection for Memorization Mitigation in Text-to-Image Diffusion Models
- Title(参考訳): CAPTAIN:テキスト・画像拡散モデルにおけるメモリ化軽減のための意味的特徴注入
- Authors: Tong Zhang, Carlos Hinojosa, Bernard Ghanem,
- Abstract要約: 拡散モデルは意図せずトレーニング例を再現し、プライバシーと著作権の懸念を高めることができる。
CAPTAINはトレーニング不要のフレームワークで,聴覚障害時に潜伏した特徴を直接修正することで記憶を緩和する。
- 参考スコア(独自算出の注目度): 60.610268549138375
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Diffusion models can unintentionally reproduce training examples, raising privacy and copyright concerns as these systems are increasingly deployed at scale. Existing inference-time mitigation methods typically manipulate classifier-free guidance (CFG) or perturb prompt embeddings; however, they often struggle to reduce memorization without compromising alignment with the conditioning prompt. We introduce CAPTAIN, a training-free framework that mitigates memorization by directly modifying latent features during denoising. CAPTAIN first applies frequency-based noise initialization to reduce the tendency to replicate memorized patterns early in the denoising process. It then identifies the optimal denoising timesteps for feature injection and localizes memorized regions. Finally, CAPTAIN injects semantically aligned features from non-memorized reference images into localized latent regions, suppressing memorization while preserving prompt fidelity and visual quality. Our experiments show that CAPTAIN achieves substantial reductions in memorization compared to CFG-based baselines while maintaining strong alignment with the intended prompt.
- Abstract(参考訳): 拡散モデルは意図せずトレーニング例を再現することができ、これらのシステムが大規模に展開されるにつれて、プライバシや著作権の懸念が高まる。
既存の推論時間緩和法は、通常、分類器フリーガイダンス(CFG)やパーターブプロンプト埋め込み(英語版)を操作するが、条件付けプロンプトとの整合性を損なうことなく記憶を減らすのに苦労することが多い。
CAPTAINはトレーニング不要のフレームワークで,聴覚障害時に潜伏した特徴を直接修正することで記憶を緩和する。
CAPTAINは、最初に周波数ベースのノイズ初期化を適用し、復調過程の早い段階で記憶パターンを再現する傾向を減少させる。
次に、特徴注入のための最適な分極時間ステップを特定し、記憶された領域をローカライズする。
最後に、CAPTAINは非記憶化参照画像から局所潜在領域に意味的に整列した特徴を注入し、迅速な忠実さと視覚的品質を維持しながら記憶を抑制する。
実験の結果,CAPTAINはCFGベースのベースラインと比較して,意図したプロンプトと強い整合性を維持しつつ,記憶の大幅な削減を実現していることがわかった。
関連論文リスト
- Adjusting Initial Noise to Mitigate Memorization in Text-to-Image Diffusion Models [10.935602641612888]
初期ノイズサンプルは,この脱走の発生時期を決定する上で重要な役割を担っている。
本稿では,初期騒音を個別に調整する2つの緩和策を提案する。
論文 参考訳(メタデータ) (2025-10-08T10:37:29Z) - How Diffusion Models Memorize [26.711679643772623]
拡散モデルはトレーニングデータを記憶し 深刻なプライバシーと著作権の懸念を 引き起こすことができます
初診時のトレーニングサンプルの過大評価により,暗記が促進されることが示唆された。
論文 参考訳(メタデータ) (2025-09-30T03:03:27Z) - Demystifying Foreground-Background Memorization in Diffusion Models [23.914702151370204]
拡散モデル(DM)はトレーニング画像を記憶し、生成中にほぼ重複を再現することができる。
現在の検出法は動詞の暗記を識別するが、2つの重要な側面を捉えることができない。
生成した画像内の記憶領域を分類・定量化するセグメンテーションに基づく新しい指標であるフォアグラウンド背景記憶法(FB-Mem)を提案する。
論文 参考訳(メタデータ) (2025-08-16T20:15:16Z) - StPR: Spatiotemporal Preservation and Routing for Exemplar-Free Video Class-Incremental Learning [79.44594332189018]
CIL(Class-Incremental Learning)は、以前取得した知識を使わずに、時間とともに新しいアクションカテゴリを継続的に学習するモデルの開発を目指している。
既存のアプローチでは、メモリとプライバシに関する懸念を忘れたり、あるいは時間的モデリングを無視する静的なイメージベースのメソッドを適用したりする。
本稿では,情報を明示的に切り離して保存する,統一的で非定型なVCILフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-20T06:46:51Z) - Exploring Local Memorization in Diffusion Models via Bright Ending Attention [62.979954692036685]
テキスト・画像拡散モデルにおける「右端」(BE)異常は、トレーニング画像の記憶に起因する。
本稿では,BEを既存のフレームワークに統合する簡易かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-29T02:16:01Z) - Rethinking and Defending Protective Perturbation in Personalized Diffusion Models [21.30373461975769]
パーソナライズされた拡散モデル(PDM)の微調整過程について,ショートカット学習のレンズを用いて検討した。
PDMは小さな逆境の摂動に影響を受けやすいため、破損したデータセットを微調整すると著しく劣化する。
本稿では,データ浄化と対照的なデカップリング学習を含むシステム防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-27T07:14:14Z) - Denoising as Adaptation: Noise-Space Domain Adaptation for Image Restoration [64.84134880709625]
拡散モデルを用いて,雑音空間を介して領域適応を行うことが可能であることを示す。
特に、補助的な条件入力が多段階の復調過程にどのように影響するかというユニークな性質を活用することにより、有意義な拡散損失を導出する。
拡散モデルにおけるチャネルシャッフル層や残留スワッピング型コントラスト学習などの重要な戦略を提案する。
論文 参考訳(メタデータ) (2024-06-26T17:40:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。