論文の概要: Steering Away from Memorization: Reachability-Constrained Reinforcement Learning for Text-to-Image Diffusion
- arxiv url: http://arxiv.org/abs/2603.00140v1
- Date: Tue, 24 Feb 2026 09:07:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.050334
- Title: Steering Away from Memorization: Reachability-Constrained Reinforcement Learning for Text-to-Image Diffusion
- Title(参考訳): 記憶への道--テキスト・画像拡散のための到達性制約付き強化学習-
- Authors: Sathwik Karnik, Juyeop Kim, Sanmi Koyejo, Jong-Seok Lee, Somil Bansal,
- Abstract要約: 現在の緩和戦略は、通常、暗記を減らすために画像の品質を犠牲にするか、迅速にアライメントする。
本稿では,生成の忠実さを保ちながら記憶を防止する推論時フレームワークであるReachability-Aware Diffusion Steering (RADS)を提案する。
RADSは拡散復調過程を力学系としてモデル化し、到達可能性解析の概念を適用して「後方到達管」を近似する。
- 参考スコア(独自算出の注目度): 44.47036589940717
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-to-image diffusion models often memorize training data, revealing a fundamental failure to generalize beyond the training set. Current mitigation strategies typically sacrifice image quality or prompt alignment to reduce memorization. To address this, we propose Reachability-Aware Diffusion Steering (RADS), an inference-time framework that prevents memorization while preserving generation fidelity. RADS models the diffusion denoising process as a dynamical system and applies concepts from reachability analysis to approximate the "backward reachable tube"--the set of intermediate states that inevitably evolve into memorized samples. We then formulate mitigation as a constrained reinforcement learning (RL) problem, where a policy learns to steer the trajectory away from memorization via minimal perturbations in the caption embedding space. Empirical evaluations show that RADS achieves a superior Pareto frontier between generation diversity (SSCD), quality (FID), and alignment (CLIP) compared to state-of-the-art baselines. Crucially, RADS provides robust mitigation without modifying the diffusion backbone, offering a plug-and-play solution for safe generation. Our website is available at: https://s-karnik.github.io/rads-memorization-project-page/.
- Abstract(参考訳): テキストから画像への拡散モデルはしばしばトレーニングデータを記憶し、トレーニングセットを超えて一般化する根本的な失敗を明らかにします。
現在の緩和戦略は、通常、暗記を減らすために画像の品質を犠牲にするか、迅速にアライメントする。
そこで本稿では, 生成精度を保ちながら記憶を防止するための推論時フレームワークであるReachability-Aware Diffusion Steering (RADS)を提案する。
RADSは拡散復調過程を力学系としてモデル化し、「後方到達管」を近似するために到達可能性解析の概念を適用し、必然的に記憶されたサンプルへと進化する中間状態の集合である。
次に、制約付き強化学習(RL)問題として緩和を定式化し、そこでは、キャプション埋め込み空間における最小の摂動による記憶から軌道を逸脱することをポリシーが学習する。
経験的評価から、RADSは世代多様性(SSCD)、品質(FID)、アライメント(CLIP)の間において最先端のParetoフロンティアを達成している。
重要なことは、RADSは拡散バックボーンを変更することなく堅牢な緩和を提供し、安全な生成のためのプラグアンドプレイソリューションを提供する。
私たちのウェブサイトは、https://s-karnik.github.io/rads-memorization-project-page/.com/で利用可能です。
関連論文リスト
- You Don't Need All That Attention: Surgical Memorization Mitigation in Text-to-Image Diffusion Models [8.429432661292964]
生成モデルは、あるトレーニングデータを「記憶する」ことが示され、冗長またはほぼ垂直な生成画像に繋がる。
本稿では,テキスト・画像拡散モデルにおけるメモリ化緩和のための新しいフレームワークであるGuidance Using Attractive-Repulsive Dynamics (GUARD)を紹介する。
GUARDは、元のトレーニング画像から、トレーニングデータとは異なるものへ、生成を誘導するために、画像装飾プロセスを調整する。
論文 参考訳(メタデータ) (2026-02-23T17:20:40Z) - Rethinking Multi-Condition DiTs: Eliminating Redundant Attention via Position-Alignment and Keyword-Scoping [61.459927600301654]
マルチコンディション制御は従来のコンカデント・アンド・アットエンドの戦略によってボトルネックとなる。
分析の結果,これらの相互作用の多くは空間的にも意味的にも冗長であることがわかった。
本稿では,これらの冗長性を解消するための高効率なフレームワークであるPKAを提案する。
論文 参考訳(メタデータ) (2026-02-06T16:39:10Z) - The Illusion of Forgetting: Attack Unlearned Diffusion via Initial Latent Variable Optimization [51.835894707552946]
非学習型防衛は拡散モデル(DM)からNot-Safe-For-Work概念を浄化すると主張している
本研究では,未学習が言語記号と基礎知識のマッピングを部分的に破壊し,休眠記憶として残り続けることを示す。
IVOは、壊れたマッピングを再構築することで、これらの休眠記憶を再活性化する簡潔で強力な攻撃フレームワークである。
論文 参考訳(メタデータ) (2026-01-30T02:39:51Z) - Deep Leakage with Generative Flow Matching Denoiser [54.05993847488204]
再建プロセスに先立って生成フローマッチング(FM)を組み込んだ新しい深部リーク攻撃(DL)を導入する。
当社のアプローチは、ピクセルレベル、知覚的、特徴に基づく類似度測定において、最先端の攻撃よりも一貫して優れています。
論文 参考訳(メタデータ) (2026-01-21T14:51:01Z) - SafeRedir: Prompt Embedding Redirection for Robust Unlearning in Image Generation Models [67.84174763413178]
我々はSafeRedirを紹介した。SafeRedirは、迅速な埋め込みリダイレクトによる堅牢なアンラーニングのための軽量な推論時フレームワークである。
SafeRedirは,効果的な非学習能力,意味的・知覚的保存能力,堅牢な画像品質,対人攻撃に対する耐性の向上を実現している。
論文 参考訳(メタデータ) (2026-01-13T15:01:38Z) - Critic-Guided Reinforcement Unlearning in Text-to-Image Diffusion [0.0]
テキストから画像への拡散モデルにおける機械学習は、全体的な有用性を保ちながらターゲットとなる概念を取り除くことを目的としている。
本稿では,難読化を逐次決定過程として扱う拡散アンラーニングのための一般的なRLフレームワークを提案する。
我々のアルゴリズムは実装が簡単で、非政治的な再利用をサポートし、標準のテキスト・ツー・イメージのバックボーンにプラグインする。
論文 参考訳(メタデータ) (2026-01-06T17:52:02Z) - CAPTAIN: Semantic Feature Injection for Memorization Mitigation in Text-to-Image Diffusion Models [60.610268549138375]
拡散モデルは意図せずトレーニング例を再現し、プライバシーと著作権の懸念を高めることができる。
CAPTAINはトレーニング不要のフレームワークで,聴覚障害時に潜伏した特徴を直接修正することで記憶を緩和する。
論文 参考訳(メタデータ) (2025-12-11T14:01:47Z) - Redistribute Ensemble Training for Mitigating Memorization in Diffusion Models [31.92526915009259]
拡散モデルは非常に高品質なサンプルを生成する能力で知られている。
最近のメモリ緩和法は、主にテキストモダリティの文脈における問題に対処している。
本稿では,視覚的モダリティの観点からの拡散モデルの新たな手法を提案する。
論文 参考訳(メタデータ) (2025-02-13T15:56:44Z) - LoyalDiffusion: A Diffusion Model Guarding Against Data Replication [6.818344768093927]
拡散モデルは、特にトレーニングデータが機密情報を含む場合、トレーニングデータを複製することができる。
画像品質に欠かせない接続に情報転送ブロックを組み込んだ複製対応U-Netアーキテクチャを提案する。
実験により、LoyalDiffusionは、画像の品質を維持しながら48.63%の複製を減少させる、最先端の複製緩和法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-12-02T04:41:30Z) - Detecting, Explaining, and Mitigating Memorization in Diffusion Models [49.438362005962375]
そこで本研究では,テキスト条件予測の大きさを検査することで,暗黙のプロンプトを検出する方法を提案する。
提案手法はサンプリングアルゴリズムを中断することなくシームレスに統合し,第1世代でも高い精度を実現する。
検出戦略に基づいて,個々の単語やトークンの記憶への寄与を示す説明可能なアプローチを提示する。
論文 参考訳(メタデータ) (2024-07-31T16:13:29Z) - Iterative Ensemble Training with Anti-Gradient Control for Mitigating Memorization in Diffusion Models [20.550324116099357]
拡散モデルは、新規で高品質なサンプルを生成できることで知られている。
最近のメモリ緩和手法は、クロスモーダル生成タスクにおけるテキストモダリティ問題にのみ焦点をあてるか、あるいはデータ拡張戦略を利用するかのどちらかである。
本稿では,視覚的モダリティの観点からの拡散モデルのための新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-22T02:19:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。