論文の概要: Distill, Forget, Repeat: A Framework for Continual Unlearning in Text-to-Image Diffusion Models
- arxiv url: http://arxiv.org/abs/2512.02657v1
- Date: Tue, 02 Dec 2025 11:22:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.843791
- Title: Distill, Forget, Repeat: A Framework for Continual Unlearning in Text-to-Image Diffusion Models
- Title(参考訳): Distill, Forget, Repeat: テキストと画像の拡散モデルにおける継続的なアンラーニングのためのフレームワーク
- Authors: Naveen George, Naoki Murata, Yuhta Takida, Konda Reddy Mopuri, Yuki Mitsufuji,
- Abstract要約: 本稿では, 減量要求の順序の下で, 目標と安定性を確保できる新しい生成蒸留に基づく連続的アンラーニングフレームワークを提案する。
10段階の逐次ベンチマーク実験により,提案手法はより忠実な概念を忘れることが実証された。
このフレームワークは、大規模生成モデルのデプロイとメンテナンスの責任を負うための実行可能な経路を提供する。
- 参考スコア(独自算出の注目度): 42.10036183563499
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recent rapid growth of visual generative models trained on vast web-scale datasets has created significant tension with data privacy regulations and copyright laws, such as GDPR's ``Right to be Forgotten.'' This necessitates machine unlearning (MU) to remove specific concepts without the prohibitive cost of retraining. However, existing MU techniques are fundamentally ill-equipped for real-world scenarios where deletion requests arrive sequentially, a setting known as continual unlearning (CUL). Naively applying one-shot methods in a continual setting triggers a stability crisis, leading to a cascade of degradation characterized by retention collapse, compounding collateral damage to related concepts, and a sharp decline in generative quality. To address this critical challenge, we introduce a novel generative distillation based continual unlearning framework that ensures targeted and stable unlearning under sequences of deletion requests. By reframing each unlearning step as a multi-objective, teacher-student distillation process, the framework leverages principles from continual learning to maintain model integrity. Experiments on a 10-step sequential benchmark demonstrate that our method unlearns forget concepts with better fidelity and achieves this without significant interference to the performance on retain concepts or the overall image quality, substantially outperforming baselines. This framework provides a viable pathway for the responsible deployment and maintenance of large-scale generative models, enabling industries to comply with ongoing data removal requests in a practical and effective manner.
- Abstract(参考訳): 大規模なWebスケールデータセットでトレーニングされた視覚生成モデルの急激な成長は、GDPRの ``Right to be Forgotten' など、データプライバシ規制や著作権法と大きな緊張を巻き起こしている。
「」これは、再訓練の禁止コストを伴わずに、特定の概念を除去するために機械学習(MU)を必要とする。
しかし、既存のMU技術は、削除要求が順次到着する現実世界のシナリオには基本的に不適合であり、連続的アンラーニング(Continuous Unlearning、CUL)と呼ばれる設定である。
連続的な設定でワンショット法を適用すると、安定性の危機が引き起こされ、維持崩壊、関連する概念への相互的ダメージの複合、生成品質の急激な低下を特徴とする劣化のカスケードが引き起こされる。
この重要な課題に対処するために,新たに生成蒸留に基づく連続的アンラーニングフレームワークを導入し,削除要求の順序の下でターゲットと安定的なアンラーニングを実現する。
学習されていない各ステップを多目的で教師による蒸留プロセスとして再定義することで、このフレームワークは連続的な学習からモデル整合性を維持するための原則を活用する。
10段階の逐次ベンチマーク実験により,提案手法はより忠実な概念を忘れることができ,概念の保持性能や画像の全体的な品質を著しく向上させることなく実現可能であることが示された。
このフレームワークは、大規模生成モデルの責任ある展開とメンテナンスのための実行可能な経路を提供し、産業が進行中のデータ削除要求を実用的で効果的な方法で遵守できるようにする。
関連論文リスト
- Pre-Forgettable Models: Prompt Learning as a Native Mechanism for Unlearning [9.512928441517811]
ファンデーションモデルは、様々なモダリティやタスクにまたがる堅牢で伝達可能な表現を可能にすることによって、マルチメディア分析を変革してきた。
リトレーニング、アクティベーション編集、蒸留を含む従来の未学習のアプローチは、しばしば高価で脆弱で、リアルタイムまたは継続的な進化するシステムに不適である。
本稿では,知識の獲得と除去を1つの学習段階内に統一する,プロンプトベースの学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-05T13:28:04Z) - Image Can Bring Your Memory Back: A Novel Multi-Modal Guided Attack against Image Generation Model Unlearning [28.15997901023315]
Recallは、未学習のIMGの堅牢性を損なうために設計された、新しい敵のフレームワークである。
逆効果、計算効率、意味的忠実性の点で、元のプロンプトで既存のベースラインを一貫して上回ります。
これらの結果は、現在の未学習メカニズムにおける重大な脆弱性を明らかにし、より堅牢なソリューションの必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-07-09T02:59:01Z) - Boosting Alignment for Post-Unlearning Text-to-Image Generative Models [55.82190434534429]
大規模な生成モデルは、大量のデータによって推進される印象的な画像生成能力を示している。
これはしばしば必然的に有害なコンテンツや不適切なコンテンツを生み出し、著作権の懸念を引き起こす。
学習しない反復ごとに最適なモデル更新を求めるフレームワークを提案し、両方の目的に対して単調な改善を確実にする。
論文 参考訳(メタデータ) (2024-12-09T21:36:10Z) - Learning New Concepts, Remembering the Old: Continual Learning for Multimodal Concept Bottleneck Models [11.716449233474451]
概念ボトルネックモデル(CBM)は、人間の理解可能な概念で視覚的な入力をブリッジすることで、AIシステムの解釈可能性を高める。
既存のCBMは静的データセットを前提としており、実際のマルチモーダルデータストリームへの適応性を制限している。
我々は,CBMのための新しい継続学習タスクを定義し,概念・増分学習とクラス・増分学習を同時に扱う。
論文 参考訳(メタデータ) (2024-11-25T10:44:14Z) - A Retention-Centric Framework for Continual Learning with Guaranteed Model Developmental Safety [75.8161094916476]
現実世界のアプリケーションでは、学習可能なシステムは、しばしば課題や新しいタスクに対処するために反復的なモデル開発を行う。
既存の能力の新規または改善は、必然的に旧モデルの優れた能力を失う可能性がある。
本稿では,データ依存制約を伴う保持中心のフレームワークを提案し,既存の画像分類能力の獲得や改善を目的とした事前学習型CLIPモデルを継続的に開発する方法について検討する。
論文 参考訳(メタデータ) (2024-10-04T22:34:58Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Continual Learners are Incremental Model Generalizers [70.34479702177988]
本稿では,継続学習モデル(CL)が事前学習者に与える影響を幅広く研究する。
その結果, 微調整性能が著しく低下することなく, 表現の伝達品質が徐々に向上することがわかった。
本稿では,下流タスクの解法において,リッチなタスクジェネリック表現を保存できる新しい微調整方式GLobal Attention Discretization(GLAD)を提案する。
論文 参考訳(メタデータ) (2023-06-21T05:26:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。