論文の概要: Continual Unlearning for Text-to-Image Diffusion Models: A Regularization Perspective
- arxiv url: http://arxiv.org/abs/2511.07970v1
- Date: Wed, 12 Nov 2025 01:31:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.570998
- Title: Continual Unlearning for Text-to-Image Diffusion Models: A Regularization Perspective
- Title(参考訳): テキスト・画像拡散モデルの連続的アンラーニング:正規化の視点
- Authors: Justin Lee, Zheda Mai, Jinsu Yoo, Chongyu Fan, Cheng Zhang, Wei-Lun Chao,
- Abstract要約: テキスト・画像拡散モデルにおける連続的アンラーニングに関する最初の体系的研究について述べる。
一般的なアンラーニング手法は, 数回だけ要求した後で, 急速にユーティリティーの崩壊に悩まされることを示す。
パラメータドリフトをサブスペースに制約する勾配投影法を提案する。
- 参考スコア(独自算出の注目度): 35.50502807526103
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine unlearning--the ability to remove designated concepts from a pre-trained model--has advanced rapidly, particularly for text-to-image diffusion models. However, existing methods typically assume that unlearning requests arrive all at once, whereas in practice they often arrive sequentially. We present the first systematic study of continual unlearning in text-to-image diffusion models and show that popular unlearning methods suffer from rapid utility collapse: after only a few requests, models forget retained knowledge and generate degraded images. We trace this failure to cumulative parameter drift from the pre-training weights and argue that regularization is crucial to addressing it. To this end, we study a suite of add-on regularizers that (1) mitigate drift and (2) remain compatible with existing unlearning methods. Beyond generic regularizers, we show that semantic awareness is essential for preserving concepts close to the unlearning target, and propose a gradient-projection method that constrains parameter drift orthogonal to their subspace. This substantially improves continual unlearning performance and is complementary to other regularizers for further gains. Taken together, our study establishes continual unlearning as a fundamental challenge in text-to-image generation and provides insights, baselines, and open directions for advancing safe and accountable generative AI.
- Abstract(参考訳): マシン・アンラーニング(英: Machine unlearning)とは、特にテキストから画像への拡散モデルにおいて、事前訓練されたモデルから指定された概念を除去する能力である。
しかし、既存の手法では、未学習の要求がすべて一度に届くと仮定するのに対し、実際にはシーケンシャルにやってくることが多い。
テキストから画像への拡散モデルにおける連続的アンラーニングに関する最初の体系的研究を行い、一般的なアンラーニング手法が急速な実用的崩壊に悩まされていることを示す: 少数の要求の後、モデルは保持された知識を忘れ、劣化した画像を生成する。
我々は、この失敗を学習前の重みから累積パラメータドリフトに辿り着き、正規化がそれに対処する上で不可欠であると主張する。
そこで本研究では,(1)ドリフトを緩和し,(2)既存のアンラーニング手法との互換性を維持するアドオン正規化器について検討する。
一般正規化以外にも、学習対象に近い概念を保存するために意味的認識が不可欠であることが示され、パラメータの空間への直交を制約する勾配投影法が提案される。
これにより、継続的な未学習のパフォーマンスが大幅に向上し、さらなる向上のために他の正規化ツールと相補的になる。
本研究は、テキスト・ツー・イメージ生成における基本的な課題として継続的アンラーニングを確立し、安全で説明可能な生成可能なAIを促進するための洞察、ベースライン、オープンな方向を提供する。
関連論文リスト
- Boosting Alignment for Post-Unlearning Text-to-Image Generative Models [55.82190434534429]
大規模な生成モデルは、大量のデータによって推進される印象的な画像生成能力を示している。
これはしばしば必然的に有害なコンテンツや不適切なコンテンツを生み出し、著作権の懸念を引き起こす。
学習しない反復ごとに最適なモデル更新を求めるフレームワークを提案し、両方の目的に対して単調な改善を確実にする。
論文 参考訳(メタデータ) (2024-12-09T21:36:10Z) - Towards Lifelong Few-Shot Customization of Text-to-Image Diffusion [50.26583654615212]
テキストと画像の拡散のための一生にわたる数ショットのカスタマイズは、最小限のデータで新しいタスクのための既存のモデルを継続的に一般化することを目的としている。
本研究では,破滅的な忘れる問題を,関連する概念と過去の概念の2つに分類し,分類する。
実データの追加やオリジナルの概念データのオフライン再生に頼っている既存の方法とは異なり,本手法では,新しい概念を学習しながら,事前知識の蒸留を行うことが可能である。
論文 参考訳(メタデータ) (2024-11-08T12:58:48Z) - Unstable Unlearning: The Hidden Risk of Concept Resurgence in Diffusion Models [17.91181821887101]
一見無関係な画像にテキストから画像への拡散モデルを微調整することで、以前は「未学習」だった概念を「再学習」することができることを示す。
本研究は,インクリメンタルなモデル更新の脆弱さを浮き彫りにして,テキスト・ツー・イメージ拡散モデルの安全性と整合性を確保するための現在のアプローチに対する深刻な新たな懸念を提起するものである。
論文 参考訳(メタデータ) (2024-10-10T16:10:27Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Rethinking and Defending Protective Perturbation in Personalized Diffusion Models [21.30373461975769]
パーソナライズされた拡散モデル(PDM)の微調整過程について,ショートカット学習のレンズを用いて検討した。
PDMは小さな逆境の摂動に影響を受けやすいため、破損したデータセットを微調整すると著しく劣化する。
本稿では,データ浄化と対照的なデカップリング学習を含むシステム防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-27T07:14:14Z) - Unlearning Concepts in Diffusion Model via Concept Domain Correction and Concept Preserving Gradient [20.698305103879232]
我々はtextbfDoCo (textbfDomaintextbfCorrection) という新しい概念領域補正フレームワークを提案する。
本手法は, 対象概念の包括的未学習を保証し, 先進的学習を通して, センシティブな概念とアンカーの概念の出力領域を整合させることにより, 対象概念の包括的未学習を確実にする。
また、矛盾する勾配成分を緩和し、特定の概念を学習しながらモデルの実用性を維持するための概念保存的勾配手術手法も導入する。
論文 参考訳(メタデータ) (2024-05-24T07:47:36Z) - Unveiling and Mitigating Memorization in Text-to-image Diffusion Models through Cross Attention [62.671435607043875]
研究は、テキストから画像への拡散モデルがトレーニングデータから画像を複製し、著作権侵害やプライバシーのリスクに対する大きな懸念を引き起こすことを示唆している。
暗記中、クロスアテンションは特定のトークンの埋め込みに不均等に集中する傾向にあることが明らかとなった。
拡散モデルにおける記憶の検出と緩和のための革新的なアプローチを導入する。
論文 参考訳(メタデータ) (2024-03-17T01:27:00Z) - Free-ATM: Exploring Unsupervised Learning on Diffusion-Generated Images
with Free Attention Masks [64.67735676127208]
テキストと画像の拡散モデルは、画像認識の恩恵を受ける大きな可能性を示している。
有望ではあるが、拡散生成画像の教師なし学習に特化した調査は不十分である。
上記フリーアテンションマスクをフル活用することで、カスタマイズされたソリューションを導入する。
論文 参考訳(メタデータ) (2023-08-13T10:07:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。