論文の概要: Forget Many, Forget Right: Scalable and Precise Concept Unlearning in Diffusion Models
- arxiv url: http://arxiv.org/abs/2601.06162v1
- Date: Tue, 06 Jan 2026 23:59:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.628999
- Title: Forget Many, Forget Right: Scalable and Precise Concept Unlearning in Diffusion Models
- Title(参考訳): 多くのことを忘れ、正しく忘れる:拡散モデルにおけるスケーラブルで高精度な概念の学習
- Authors: Kaiyuan Deng, Gen Li, Yang Xiao, Bo Hui, Xiaolong Ma,
- Abstract要約: ScaPreは、大規模なアンラーニングに適した統合フレームワークである。
スペクトルトレース正則化と幾何アライメントを統合し、最適化を安定させ、対立を抑え、グローバルな構造を維持する。
許容できる品質制限の中で最高のベースラインよりも、$times mathbf5$以上の概念を忘れています。
- 参考スコア(独自算出の注目度): 17.91843469884079
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text-to-image diffusion models have achieved remarkable progress, yet their use raises copyright and misuse concerns, prompting research into machine unlearning. However, extending multi-concept unlearning to large-scale scenarios remains difficult due to three challenges: (i) conflicting weight updates that hinder unlearning or degrade generation; (ii) imprecise mechanisms that cause collateral damage to similar content; and (iii) reliance on additional data or modules, creating scalability bottlenecks. To address these, we propose Scalable-Precise Concept Unlearning (ScaPre), a unified framework tailored for large-scale unlearning. ScaPre introduces a conflict-aware stable design, integrating spectral trace regularization and geometry alignment to stabilize optimization, suppress conflicts, and preserve global structure. Furthermore, an Informax Decoupler identifies concept-relevant parameters and adaptively reweights updates, strictly confining unlearning to the target subspace. ScaPre yields an efficient closed-form solution without requiring auxiliary data or sub-models. Comprehensive experiments on objects, styles, and explicit content demonstrate that ScaPre effectively removes target concepts while maintaining generation quality. It forgets up to $\times \mathbf{5}$ more concepts than the best baseline within acceptable quality limits, achieving state-of-the-art precision and efficiency for large-scale unlearning.
- Abstract(参考訳): テキストから画像への拡散モデルは目覚ましい進歩を遂げているが、それらの使用は著作権と誤用の懸念を高め、機械学習の研究を促している。
しかし、マルチコンセプトのアンラーニングを大規模シナリオに拡張することは、3つの課題があるため難しいままである。
一 未学習又は劣化の発生を妨げる重み更新と矛盾すること。
二 類似した内容に担保的損害をもたらす不正確な機構
(iii)追加のデータやモジュールに依存して、スケーラビリティのボトルネックを作ります。
そこで本稿では,大規模アンラーニングに適した統一フレームワークであるScalable-Precise Concept Unlearning (ScaPre)を提案する。
ScaPreはコンフリクト対応の安定設計を導入し、スペクトルトレース正則化と幾何アライメントを統合して最適化を安定化し、競合を抑え、グローバルな構造を維持する。
さらに、Informax Decouplerは概念関連パラメータを特定し、更新を適応的にリウェイトし、未学習をターゲット部分空間に厳密に収束させる。
ScaPreは補助データやサブモデルを必要としない効率的なクローズドフォームソリューションを提供する。
オブジェクト、スタイル、明示的なコンテンツに関する包括的な実験は、ScaPreが生成品質を維持しながらターゲット概念を効果的に除去することを示した。
許容できる品質制限の中で最高のベースラインよりも多くの概念を忘れ、大規模アンラーニングのための最先端の精度と効率を達成する。
関連論文リスト
- Lemon: A Unified and Scalable 3D Multimodal Model for Universal Spatial Understanding [80.66591664266744]
Lemonは3Dポイントクラウドパッチと言語トークンを単一のシーケンスとして処理する統合トランスフォーマーアーキテクチャである。
3次元データの複雑さに対処するため,空間的コンテキストを保存するための構造化パッチやトークン化方式を開発した。
Lemonは、総合的な3D理解と推論タスクにまたがって、最先端のパフォーマンスを確立する。
論文 参考訳(メタデータ) (2025-12-14T20:02:43Z) - CURE: Concept Unlearning via Orthogonal Representation Editing in Diffusion Models [7.68494752148263]
CUREは、事前訓練された拡散モデルの重み空間で直接動作する、トレーニング不要の概念未学習フレームワークである。
スペクトル消去器は、安全な属性を保持しながら、望ましくない概念に特有の特徴を特定し、分離する。
CUREは、対象とする芸術スタイル、オブジェクト、アイデンティティ、明示的なコンテンツに対して、より効率的で徹底的な除去を実現する。
論文 参考訳(メタデータ) (2025-05-19T03:53:06Z) - Sculpting Memory: Multi-Concept Forgetting in Diffusion Models via Dynamic Mask and Concept-Aware Optimization [20.783312940122297]
テキスト・ツー・イメージ(T2I)拡散モデルは,テキスト・プロンプトから高品質な画像を生成することに成功している。
しかし、膨大な量の知識を蓄積する能力は、選択的に忘れることが必要なシナリオに懸念を生じさせる。
マルチコンセプトを忘れるように設計された新しいアンラーニングフレームワークであるコンセプト・アウェア・ロスを併用したtextbfDynamic Maskを提案する。
論文 参考訳(メタデータ) (2025-04-12T01:38:58Z) - Explainability and Continual Learning meet Federated Learning at the Network Edge [4.348225679878919]
ネットワークエッジにおける分散学習において,無線で相互接続するエッジデバイスで発生する新たな最適化問題について議論する。
具体的には,多目的最適化(MOO)を用いて,予測精度と説明可能性のトレードオフに対処する方法について論じる。
また,木をベースとしたモデルを分散学習環境に統合することの意義についても論じる。
論文 参考訳(メタデータ) (2025-04-11T13:45:55Z) - SPEED: Scalable, Precise, and Efficient Concept Erasure for Diffusion Models [56.83154571623655]
モデルパラメータを直接編集する効率的な概念消去手法であるSPEEDを導入する。
Speedyは、パラメータ更新がターゲット以外の概念に影響しないモデル編集スペースであるnullスペースを検索する。
たった5秒で100のコンセプトを消去しました。
論文 参考訳(メタデータ) (2025-03-10T14:40:01Z) - Boosting Alignment for Post-Unlearning Text-to-Image Generative Models [55.82190434534429]
大規模な生成モデルは、大量のデータによって推進される印象的な画像生成能力を示している。
これはしばしば必然的に有害なコンテンツや不適切なコンテンツを生み出し、著作権の懸念を引き起こす。
学習しない反復ごとに最適なモデル更新を求めるフレームワークを提案し、両方の目的に対して単調な改善を確実にする。
論文 参考訳(メタデータ) (2024-12-09T21:36:10Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。