論文の概要: SPEED: Scalable, Precise, and Efficient Concept Erasure for Diffusion Models
- arxiv url: http://arxiv.org/abs/2503.07392v1
- Date: Mon, 10 Mar 2025 14:40:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:47:39.610020
- Title: SPEED: Scalable, Precise, and Efficient Concept Erasure for Diffusion Models
- Title(参考訳): SPEED:拡散モデルのためのスケーラブルで高精度で効率的な概念消去
- Authors: Ouxiang Li, Yuan Wang, Xinting Hu, Houcheng Jiang, Tao Liang, Yanbin Hao, Guojun Ma, Fuli Feng,
- Abstract要約: モデル編集に基づく概念消去手法であるSPEEDを導入する。
SPEEDは、効率的かつ高忠実な概念消去を達成しつつ、保存前の既存の手法を一貫して上回っている。
- 参考スコア(独自算出の注目度): 41.284399182295026
- License:
- Abstract: Erasing concepts from large-scale text-to-image (T2I) diffusion models has become increasingly crucial due to the growing concerns over copyright infringement, offensive content, and privacy violations. However, existing methods either require costly fine-tuning or degrade image quality for non-target concepts (i.e., prior) due to inherent optimization limitations. In this paper, we introduce SPEED, a model editing-based concept erasure approach that leverages null-space constraints for scalable, precise, and efficient erasure. Specifically, SPEED incorporates Influence-based Prior Filtering (IPF) to retain the most affected non-target concepts during erasing, Directed Prior Augmentation (DPA) to expand prior coverage while maintaining semantic consistency, and Invariant Equality Constraints (IEC) to regularize model editing by explicitly preserving key invariants during the T2I generation process. Extensive evaluations across multiple concept erasure tasks demonstrate that SPEED consistently outperforms existing methods in prior preservation while achieving efficient and high-fidelity concept erasure, successfully removing 100 concepts within just 5 seconds. Our code and models are available at: https://github.com/Ouxiang-Li/SPEED.
- Abstract(参考訳): 大規模なテキスト・ツー・イメージ(T2I)拡散モデルによる概念の消去は、著作権侵害、攻撃的コンテンツ、プライバシー侵害に対する懸念が高まっているため、ますます重要になっている。
しかし、既存の手法では、最適化に固有の制限があるため、非ターゲット概念(例えば、以前のもの)に対して、コストのかかる微調整や画質の低下が必要となる。
本稿では,モデル編集に基づく概念消去手法であるSPEEDを紹介する。
具体的には、エフェクトベースの事前フィルタリング(IPF)を、消去時に最も影響を受ける非ターゲット概念を維持するために、意味的一貫性を維持しながら事前カバレッジを拡張するために、DPA(Directed Prior Augmentation)、T2I生成過程でキー不変性を明示的に保存することでモデル編集を規則化するIEC(Invariant Equality Constraints)が組み込まれている。
複数の概念消去タスクに対する広範囲な評価は、SPEEDが従来の保存方法より一貫して優れており、効率的で高忠実な概念消去を実現し、たった5秒で100の概念を除去できたことを示している。
私たちのコードとモデルは、https://github.com/Ouxiang-Li/SPEED.comで利用可能です。
関連論文リスト
- DuMo: Dual Encoder Modulation Network for Precise Concept Erasure [75.05165577219425]
非ターゲット概念に対する最小限の障害を伴う不適切なターゲット概念の正確な消去を実現するDuMo(Dual Encoder Modulation Network)を提案する。
提案手法は, 明示的コンテンツ消去, カートゥーン概念除去, アーティスティックスタイル消去における最先端性能を実現し, 代替手法よりも明らかに優れている。
論文 参考訳(メタデータ) (2025-01-02T07:47:34Z) - EraseAnything: Enabling Concept Erasure in Rectified Flow Transformers [33.195628798316754]
EraseAnythingは、最新のフローベースのT2Iフレームワークにおける概念消去に対処するために特別に開発された最初の方法である。
概念消去を二段階最適化問題として定式化し,LoRAに基づくパラメータチューニングとアテンションマップ正規化器を用いた。
本研究では,意図しない概念の除去が意図せず,無関係な概念のパフォーマンスを損なうことのない自己矛盾型学習戦略を提案する。
論文 参考訳(メタデータ) (2024-12-29T09:42:53Z) - Precise, Fast, and Low-cost Concept Erasure in Value Space: Orthogonal Complement Matters [38.355389084255386]
本稿では,AdaVD(Adaptive Vaule Decomposer)と呼ばれる,高精度で高速かつ低コストな概念消去手法を提案する。
AdaVDは一連の拡散モデルと下流の画像生成タスクをサポートしており、コードはプロジェクトページで入手できる。
論文 参考訳(メタデータ) (2024-12-09T01:56:25Z) - Reliable and Efficient Concept Erasure of Text-to-Image Diffusion Models [76.39651111467832]
本稿では,Reliable and Efficient Concept Erasure (RECE)を提案する。
派生した埋め込みによって表現される不適切なコンテンツを緩和するために、RECEはそれらをクロスアテンション層における無害な概念と整合させる。
新たな表現埋め込みの導出と消去を反復的に行い、不適切な概念の徹底的な消去を実現する。
論文 参考訳(メタデータ) (2024-07-17T08:04:28Z) - Towards Continual Learning Desiderata via HSIC-Bottleneck
Orthogonalization and Equiangular Embedding [55.107555305760954]
本稿では,レイヤワイドパラメータのオーバーライトや決定境界の歪みに起因する,概念的にシンプルで効果的な手法を提案する。
提案手法は,ゼロの指数バッファと1.02倍の差が絶対的に優れていても,競争精度が向上する。
論文 参考訳(メタデータ) (2024-01-17T09:01:29Z) - All but One: Surgical Concept Erasing with Model Preservation in
Text-to-Image Diffusion Models [22.60023885544265]
大規模なデータセットには、性的に明示的な、著作権のある、または望ましくないコンテンツが含まれており、モデルがそれらを直接生成することができる。
拡散モデルにおける概念消去に取り組むために、ファインチューニングアルゴリズムが開発された。
これらの課題をすべて解決する新しいアプローチを提示します。
論文 参考訳(メタデータ) (2023-12-20T07:04:33Z) - Degeneration-Tuning: Using Scrambled Grid shield Unwanted Concepts from
Stable Diffusion [106.42918868850249]
SD重みから不要な概念の内容を保護するために,textbf Degeneration-Tuning (DT) という新しい手法を提案する。
この適応はモデルの重みのレベルで発生するため、DT後のSDは、CrutNetのような他の条件付き拡散フレームワークに移植して不要な概念を保護することができる。
論文 参考訳(メタデータ) (2023-08-02T03:34:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。