論文の概要: EraseAnything++: Enabling Concept Erasure in Rectified Flow Transformers Leveraging Multi-Object Optimization
- arxiv url: http://arxiv.org/abs/2603.00978v1
- Date: Sun, 01 Mar 2026 08:13:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.440737
- Title: EraseAnything++: Enabling Concept Erasure in Rectified Flow Transformers Leveraging Multi-Object Optimization
- Title(参考訳): EraseAnything++: マルチオブジェクト最適化を活用した整流トランスフォーマの概念消去の実現
- Authors: Zhaoxin Fan, Nanxiang Jiang, Daiheng Gao, Shiji Zhou, Wenjun Wu,
- Abstract要約: EraseAnything++は、画像拡散モデルとビデオ拡散モデルの両方において概念消去のための統一されたフレームワークである。
本手法は,鍵となる視覚的表現を消去し,空間的・時間的次元にわたって一貫した伝播を行う。
ビデオ設定では、アンカー・アンド・プロパゲート機構により、参照フレームの消去を初期化し、その後のトランスフォーマー層を通して強制する一貫性をさらに強化する。
- 参考スコア(独自算出の注目度): 18.80236205171204
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Removing undesired concepts from large-scale text-to-image (T2I) and text-to-video (T2V) diffusion models while preserving overall generative quality remains a major challenge, particularly as modern models such as Stable Diffusion v3, Flux, and OpenSora employ flow-matching and transformer-based architectures and extend to long-horizon video generation. Existing concept erasure methods, designed for earlier T2I/T2V models, often fail to generalize to these paradigms. To address this issue, we propose EraseAnything++, a unified framework for concept erasure in both image and video diffusion models with flow-matching objectives. Central to our approach is formulating concept erasure as a constrained multi-objective optimization problem that explicitly balances concept removal with preservation of generative utility. To solve the resulting conflicting objectives, we introduce an efficient utility-preserving unlearning strategy based on implicit gradient surgery. Furthermore, by integrating LoRA-based parameter tuning with attention-level regularization, our method anchors erasure on key visual representations and propagates it consistently across spatial and temporal dimensions. In the video setting, we further enhance consistency through an anchor-and-propagate mechanism that initializes erasure on reference frames and enforces it throughout subsequent transformer layers, thereby mitigating temporal drift. Extensive experiments on both image and video benchmarks demonstrate that EraseAnything++ substantially outperforms prior methods in erasure effectiveness, generative fidelity, and temporal consistency, establishing a new state of the art for concept erasure in next-generation diffusion models.
- Abstract(参考訳): 大規模なテキスト・トゥ・イメージ(T2I)やテキスト・トゥ・ビデオ(T2V)の拡散モデルから不要な概念を取り除き、全体的な生成品質を保ちながら、大きな課題となっている。
従来のT2I/T2Vモデル用に設計された既存の概念消去手法は、これらのパラダイムを一般化するのに失敗することが多い。
この問題に対処するために,フローマッチングの目的を持った画像拡散モデルとビデオ拡散モデルの両方において,概念消去を統一したフレームワークであるEraseAnything++を提案する。
提案手法の中心は,概念消去を制約付き多目的最適化問題として定式化し,概念除去と生成ユーティリティの保存とのバランスを明確化することである。
結果として生じる矛盾する目的を解決するために、暗黙の勾配手術に基づく効率的なユーティリティ保存型未学習戦略を導入する。
さらに,LoRAに基づくパラメータチューニングとアテンションレベル正規化を併用することにより,鍵となる視覚的表現の消去を抑え,空間的・時間的次元にわたって一貫した伝播を行う。
ビデオ設定では、アンカー・アンド・プロパゲート機構により、参照フレームの消去を初期化し、その後のトランスフォーマー層を通して強制することで、時間的ドリフトを緩和する。
画像とビデオのベンチマークにおいて、EraseAnything++は、有効性、生成的忠実性、時間的整合性を著しく向上し、次世代拡散モデルにおける概念消去のための新しい最先端技術を確立した。
関連論文リスト
- Differential Vector Erasure: Unified Training-Free Concept Erasure for Flow Matching Models [49.10620605347065]
本研究では,フローマッチングモデルに特化して設計されたトレーニング不要な概念消去手法である差分ベクトル消去(DVE)を提案する。
我々の重要な洞察は、意味論的概念は生成フローを管理する速度場の方向構造に暗黙的に符号化されていることである。
推論中、DVEは速度場を微分方向に投影することで概念固有の成分を選択的に除去し、無関係な意味論に影響を与えることなく正確な概念抑圧を可能にする。
論文 参考訳(メタデータ) (2026-02-01T08:05:45Z) - All-in-One Video Restoration under Smoothly Evolving Unknown Weather Degradations [102.94052335735326]
All-in-one画像復元は、単一のモデルを用いて、さまざまな未知の劣化からクリーンなイメージを復元することを目的としている。
既存のアプローチは主に、現実世界の劣化過程に自然に存在する時間的連続性を見越して、フレームワイドの劣化変動に焦点を当てている。
Smoothly Evolving Unknown Degradations (SEUD) のシナリオでは、アクティブな劣化セットと劣化強度の両方が時間とともに連続的に変化する。
論文 参考訳(メタデータ) (2026-01-02T02:20:57Z) - CGCE: Classifier-Guided Concept Erasure in Generative Models [53.7410000675294]
概念消去は、事前訓練されたモデルから望ましくない概念を取り除くために開発された。
既存の方法は、削除されたコンテンツを再生できる敵攻撃に弱いままである。
多様な生成モデルに対して堅牢な概念消去を提供する効率的なプラグアンドプレイフレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-08T05:38:18Z) - Zero-Residual Concept Erasure via Progressive Alignment in Text-to-Image Model [15.636542463543066]
概念消去は、事前訓練されたテキスト・ツー・イメージモデルがセマンティック・ハーミフルな概念に関連するコンテンツを生成するのを防ぐことを目的としている。
既存の手法は「非ゼロアライメント残差」による不完全消去をもたらすことが多い
より完全な概念消去と全体的な生成品質の保存を目的とした,新しいクローズドフォーム手法であるEraseProを提案する。
論文 参考訳(メタデータ) (2025-08-06T14:19:32Z) - TRACE: Trajectory-Constrained Concept Erasure in Diffusion Models [0.0]
概念消去は、生成モデルにおいて特定の概念情報を削除または抑制することを目的としている。
Trajectory-Constrained Attentional Concept Erasure (TRACE) は拡散モデルから対象概念を消去する新しい手法である。
TRACEは最先端のパフォーマンスを実現し、ANT、EraseAnything、MACEといった最近の手法よりも、除去効率と出力品質の点で優れています。
論文 参考訳(メタデータ) (2025-05-29T10:15:22Z) - SPEED: Scalable, Precise, and Efficient Concept Erasure for Diffusion Models [56.83154571623655]
モデルパラメータを直接編集する効率的な概念消去手法であるSPEEDを導入する。
Speedyは、パラメータ更新がターゲット以外の概念に影響しないモデル編集スペースであるnullスペースを検索する。
たった5秒で100のコンセプトを消去しました。
論文 参考訳(メタデータ) (2025-03-10T14:40:01Z) - EraseAnything: Enabling Concept Erasure in Rectified Flow Transformers [33.195628798316754]
EraseAnythingは、最新のフローベースのT2Iフレームワークにおける概念消去に対処するために特別に開発された最初の方法である。
概念消去を二段階最適化問題として定式化し,LoRAに基づくパラメータチューニングとアテンションマップ正規化器を用いた。
本研究では,意図しない概念の除去が意図せず,無関係な概念のパフォーマンスを損なうことのない自己矛盾型学習戦略を提案する。
論文 参考訳(メタデータ) (2024-12-29T09:42:53Z) - Reliable and Efficient Concept Erasure of Text-to-Image Diffusion Models [76.39651111467832]
本稿では,Reliable and Efficient Concept Erasure (RECE)を提案する。
派生した埋め込みによって表現される不適切なコンテンツを緩和するために、RECEはそれらをクロスアテンション層における無害な概念と整合させる。
新たな表現埋め込みの導出と消去を反復的に行い、不適切な概念の徹底的な消去を実現する。
論文 参考訳(メタデータ) (2024-07-17T08:04:28Z) - Cross-Consistent Deep Unfolding Network for Adaptive All-In-One Video
Restoration [78.14941737723501]
オールインワンVRのためのクロスコンセントディープ・アンフォールディング・ネットワーク(CDUN)を提案する。
2つのカスケード手順を編成することにより、CDUNは様々な劣化に対する適応的な処理を達成する。
さらに、より隣接するフレームからの情報を活用するために、ウィンドウベースのフレーム間融合戦略を導入する。
論文 参考訳(メタデータ) (2023-09-04T14:18:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。