論文の概要: Bi-Erasing: A Bidirectional Framework for Concept Removal in Diffusion Models
- arxiv url: http://arxiv.org/abs/2512.13039v2
- Date: Tue, 16 Dec 2025 09:24:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 14:48:05.961587
- Title: Bi-Erasing: A Bidirectional Framework for Concept Removal in Diffusion Models
- Title(参考訳): Bi-Erasing:拡散モデルの概念除去のための双方向フレームワーク
- Authors: Hao Chen, Yiwei Wang, Songze Li,
- Abstract要約: 概念消去は、テキスト・ツー・イメージ・モデルにおいて、安全でない、あるいは違法な画像生成を緩和する主要なアプローチとなっている。
本稿では,概念抑制と安全性向上を同時に行う双方向画像誘導概念消去(Bidirectional Image-Guided Concept Erasure, Bi-Erasing)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 32.35244979539898
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Concept erasure, which fine-tunes diffusion models to remove undesired or harmful visual concepts, has become a mainstream approach to mitigating unsafe or illegal image generation in text-to-image models.However, existing removal methods typically adopt a unidirectional erasure strategy by either suppressing the target concept or reinforcing safe alternatives, making it difficult to achieve a balanced trade-off between concept removal and generation quality. To address this limitation, we propose a novel Bidirectional Image-Guided Concept Erasure (Bi-Erasing) framework that performs concept suppression and safety enhancement simultaneously. Specifically, based on the joint representation of text prompts and corresponding images, Bi-Erasing introduces two decoupled image branches: a negative branch responsible for suppressing harmful semantics and a positive branch providing visual guidance for safe alternatives. By jointly optimizing these complementary directions, our approach achieves a balance between erasure efficacy and generation usability. In addition, we apply mask-based filtering to the image branches to prevent interference from irrelevant content during the erasure process. Across extensive experiment evaluations, the proposed Bi-Erasing outperforms baseline methods in balancing concept removal effectiveness and visual fidelity.
- Abstract(参考訳): 望ましくない、有害な視覚概念を除去するための微細な拡散モデルである概念消去は、テキスト・ツー・イメージモデルにおいて、安全でない、あるいは違法な画像生成を緩和するための主流のアプローチとなっているが、既存の除去方法は、目標概念の抑制や安全な代替品の強化によって一方向の消去戦略を採用するのが一般的であり、概念除去と生成品質のバランスの取れたトレードオフを達成することは困難である。
この制限に対処するために,概念抑制と安全性向上を同時に行う双方向画像誘導概念消去(Bidirectional Image-Guided Concept Erasure, Bi-Erasing)フレームワークを提案する。
具体的には、テキストプロンプトと対応する画像の合同表現に基づいて、Bi-Erasingは2つの分離されたイメージブランチを導入している。
これらの相補的な方向を協調的に最適化することにより, 消去効果と生成ユーザビリティのバランスがとれる。
さらに,画像枝にマスクベースのフィルタリングを適用し,消去過程における無関係な内容の干渉を防止する。
広範に実験を行った結果,Bio-Erasingは概念除去効果と視覚的忠実さのバランスをとる上で,ベースライン法よりも優れていた。
関連論文リスト
- ConceptPrism: Concept Disentanglement in Personalized Diffusion Models via Residual Token Optimization [11.472088067393074]
ConceptPrismは、画像固有の残留物から共有視覚概念を自動的に切り離す新しいフレームワークである。
実験では、ConceptPrismは概念の絡み合いを効果的に解決し、忠実さと整合性の間のトレードオフを著しく改善する。
論文 参考訳(メタデータ) (2026-02-23T07:46:19Z) - Consistency-Preserving Concept Erasure via Unsafe-Safe Pairing and Directional Fisher-weighted Adaptation [17.59828667571619]
既存の概念消去アプローチは、対応する安全な代替手段へのガイダンスを提供することなく、安全でない概念を取り除くことに重点を置いている。
PAIRed Erasing(PAIRed Erasing)という新しいフレームワークを提案し、単純な削除から一貫性を保つセマンティックアライメントへと概念の消去を再構築する。
提案手法は, 構造的整合性, セマンティック・コヒーレンス, 生成品質を保ちながら, 効率的な概念消去を実現し, 最先端のベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2026-02-05T06:05:24Z) - Differential Vector Erasure: Unified Training-Free Concept Erasure for Flow Matching Models [49.10620605347065]
本研究では,フローマッチングモデルに特化して設計されたトレーニング不要な概念消去手法である差分ベクトル消去(DVE)を提案する。
我々の重要な洞察は、意味論的概念は生成フローを管理する速度場の方向構造に暗黙的に符号化されていることである。
推論中、DVEは速度場を微分方向に投影することで概念固有の成分を選択的に除去し、無関係な意味論に影響を与えることなく正確な概念抑圧を可能にする。
論文 参考訳(メタデータ) (2026-02-01T08:05:45Z) - GrOCE:Graph-Guided Online Concept Erasure for Text-to-Image Diffusion Models [24.278300091974085]
概念消去は、テキストから画像への拡散モデルから有害、不適切、または著作権のあるコンテンツを除去することを目的としている。
本稿では,GrOCE(Graph-Guided Online Concept Erasure)を提案する。
論文 参考訳(メタデータ) (2025-11-17T04:47:16Z) - VCE: Safe Autoregressive Image Generation via Visual Contrast Exploitation [57.36681904639463]
自己回帰的テキスト・画像モデルを保護する方法はまだ未検討のままである。
コンテンツセマンティクスから安全でない概念を正確に分離する新しいフレームワークであるVisual Contrast Exploitation (VCE)を提案する。
提案手法は,安全でない概念を消去し,無関係な概念の整合性を保ちながら,最先端の成果を効果的に確保できることを実証する。
論文 参考訳(メタデータ) (2025-09-21T09:00:27Z) - Concept Pinpoint Eraser for Text-to-image Diffusion Models via Residual Attention Gate [10.996274286143244]
拡散モデルにおける対象概念を最小限の歪みで保存しながら削除することを目的として,概念消去について検討した。
本研究では, 対象概念を選択的に消去(あるいはカット)するEmphnonlinear Residual Attention Gates (ResAGs) を追加することで, 概念ピンポイント消去 (Concept Pinpoint Eraser, CPE) と呼ばれる新しいフレームワークを提案する。
CPEは、様々な概念を維持しながら、攻撃プロンプトに対する堅牢さで目標概念を削除し、先行技術より優れています。
論文 参考訳(メタデータ) (2025-06-28T08:17:19Z) - TRACE: Trajectory-Constrained Concept Erasure in Diffusion Models [0.0]
概念消去は、生成モデルにおいて特定の概念情報を削除または抑制することを目的としている。
Trajectory-Constrained Attentional Concept Erasure (TRACE) は拡散モデルから対象概念を消去する新しい手法である。
TRACEは最先端のパフォーマンスを実現し、ANT、EraseAnything、MACEといった最近の手法よりも、除去効率と出力品質の点で優れています。
論文 参考訳(メタデータ) (2025-05-29T10:15:22Z) - One Image is Worth a Thousand Words: A Usability Preservable Text-Image Collaborative Erasing Framework [127.07102988701092]
我々は、最初のテキストイメージ協調概念消去(Co-Erasing)フレームワークを紹介する。
Co-Erasingは、テキストプロンプトと、プロンプトによって誘導されるそれに対応する望ましくないイメージによって、この概念を共同で記述する。
我々は,テキストガイドによる画像概念の洗練戦略を設計し,特定のテキスト概念に最も関係のある視覚的特徴に焦点を当てるようモデルに指示する。
論文 参考訳(メタデータ) (2025-05-16T11:25:50Z) - Fine-Grained Erasure in Text-to-Image Diffusion-based Foundation Models [56.35484513848296]
FADE(Fine grained Attenuation for Diffusion Erasure)は、テキストから画像への生成モデルのための非学習アルゴリズムである。
関連する概念に最小限の影響で目標概念を排除し、最先端の手法よりも保持性能が12%向上した。
論文 参考訳(メタデータ) (2025-03-25T15:49:48Z) - TRCE: Towards Reliable Malicious Concept Erasure in Text-to-Image Diffusion Models [53.937498564603054]
近年のテキスト・画像拡散モデルの進歩により、フォトリアリスティックな画像生成が可能になったが、NSFW画像のような悪意のあるコンテンツを生成するリスクもある。
リスクを軽減するため,概念消去手法が研究され,モデルが特定の概念を学習しやすくする。
本稿では,2段階のコンセプト消去戦略を用いて,信頼性の高い消去と知識保存の効果的なトレードオフを実現するTRCEを提案する。
論文 参考訳(メタデータ) (2025-03-10T14:37:53Z) - Growth Inhibitors for Suppressing Inappropriate Image Concepts in Diffusion Models [35.2881940850787]
テキストと画像の拡散モデルは、広範かつ未フィルタリングのトレーニングデータから不適切な概念を不適切な方法で学習する。
本手法は,画像レベルでの微妙な単語の出現を効果的に捉え,ターゲット概念の直接的かつ効率的な消去を可能にする。
論文 参考訳(メタデータ) (2024-08-02T05:17:14Z) - Six-CD: Benchmarking Concept Removals for Benign Text-to-image Diffusion Models [58.74606272936636]
テキスト・ツー・イメージ(T2I)拡散モデルは、テキスト・プロンプトと密接に対応した画像を生成する際、例外的な機能を示す。
モデルは、暴力やヌードの画像を生成したり、不適切な文脈で公共の人物の無許可の肖像画を作成するなど、悪意ある目的のために利用することができる。
悪質な概念や望ましくない概念の発生を防ぐために拡散モデルを変更する概念除去法が提案されている。
論文 参考訳(メタデータ) (2024-06-21T03:58:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。