論文の概要: Do Concept Replacement Techniques Really Erase Unacceptable Concepts?
- arxiv url: http://arxiv.org/abs/2506.08991v1
- Date: Tue, 10 Jun 2025 17:02:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:42.960469
- Title: Do Concept Replacement Techniques Really Erase Unacceptable Concepts?
- Title(参考訳): 概念代替技術は受け入れ難い概念を本当に排除するのか?
- Authors: Anudeep Das, Gurjot Singh, Prach Chantasantitam, N. Asokan,
- Abstract要約: 概念置換技術(CRT)は、しばしばモデルから受け入れられない概念を「取り除く」ことで、この問題に対処することを目的としている。
優れたCRTは、許容できない概念を置き換える一方で、生成モデルへの入力で指定された他の概念を保存すべきである、と我々は主張する。
本稿では,有効性と忠実性の両方を達成するために,ターゲット画像編集手法を提案する。
- 参考スコア(独自算出の注目度): 9.816422194344398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative models, particularly diffusion-based text-to-image (T2I) models, have demonstrated astounding success. However, aligning them to avoid generating content with unacceptable concepts (e.g., offensive or copyrighted content, or celebrity likenesses) remains a significant challenge. Concept replacement techniques (CRTs) aim to address this challenge, often by trying to "erase" unacceptable concepts from models. Recently, model providers have started offering image editing services which accept an image and a text prompt as input, to produce an image altered as specified by the prompt. These are known as image-to-image (I2I) models. In this paper, we first use an I2I model to empirically demonstrate that today's state-of-the-art CRTs do not in fact erase unacceptable concepts. Existing CRTs are thus likely to be ineffective in emerging I2I scenarios, despite their proven ability to remove unwanted concepts in T2I pipelines, highlighting the need to understand this discrepancy between T2I and I2I settings. Next, we argue that a good CRT, while replacing unacceptable concepts, should preserve other concepts specified in the inputs to generative models. We call this fidelity. Prior work on CRTs have neglected fidelity in the case of unacceptable concepts. Finally, we propose the use of targeted image-editing techniques to achieve both effectiveness and fidelity. We present such a technique, AntiMirror, and demonstrate its viability.
- Abstract(参考訳): 生成モデル、特に拡散ベースのテキスト・ツー・イメージ(T2I)モデルは驚くべき成功を収めている。
しかし、容認できない概念(たとえば、攻撃的または著作権のあるコンテンツ、または有名人のような)でコンテンツを生成するのを避けるためにそれらを調整することは、依然として大きな課題である。
概念置換技術(CRT)は、しばしばモデルから受け入れられない概念を「取り除く」ことで、この問題に対処することを目的としている。
近年、モデルプロバイダは、画像とテキストプロンプトを入力として受け入れる画像編集サービスを提供し、プロンプトが指定した画像を生成する。
これらはイメージ・ツー・イメージ(I2I)モデルとして知られている。
本稿では、まずI2Iモデルを用いて、現在の最先端のCRTが実際に受け入れられない概念を消去していないことを実証する。
既存のCRTは、T2Iパイプラインで望ましくない概念を削除できることが証明されたにもかかわらず、新興I2Iシナリオでは効果がない可能性が高い。
次に、許容できない概念を置き換えつつ、優れたCRTは、生成モデルへの入力で指定された他の概念を保存するべきであると論じる。
私たちはこれを忠実(fidelity)と呼ぶ。
CRTに関する以前の研究は、受け入れがたい概念の場合、忠実さを無視していた。
最後に,対象画像編集技術を用いて,有効性と忠実性を両立させる手法を提案する。
このような手法であるAntiMirrorを提案し、その可能性を実証する。
関連論文リスト
- Six-CD: Benchmarking Concept Removals for Benign Text-to-image Diffusion Models [58.74606272936636]
テキスト・ツー・イメージ(T2I)拡散モデルは、テキスト・プロンプトと密接に対応した画像を生成する際、例外的な機能を示す。
モデルは、暴力やヌードの画像を生成したり、不適切な文脈で公共の人物の無許可の肖像画を作成するなど、悪意ある目的のために利用することができる。
悪質な概念や望ましくない概念の発生を防ぐために拡散モデルを変更する概念除去法が提案されている。
論文 参考訳(メタデータ) (2024-06-21T03:58:44Z) - Espresso: Robust Concept Filtering in Text-to-Image Models [15.136993805135537]
Contrastive Language-Image Pre-Training (CLIP) に基づく最初のロバストな概念フィルタである Espresso を紹介する。
我々は、生成した画像の埋め込みから、受け入れがたい概念と許容できる概念の両方のテキスト埋め込みまでの距離を用いて、受け入れがたい概念を識別する。
これにより、ユーティリティを保ちながら、受け入れがたい概念と許容できる概念のテキスト埋め込みを分離することで、堅牢性を微調整できます。
論文 参考訳(メタデータ) (2024-04-30T03:13:06Z) - Implicit Concept Removal of Diffusion Models [92.55152501707995]
テキスト・ツー・イメージ(T2I)拡散モデルはしばしば、透かしや安全でない画像のような望ましくない概念を不注意に生成する。
幾何学駆動制御に基づく新しい概念除去手法であるGeom-Erasingを提案する。
論文 参考訳(メタデータ) (2023-10-09T17:13:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。