論文の概要: ACE: Concept Editing in Diffusion Models without Performance Degradation
- arxiv url: http://arxiv.org/abs/2503.08116v1
- Date: Tue, 11 Mar 2025 07:30:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 15:43:38.239937
- Title: ACE: Concept Editing in Diffusion Models without Performance Degradation
- Title(参考訳): ACE: 性能劣化のない拡散モデルにおける概念編集
- Authors: Ruipeng Wang, Junfeng Fang, Jiaqi Li, Hao Chen, Jie Shi, Kun Wang, Xiang Wang,
- Abstract要約: 拡散に基づくテキスト-画像モデルでは、現実的な画像を生成する際、顕著な能力を示した。
彼らは、安全でないコンテンツの作成など、社会的および倫理的な懸念を提起する。
拡散モデルにおける概念編集を強化する新しい編集手法であるACEを提案する。
- 参考スコア(独自算出の注目度): 14.874352344948482
- License:
- Abstract: Diffusion-based text-to-image models have demonstrated remarkable capabilities in generating realistic images, but they raise societal and ethical concerns, such as the creation of unsafe content. While concept editing is proposed to address these issues, they often struggle to balance the removal of unsafe concept with maintaining the model's general genera-tive capabilities. In this work, we propose ACE, a new editing method that enhances concept editing in diffusion models. ACE introduces a novel cross null-space projection approach to precisely erase unsafe concept while maintaining the model's ability to generate high-quality, semantically consistent images. Extensive experiments demonstrate that ACE significantly outperforms the advancing baselines,improving semantic consistency by 24.56% and image generation quality by 34.82% on average with only 1% of the time cost. These results highlight the practical utility of concept editing by mitigating its potential risks, paving the way for broader applications in the field. Code is avaliable at https://github.com/littlelittlenine/ACE-zero.git
- Abstract(参考訳): 拡散に基づくテキスト・ツー・イメージモデルは、現実的な画像を生成する際、顕著な能力を示してきたが、それらは、安全でないコンテンツの作成のような社会的・倫理的な懸念を提起している。
概念編集はこれらの問題に対処するために提案されているが、安全でない概念の除去とモデルの一般的な遺伝子編集能力のバランスをとるのに苦労することが多い。
本研究では,拡散モデルにおける概念編集を強化する新しい編集手法であるACEを提案する。
ACEは、安全でない概念を正確に消去し、高品質でセマンティックな一貫性のある画像を生成する能力を維持しながら、新しいクロスヌルスペースプロジェクションアプローチを導入している。
大規模な実験では、ACEは進行するベースラインを著しく上回り、セマンティック一貫性を24.56%向上し、画像生成品質を平均34.82%向上させ、時間コストの1%に過ぎなかった。
これらの結果は、その潜在的なリスクを軽減し、この分野の幅広い応用への道を開くことで、概念編集の実用性を強調している。
Code is avaliable at https://github.com/littlelittlenine/ACE-zero.git
関連論文リスト
- Concept Steerers: Leveraging K-Sparse Autoencoders for Controllable Generations [10.86252546314626]
テキスト・ツー・イメージ生成モデルは、敵対的な攻撃をしがちであり、不安全で非倫理的なコンテンツを不注意に生成する。
我々は,k-スパースオートエンコーダ(k-SAE)を活用して,効率的な,解釈可能な概念操作を実現する新しいフレームワークを提案する。
提案手法は, 安全でない概念除去において$mathbf20.01%$の改善を実現し, スタイル操作に有効であり, 現在の最先端技術よりも$mathbfsim5$x高速である。
論文 参考訳(メタデータ) (2025-01-31T11:52:47Z) - ACE: Anti-Editing Concept Erasure in Text-to-Image Models [73.00930293474009]
既存の概念消去手法は、削除された概念がプロンプトから生成されるのを防ぐために優れた結果が得られる。
本稿では、生成時にターゲット概念を消去するだけでなく、編集時に除去する反編集概念消去(ACE)手法を提案する。
論文 参考訳(メタデータ) (2025-01-03T04:57:27Z) - Safety Without Semantic Disruptions: Editing-free Safe Image Generation via Context-preserving Dual Latent Reconstruction [88.18235230849554]
大規模で未処理のデータセットでマルチモーダル生成モデルをトレーニングすることで、ユーザは有害で安全でない、議論の余地のない、文化的に不適切なアウトプットにさらされる可能性がある。
我々は、安全な埋め込みと、より安全な画像を生成するために、潜伏空間の重み付け可能な総和による修正拡散プロセスを活用する。
安全と検閲のトレードオフを特定し、倫理的AIモデルの開発に必要な視点を提示します。
論文 参考訳(メタデータ) (2024-11-21T09:47:13Z) - Reliable and Efficient Concept Erasure of Text-to-Image Diffusion Models [76.39651111467832]
本稿では,Reliable and Efficient Concept Erasure (RECE)を提案する。
派生した埋め込みによって表現される不適切なコンテンツを緩和するために、RECEはそれらをクロスアテンション層における無害な概念と整合させる。
新たな表現埋め込みの導出と消去を反復的に行い、不適切な概念の徹底的な消去を実現する。
論文 参考訳(メタデータ) (2024-07-17T08:04:28Z) - Safeguard Text-to-Image Diffusion Models with Human Feedback Inversion [51.931083971448885]
本稿では,Human Feedback Inversion (HFI) というフレームワークを提案する。
実験の結果,画像品質を維持しながら,好ましくないコンテンツ生成を著しく削減し,公的な領域におけるAIの倫理的展開に寄与することが示された。
論文 参考訳(メタデータ) (2024-07-17T05:21:41Z) - MACE: Mass Concept Erasure in Diffusion Models [11.12833789743765]
我々は、マス・コンセプト・エミッションのタスクのための微調整・フレームワークであるMACEを紹介した。
このタスクは、トリガー時に不要な概念を具現化した画像が生成されるのを防ぐことを目的としている。
我々は,4つのタスクにまたがる先行手法に対して,MISを広範囲に評価する。
論文 参考訳(メタデータ) (2024-03-10T08:50:56Z) - Ring-A-Bell! How Reliable are Concept Removal Methods for Diffusion Models? [52.238883592674696]
Ring-A-Bellは、T2I拡散モデルのためのモデルに依存しないレッドチームツールである。
これは、不適切なコンテンツの生成に対応する拡散モデルに対する問題的プロンプトを特定する。
この結果から,安全プロンプトベンチマークの操作により,既存の安全メカニズムを回避できると考えられるプロンプトを変換できることが示唆された。
論文 参考訳(メタデータ) (2023-10-16T02:11:20Z) - Towards Safe Self-Distillation of Internet-Scale Text-to-Image Diffusion
Models [63.20512617502273]
テキストから画像への拡散モデルにおいて,問題のあるコンテンツ生成を防止するため,SDDと呼ばれる手法を提案する。
本手法は,画像の全体的な品質を劣化させることなく,生成した画像から有害なコンテンツをはるかに多く除去する。
論文 参考訳(メタデータ) (2023-07-12T07:48:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。