論文の概要: PurifyGen: A Risk-Discrimination and Semantic-Purification Model for Safe Text-to-Image Generation
- arxiv url: http://arxiv.org/abs/2512.23546v1
- Date: Mon, 29 Dec 2025 15:37:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.561155
- Title: PurifyGen: A Risk-Discrimination and Semantic-Purification Model for Safe Text-to-Image Generation
- Title(参考訳): PurifyGen: 安全なテキスト・画像生成のためのリスク識別とセマンティック・パーフィケーションモデル
- Authors: Zongsheng Cao, Yangfan He, Anran Liu, Jun Xie, Feng Chen, Zepeng Wang,
- Abstract要約: PurifyGenは、モデルのオリジナルの重量を保持する安全なT2I生成のためのトレーニング不要のアプローチである。
我々は,その相補的意味距離を計算し,各トークンの安全性を評価する。
有害な概念行列のヌル空間への有毒なアラインな埋め込みを計画し、有害な意味成分を効果的に除去する。
- 参考スコア(独自算出の注目度): 14.570869250170139
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in diffusion models have notably enhanced text-to-image (T2I) generation quality, but they also raise the risk of generating unsafe content. Traditional safety methods like text blacklisting or harmful content classification have significant drawbacks: they can be easily circumvented or require extensive datasets and extra training. To overcome these challenges, we introduce PurifyGen, a novel, training-free approach for safe T2I generation that retains the model's original weights. PurifyGen introduces a dual-stage strategy for prompt purification. First, we evaluate the safety of each token in a prompt by computing its complementary semantic distance, which measures the semantic proximity between the prompt tokens and concept embeddings from predefined toxic and clean lists. This enables fine-grained prompt classification without explicit keyword matching or retraining. Tokens closer to toxic concepts are flagged as risky. Second, for risky prompts, we apply a dual-space transformation: we project toxic-aligned embeddings into the null space of the toxic concept matrix, effectively removing harmful semantic components, and simultaneously align them into the range space of clean concepts. This dual alignment purifies risky prompts by both subtracting unsafe semantics and reinforcing safe ones, while retaining the original intent and coherence. We further define a token-wise strategy to selectively replace only risky token embeddings, ensuring minimal disruption to safe content. PurifyGen offers a plug-and-play solution with theoretical grounding and strong generalization to unseen prompts and models. Extensive testing shows that PurifyGen surpasses current methods in reducing unsafe content across five datasets and competes well with training-dependent approaches. The code can refer to https://github.com/AI-Researcher-Team/PurifyGen.
- Abstract(参考訳): 近年の拡散モデルでは、テキスト・ツー・イメージ(T2I)生成の品質が向上しているが、安全でないコンテンツを生成するリスクも高まっている。
テキストブラックリストや有害コンテンツ分類といった従来の安全手法には大きな欠点がある。
これらの課題を克服するために、モデル本来の重みを保持する安全なT2I生成のための、新しい、トレーニング不要なアプローチであるPureifyGenを紹介します。
PurifyGenは、迅速な浄化のためのデュアルステージ戦略を導入している。
まず, その相補的意味距離を計算して各トークンの安全性を評価し, 予め定義された有害かつクリーンなリストから, トークンと概念の埋め込みとのセマンティックな近接度を測定する。
これにより、明示的なキーワードマッチングや再トレーニングなしに、きめ細かいプロンプト分類が可能になる。
有害な概念に近いトークンは危険であるとフラグ付けされる。
第二に、リスクのあるプロンプトに対しては、有毒な概念行列のヌル空間への有毒な整列埋め込みを計画し、有害な意味成分を効果的に除去し、それらをクリーンな概念の範囲空間に同時に配置する。
この二重アライメントは、安全でないセマンティクスを減らし、元の意図と一貫性を維持しながら安全なセマンティクスを強化することによってリスクのあるプロンプトを浄化する。
さらに、リスクの高いトークン埋め込みのみを選択的に置き換え、安全なコンテンツに対する最小限の破壊を確実にするトークンワイズ戦略を定義します。
PurifyGenは、理論的な基礎と、目に見えないプロンプトとモデルへの強力な一般化を備えたプラグアンドプレイソリューションを提供する。
大規模なテストの結果、PurifyGenは5つのデータセットにわたる安全でないコンテンツを削減し、トレーニング依存のアプローチとよく競合する現在の方法を上回っている。
コードはhttps://github.com/AI-Researcher-Team/PurifyGenを参照。
関連論文リスト
- CGCE: Classifier-Guided Concept Erasure in Generative Models [53.7410000675294]
概念消去は、事前訓練されたモデルから望ましくない概念を取り除くために開発された。
既存の方法は、削除されたコンテンツを再生できる敵攻撃に弱いままである。
多様な生成モデルに対して堅牢な概念消去を提供する効率的なプラグアンドプレイフレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-08T05:38:18Z) - SafeCtrl: Region-Based Safety Control for Text-to-Image Diffusion via Detect-Then-Suppress [48.20360860166279]
SafeCtrlは軽量で非侵襲的なプラグインで、まず安全でないコンテンツを正確にローカライズします。
強硬なA-to-B置換を行う代わりに、SafeCtrlは有害なセマンティクスを抑える。
論文 参考訳(メタデータ) (2025-08-16T04:28:52Z) - GenBreak: Red Teaming Text-to-Image Generators Using Large Language Models [65.91565607573786]
テキスト・ツー・イメージ(T2I)モデルは、ヌードや暴力を含む有害なコンテンツを生成するために誤用することができる。
近年のT2Iモデルに対する赤チーム攻撃と敵攻撃は、顕著な制限がある。
我々は、基盤となる脆弱性を体系的に調査するために、レッドチーム大言語モデル(LLM)を微調整するフレームワークであるGenBreakを提案する。
論文 参考訳(メタデータ) (2025-06-11T09:09:12Z) - Safe Text-to-Image Generation: Simply Sanitize the Prompt Embedding [16.188657772178747]
本研究では,不適切な概念を迅速に埋め込むことで,テキスト・ツー・イメージモデルの安全性を高めるEmbeded Sanitizer (ES)を提案する。
ESは、その潜在的な有害性を示すプロンプトにおいて各トークンにスコアを割り当てる最初の解釈可能な安全な生成フレームワークである。
論文 参考訳(メタデータ) (2024-11-15T16:29:02Z) - SAFREE: Training-Free and Adaptive Guard for Safe Text-to-Image And Video Generation [65.30207993362595]
安全な生成のための学習/編集に基づく手法は、モデルから有害な概念を取り除くが、いくつかの課題に直面している。
安全なT2IとT2VのためのトレーニングフリーアプローチであるSAFREEを提案する。
テキスト埋め込み空間における有毒な概念の集合に対応する部分空間を検出し、この部分空間から直ちに埋め込みを行う。
論文 参考訳(メタデータ) (2024-10-16T17:32:23Z) - Constructing Highly Inductive Contexts for Dialogue Safety through
Controllable Reverse Generation [65.48908724440047]
そこで本稿では,ある応答に条件付けされた逆コンテキストを構築するために,エンフレバース生成と呼ばれる手法を提案する。
我々は,Blender,DialoGPT,Plato2の3種類の事前訓練済み対話モデルをテストする。
論文 参考訳(メタデータ) (2022-12-04T12:23:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。