論文の概要: SP-Guard: Selective Prompt-adaptive Guidance for Safe Text-to-Image Generation
- arxiv url: http://arxiv.org/abs/2511.11014v1
- Date: Fri, 14 Nov 2025 07:04:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.467956
- Title: SP-Guard: Selective Prompt-adaptive Guidance for Safe Text-to-Image Generation
- Title(参考訳): SP-Guard: 安全なテキスト・画像生成のための選択型プロンプト適応ガイダンス
- Authors: Sumin Yu, Taesup Moon,
- Abstract要約: 拡散ベースのT2Iモデルは、優れた画像生成品質を達成した。
また、有害なコンテンツを容易に作成できる。
また,SP-Guard法は,これらの制約に対処し,迅速な有害性を推定し,選択的誘導マスクを適用した。
- 参考スコア(独自算出の注目度): 21.845417608250035
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While diffusion-based T2I models have achieved remarkable image generation quality, they also enable easy creation of harmful content, raising social concerns and highlighting the need for safer generation. Existing inference-time guiding methods lack both adaptivity--adjusting guidance strength based on the prompt--and selectivity--targeting only unsafe regions of the image. Our method, SP-Guard, addresses these limitations by estimating prompt harmfulness and applying a selective guidance mask to guide only unsafe areas. Experiments show that SP-Guard generates safer images than existing methods while minimizing unintended content alteration. Beyond improving safety, our findings highlight the importance of transparency and controllability in image generation.
- Abstract(参考訳): 拡散ベースのT2Iモデルは優れた画像生成品質を達成する一方で、有害なコンテンツの作成を容易にし、社会的関心を高め、より安全な生成の必要性を強調している。
既存の推論時間誘導法には、適応性-プロンプトと選択性に基づくガイダンス強度の調整--画像の安全でない領域のみを対象としている。
本手法は,危険度を推定し,安全でない地域のみを誘導するために選択的誘導マスクを適用することで,これらの制約に対処する。
実験の結果,SP-Guardは意図しない内容の変更を最小限に抑えつつ,既存の手法よりも安全な画像を生成することがわかった。
安全性の向上以外にも,画像生成における透明性と可制御性の重要性が注目されている。
関連論文リスト
- SafetyPairs: Isolating Safety Critical Image Features with Counterfactual Image Generation [5.313750874857107]
安全ポリシーに関連する機能にのみ異なる、対物的な画像を生成するためのフレームワークであるSafetyPairsを紹介する。
SafetyPairsを使って、評価データの強力なソースとなる新しい安全ベンチマークを構築します。
我々は,9つの安全カテゴリーの分類学にまたがる3,020以上のSafetyPair画像を含むベンチマークを公表した。
論文 参考訳(メタデータ) (2025-10-24T03:19:48Z) - SafeGuider: Robust and Practical Content Safety Control for Text-to-Image Models [74.11062256255387]
テキスト・ツー・イメージのモデルは、安全対策を回避し、有害なコンテンツを生成できる敵のプロンプトに対して非常に脆弱である。
SafeGuiderは, 生成品質を損なうことなく, 堅牢な安全制御を実現するための2段階のフレームワークである。
SafeGuiderは攻撃成功率の最小化において例外的な効果を示し、様々な攻撃シナリオで最大速度は5.48%である。
論文 参考訳(メタデータ) (2025-10-05T10:24:48Z) - SafeCtrl: Region-Based Safety Control for Text-to-Image Diffusion via Detect-Then-Suppress [48.20360860166279]
SafeCtrlは軽量で非侵襲的なプラグインで、まず安全でないコンテンツを正確にローカライズします。
強硬なA-to-B置換を行う代わりに、SafeCtrlは有害なセマンティクスを抑える。
論文 参考訳(メタデータ) (2025-08-16T04:28:52Z) - PromptSafe: Gated Prompt Tuning for Safe Text-to-Image Generation [30.2092299298228]
テキスト・ツー・イメージ(T2I)モデルは、暴力的または明示的なイメージなど、安全でない作業用コンテンツ(NSFW)の生成に脆弱である。
本稿では,軽量でテキストのみを教師付きソフト埋め込みと,推論時間付きゲート制御ネットワークを組み合わせたゲートプロンプトチューニングフレームワークであるPromptSafeを提案する。
PromptSafeはSOTAの安全でない生成率(2.36%)を達成し,高い良性を維持していることを示す。
論文 参考訳(メタデータ) (2025-08-02T09:09:40Z) - PromptGuard: Soft Prompt-Guided Unsafe Content Moderation for Text-to-Image Models [38.45239843869313]
テキスト・ツー・イメージ(T2I)モデルは、テキスト記述から高品質な画像を生成する際、顕著な性能を示した。
T2Iモデルは、特にNSFW(Not-safe-for-work)コンテンツを生成する誤用に対して脆弱である。
本稿では,大規模言語モデルにおけるシステムプロンプト機構からインスピレーションを得る新しいコンテンツモデレーション手法であるPromptGuardを紹介する。
論文 参考訳(メタデータ) (2025-01-07T05:39:21Z) - SAFREE: Training-Free and Adaptive Guard for Safe Text-to-Image And Video Generation [65.30207993362595]
安全な生成のための学習/編集に基づく手法は、モデルから有害な概念を取り除くが、いくつかの課題に直面している。
安全なT2IとT2VのためのトレーニングフリーアプローチであるSAFREEを提案する。
テキスト埋め込み空間における有毒な概念の集合に対応する部分空間を検出し、この部分空間から直ちに埋め込みを行う。
論文 参考訳(メタデータ) (2024-10-16T17:32:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。