論文の概要: ReVision : A Post-Hoc, Vision-Based Technique for Replacing Unacceptable Concepts in Image Generation Pipeline
- arxiv url: http://arxiv.org/abs/2602.19149v1
- Date: Sun, 22 Feb 2026 12:30:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.505334
- Title: ReVision : A Post-Hoc, Vision-Based Technique for Replacing Unacceptable Concepts in Image Generation Pipeline
- Title(参考訳): ReVision : 画像生成パイプラインにおける受け入れ難い概念を再現するポストホック・ビジョンベース手法
- Authors: Gurjot Singh, Prabhjot Singh, Aashima Sharma, Maninder Singh, Ryan Ko,
- Abstract要約: ReVisionは、イメージ生成パイプラインのためのトレーニング不要、プロンプトベース、ポストホックセーフティフレームワークである。
基本となるジェネレータを変更することなく、安全でない概念を選択的に編集する。
Gemini-2.5-Flashモデルを一般的なポリシー違反の概念検出器として使用している。
- 参考スコア(独自算出の注目度): 0.695942427153803
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image-generative models are widely deployed across industries. Recent studies show that they can be exploited to produce policy-violating content. Existing mitigation strategies primarily operate at the pre- or mid-generation stages through techniques such as prompt filtering and safety-aware training/fine-tuning. Prior work shows that these approaches can be bypassed and often degrade generative quality. In this work, we propose ReVision, a training-free, prompt-based, post-hoc safety framework for image-generation pipeline. ReVision acts as a last-line defense by analyzing generated images and selectively editing unsafe concepts without altering the underlying generator. It uses the Gemini-2.5-Flash model as a generic policy-violating concept detector, avoiding reliance on multiple category-specific detectors, and performs localized semantic editing to replace unsafe content. Prior post-hoc editing methods often rely on imprecise spatial localization, that undermines usability and limits deployability, particularly in multi-concept scenes. To address this limitation, ReVision introduces a VLM-assisted spatial gating mechanism that enforces instance-consistent localization, enabling precise edits while preserving scene integrity. We evaluate ReVision on a 245-image benchmark covering both single- and multi-concept scenarios. Results show that ReVision (i) improves CLIP-based alignment toward safe prompts by +$0.121$ on average; (ii) significantly improves multi-concept background fidelity (LPIPS $0.166 \rightarrow 0.058$); (iii) achieves near-complete suppression on category-specific detectors (e.g., NudeNet $70.51 \rightarrow 0$); and (iv) reduces policy-violating content recognizability in a human moderation study from $95.99\%$ to $10.16\%$.
- Abstract(参考訳): 画像生成モデルは産業全体に広く展開されている。
近年の研究では、政策違反コンテンツの生成に活用できることが示されている。
既存の緩和戦略は、主に前または中世代の段階で、プロンプトフィルタリングや安全に配慮したトレーニング/ファインチューニングといった技術を通して運用されている。
以前の研究は、これらのアプローチがバイパスされ、しばしば生成品質を低下させる可能性があることを示している。
本研究では、画像生成パイプラインのためのトレーニングフリーで、プロンプトベース、ポストホック安全フレームワークであるReVisionを提案する。
ReVisionは、生成したイメージを分析し、基礎となるジェネレータを変更することなく、安全でない概念を選択的に編集することで、最後の防衛として機能する。
Gemini-2.5-Flashモデルを一般的なポリシー違反の概念検出器として使用し、複数のカテゴリ固有の検出器への依存を回避し、非安全コンテンツを置き換えるために局所的なセマンティック編集を行う。
以前のポストホック編集法は、特にマルチコンセプトシーンにおいて、ユーザビリティやデプロイの制限を損なう不正確な空間的ローカライゼーションに頼っていることが多い。
この制限に対処するため、ReVisionはVLM支援の空間ゲーティング機構を導入し、インスタンス一貫性のあるローカライゼーションを強制し、シーンの完全性を維持しながら正確な編集を可能にする。
シングルコンセプションとマルチコンセプションの両方をカバーする245イメージのベンチマークでReVisionを評価する。
結果からReVisionは
(i)安全プロンプトに対するCLIPベースのアライメントを平均0.121ドルで改善する。
(ii)マルチコンセプト背景忠実度を大幅に改善(LPIPS $0.166 \rightarrow 0.058$)。
三)カテゴリー別検出器(例えば、NudeNet 70.51 \rightarrow 0$)のほぼ完全な抑制を実現し、
(iv)人間のモデレーション研究において、ポリシー違反のコンテンツ認識能力は、95.99 %$から10.16 %$に低下する。
関連論文リスト
- SafeRedir: Prompt Embedding Redirection for Robust Unlearning in Image Generation Models [67.84174763413178]
我々はSafeRedirを紹介した。SafeRedirは、迅速な埋め込みリダイレクトによる堅牢なアンラーニングのための軽量な推論時フレームワークである。
SafeRedirは,効果的な非学習能力,意味的・知覚的保存能力,堅牢な画像品質,対人攻撃に対する耐性の向上を実現している。
論文 参考訳(メタデータ) (2026-01-13T15:01:38Z) - ConceptGuard: Proactive Safety in Text-and-Image-to-Video Generation through Multimodal Risk Detection [27.47621607462884]
ConceptGuardは、マルチモーダルビデオ生成において、安全でないセマンティクスを積極的に検出し緩和するフレームワークである。
コントラスト検出モジュールは、融合画像テキスト入力を構造化概念空間に投影することにより、潜伏する安全リスクを特定する。
意味的抑制機構は、プロンプトのマルチモーダル条件を介在することにより、生成過程を安全でない概念から遠ざける。
論文 参考訳(メタデータ) (2025-11-24T05:27:05Z) - SafeVision: Efficient Image Guardrail with Robust Policy Adherence and Explainability [49.074914896839466]
我々は,適応性と透明性を高めるために人間ライクな推論を統合する新しいイメージガードレールであるSafeVisionを紹介する。
提案手法には,効率的なデータ収集・生成フレームワーク,ポリシフォロートレーニングパイプライン,カスタマイズされた損失関数が組み込まれている。
SafeVisionは、異なるベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-10-28T00:35:59Z) - SafeCtrl: Region-Based Safety Control for Text-to-Image Diffusion via Detect-Then-Suppress [48.20360860166279]
SafeCtrlは軽量で非侵襲的なプラグインで、まず安全でないコンテンツを正確にローカライズします。
強硬なA-to-B置換を行う代わりに、SafeCtrlは有害なセマンティクスを抑える。
論文 参考訳(メタデータ) (2025-08-16T04:28:52Z) - Safety Without Semantic Disruptions: Editing-free Safe Image Generation via Context-preserving Dual Latent Reconstruction [88.18235230849554]
大規模で未処理のデータセットでマルチモーダル生成モデルをトレーニングすることで、ユーザは有害で安全でない、議論の余地のない、文化的に不適切なアウトプットにさらされる可能性がある。
我々は、安全な埋め込みと、より安全な画像を生成するために、潜伏空間の重み付け可能な総和による修正拡散プロセスを活用する。
安全と検閲のトレードオフを特定し、倫理的AIモデルの開発に必要な視点を提示します。
論文 参考訳(メタデータ) (2024-11-21T09:47:13Z) - Cross-Consistent Deep Unfolding Network for Adaptive All-In-One Video
Restoration [78.14941737723501]
オールインワンVRのためのクロスコンセントディープ・アンフォールディング・ネットワーク(CDUN)を提案する。
2つのカスケード手順を編成することにより、CDUNは様々な劣化に対する適応的な処理を達成する。
さらに、より隣接するフレームからの情報を活用するために、ウィンドウベースのフレーム間融合戦略を導入する。
論文 参考訳(メタデータ) (2023-09-04T14:18:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。