論文の概要: Wukong Framework for Not Safe For Work Detection in Text-to-Image systems
- arxiv url: http://arxiv.org/abs/2508.00591v1
- Date: Fri, 01 Aug 2025 12:45:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.880431
- Title: Wukong Framework for Not Safe For Work Detection in Text-to-Image systems
- Title(参考訳): Wukong Framework for Not Safe for Work Detection in Text-to-Image System (特集:情報ネットワーク)
- Authors: Mingrui Liu, Sixiao Zhang, Cheng Long,
- Abstract要約: WukongはトランスフォーマーベースのNSFW検出フレームワークである。
初期段階からの中間出力を利用して、U-Netのトレーニング済みのクロスアテンションパラメータを再利用する。
その結果、Wukongはテキストベースの安全ガードを著しく上回り、画像フィルタの精度に匹敵する結果を得た。
- 参考スコア(独自算出の注目度): 25.516648802281626
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-to-Image (T2I) generation is a popular AI-generated content (AIGC) technology enabling diverse and creative image synthesis. However, some outputs may contain Not Safe For Work (NSFW) content (e.g., violence), violating community guidelines. Detecting NSFW content efficiently and accurately, known as external safeguarding, is essential. Existing external safeguards fall into two types: text filters, which analyze user prompts but overlook T2I model-specific variations and are prone to adversarial attacks; and image filters, which analyze final generated images but are computationally costly and introduce latency. Diffusion models, the foundation of modern T2I systems like Stable Diffusion, generate images through iterative denoising using a U-Net architecture with ResNet and Transformer blocks. We observe that: (1) early denoising steps define the semantic layout of the image, and (2) cross-attention layers in U-Net are crucial for aligning text and image regions. Based on these insights, we propose Wukong, a transformer-based NSFW detection framework that leverages intermediate outputs from early denoising steps and reuses U-Net's pre-trained cross-attention parameters. Wukong operates within the diffusion process, enabling early detection without waiting for full image generation. We also introduce a new dataset containing prompts, seeds, and image-specific NSFW labels, and evaluate Wukong on this and two public benchmarks. Results show that Wukong significantly outperforms text-based safeguards and achieves comparable accuracy of image filters, while offering much greater efficiency.
- Abstract(参考訳): Text-to-Image(T2I)生成は、多種多様なクリエイティブな画像合成を可能にするAIGC(AIGC)技術として人気がある。
しかしながら、いくつかのアウトプットには、NSFW(Not Safe For Work)コンテンツ(例えば暴力)が含まれ、コミュニティガイドラインに違反するものもある。
外部保護として知られるNSFWコンテンツを効率よく正確に検出することが不可欠である。
既存の外部ガードは、ユーザプロンプトを解析するが、T2Iモデル固有のバリエーションを見落とし、敵の攻撃を受けやすいテキストフィルタと、最終生成画像を解析するが計算コストがかかるイメージフィルタの2種類に分類される。
拡散モデルは、安定拡散のような近代的なT2Iシステムの基盤であり、ResNetとTransformerブロックを備えたU-Netアーキテクチャを用いて反復分解によって画像を生成する。
1)画像のセマンティックレイアウトを定義し,(2)U-Netのクロスアテンション層はテキストと画像領域の整列に不可欠である。
これらの知見に基づいて,初期段階からの中間出力を活用し,U-Netの事前学習したクロスアテンションパラメータを再利用するトランスフォーマーベースのNSFW検出フレームワークであるWukongを提案する。
Wukongは拡散プロセス内で動作し、完全な画像生成を待つことなく早期検出を可能にする。
また、プロンプト、シード、イメージ固有のNSFWラベルを含む新しいデータセットを導入し、このベンチマークと2つの公開ベンチマークでWukongを評価する。
結果は、Wukongがテキストベースのセーフガードを著しく上回り、画像フィルタの精度に匹敵する結果となり、効率は大幅に向上したことを示している。
関連論文リスト
- T2UE: Generating Unlearnable Examples from Text Descriptions [60.111026156038264]
Unlearnable Examples (UEs) は、無許可のモデルトレーニングに対する有望な対策として登場した。
textbfText-to-Unlearnable Example (T2UE)は,テキスト記述のみを用いてUEを生成する新しいフレームワークである。
論文 参考訳(メタデータ) (2025-08-05T05:10:14Z) - Qwen-Image Technical Report [86.46471547116158]
Qwen-Imageは複雑なテキストのレンダリングと正確な画像編集において大きな進歩を遂げた画像生成基盤モデルである。
我々は、大規模なデータ収集、フィルタリング、アノテーション、合成、バランスを含む包括的なデータパイプラインを設計する。
Qwen-Imageは、英語のようなアルファベットの言語で非常によく機能し、中国語のようなより挑戦的なログラフ言語でも顕著な進歩を遂げている。
論文 参考訳(メタデータ) (2025-08-04T11:49:20Z) - Unpaired Image-to-Image Translation for Segmentation and Signal Unmixing [12.51033401137503]
Ui2iは未ペア画像から画像への翻訳のための新しいモデルである。
ドメイン間のスタイル転送を可能にするために、コンテンツワイドなデータセットでトレーニングされている。
論文 参考訳(メタデータ) (2025-05-27T05:36:50Z) - NOFT: Test-Time Noise Finetune via Information Bottleneck for Highly Correlated Asset Creation [70.96827354717459]
拡散モデルは、テキスト・ツー・イメージ(T2I)と画像・ツー・イメージ(I2I)を生成する強力なツールを提供する。
本研究では,高相関・多彩な画像を生成するため,安定拡散を用いたノイズファインチューンNOFTモジュールを提案する。
論文 参考訳(メタデータ) (2025-05-18T05:09:47Z) - NFIG: Autoregressive Image Generation with Next-Frequency Prediction [50.69346038028673]
textbfNext-textbfFrequency textbfImage textbfGeneration (textbfNFIG) は、画像生成プロセスを複数の周波数誘導段階に分解する新しいフレームワークである。
提案手法では,まず低周波成分を生成し,より少ないトークンで大域構造を確立する。
論文 参考訳(メタデータ) (2025-03-10T08:59:10Z) - AEIOU: A Unified Defense Framework against NSFW Prompts in Text-to-Image Models [39.11841245506388]
悪意のあるユーザは、しばしばテキスト・ツー・イメージ(T2I)モデルを使用してNot-Safe-for-Work(NSFW)イメージを生成する。
本稿では,T2IモデルにおけるNSFWプロンプトに対する適応性,効率性,解釈性,最適化性,統一性を備えたフレームワークであるAEIOUを紹介する。
論文 参考訳(メタデータ) (2024-12-24T03:17:45Z) - Frequency-Controlled Diffusion Model for Versatile Text-Guided Image-to-Image Translation [17.30877810859863]
大規模テキスト・ツー・イメージ拡散モデル(T2I)は画像・画像翻訳(I2I)の強力なツールとして登場した。
本稿では,周波数制御拡散モデル(FCDiffusion)を提案する。
論文 参考訳(メタデータ) (2024-07-03T11:05:19Z) - CycleNet: Rethinking Cycle Consistency in Text-Guided Diffusion for
Image Manipulation [57.836686457542385]
拡散モデル(DM)は画像合成タスクのブレークスルーを実現するが、一貫したイメージ・ツー・イメージ(I2I)翻訳のための直感的なインタフェースは欠如している。
本稿では,画像操作を正規化するためのDMにサイクル一貫性を組み込んだ,新しくてシンプルな手法であるCyclenetを紹介する。
論文 参考訳(メタデータ) (2023-10-19T21:32:21Z) - BATINet: Background-Aware Text to Image Synthesis and Manipulation
Network [12.924990882126105]
生成したコンテンツが入力背景と一致する背景認識型テキスト2画像(BAT2I)タスクを解析した。
本研究では,背景認識による画像合成・操作ネットワーク (BATINet) を提案する。
我々は,CUBデータセットの質的,定量的な評価を通じて,提案モデルが他の最先端手法よりも優れていることを示した。
論文 参考訳(メタデータ) (2023-08-11T03:22:33Z) - DF-GAN: A Simple and Effective Baseline for Text-to-Image Synthesis [80.54273334640285]
本稿では,異なる生成装置間の絡み合わずに高解像度画像を直接合成する,新しい1段階のテキスト・ツー・イメージバックボーンを提案する。
また,Matching-Aware Gradient Penalty と One-Way Output を組み合わせた新たなターゲット認識識別器を提案する。
現在の最先端手法と比較して,提案するDF-GANはよりシンプルだが,現実的およびテキストマッチング画像の合成には効率的である。
論文 参考訳(メタデータ) (2020-08-13T12:51:17Z) - Scene Text Synthesis for Efficient and Effective Deep Network Training [62.631176120557136]
我々は,背景画像に前景オブジェクトを埋め込むことで,注釈付き訓練画像を構成する革新的な画像合成技術を開発した。
提案手法は,ディープネットワークトレーニングにおける合成画像の有用性を高める2つの重要な要素から構成される。
複数の公開データセットに対する実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2019-01-26T10:15:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。