論文の概要: VModA: An Effective Framework for Adaptive NSFW Image Moderation
- arxiv url: http://arxiv.org/abs/2505.23386v1
- Date: Thu, 29 May 2025 12:11:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.844689
- Title: VModA: An Effective Framework for Adaptive NSFW Image Moderation
- Title(参考訳): VModA: 適応的NSFW画像モデレーションのための効果的なフレームワーク
- Authors: Han Bao, Qinying Wang, Zhi Chen, Qingming Li, Xuhong Zhang, Changjiang Li, Zonghui Wang, Shouling Ji, Wenzhi Chen,
- Abstract要約: Not Safe/Suitable for Work (NSFW)コンテンツは、ソーシャルネットワーク上で急速に普及し、市民、特に未成年者に深刻な害を与えている。
現在の検出法は主に深層学習に基づく画像認識と分類に依存している。
本稿では,多種多様なモデレーションルールに適応し,複雑でセマンティックにリッチなNSFWコンテンツを扱うフレームワークであるVModAを提案する。
- 参考スコア(独自算出の注目度): 36.86383821944732
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Not Safe/Suitable for Work (NSFW) content is rampant on social networks and poses serious harm to citizens, especially minors. Current detection methods mainly rely on deep learning-based image recognition and classification. However, NSFW images are now presented in increasingly sophisticated ways, often using image details and complex semantics to obscure their true nature or attract more views. Although still understandable to humans, these images often evade existing detection methods, posing a significant threat. Further complicating the issue, varying regulations across platforms and regions create additional challenges for effective moderation, leading to detection bias and reduced accuracy. To address this, we propose VModA, a general and effective framework that adapts to diverse moderation rules and handles complex, semantically rich NSFW content across categories. Experimental results show that VModA significantly outperforms existing methods, achieving up to a 54.3% accuracy improvement across NSFW types, including those with complex semantics. Further experiments demonstrate that our method exhibits strong adaptability across categories, scenarios, and base VLMs. We also identified inconsistent and controversial label samples in public NSFW benchmark datasets, re-annotated them, and submitted corrections to the original maintainers. Two datasets have confirmed the updates so far. Additionally, we evaluate VModA in real-world scenarios to demonstrate its practical effectiveness.
- Abstract(参考訳): Not Safe/Suitable for Work (NSFW)コンテンツは、ソーシャルネットワーク上で急速に普及し、市民、特に未成年者に深刻な害を与えている。
現在の検出法は主に深層学習に基づく画像認識と分類に依存している。
しかし、NSFW画像は次第に洗練され、しばしばイメージの詳細と複雑な意味論を用いて、その真の性質を曖昧にしたり、より多くのビューを惹きつける。
人間にはまだ理解できるが、これらの画像は、しばしば既存の検出方法を避け、重大な脅威を生じさせる。
さらに問題を複雑にすることで、プラットフォームやリージョンのさまざまな規制が、効果的なモデレーションのための新たな課題を生み出し、検出バイアスと精度の低下につながります。
そこで本研究では,多種多様なモデレーションルールに適応し,カテゴリ間で複雑でセマンティックにリッチなNSFWコンテンツを扱う,汎用的で効果的なフレームワークであるVModAを提案する。
実験の結果、VModAは既存の手法よりも優れており、複雑な意味論を含むNSFWタイプで54.3%の精度向上が達成されている。
さらに,本手法は,カテゴリ,シナリオ,基本VLMに対して高い適応性を示すことを示す。
また、パブリックなNSFWベンチマークデータセットに矛盾するラベルサンプルを特定し、再注釈し、元のメンテナに修正を提出した。
2つのデータセットがアップデートを確認している。
さらに,実世界のシナリオにおけるVModAの評価を行い,その実用性を実証した。
関連論文リスト
- Towards Safe Synthetic Image Generation On the Web: A Multimodal Robust NSFW Defense and Million Scale Dataset [20.758637391023345]
安全かつNSFWなテキストとイメージを区別するためにマルチモーダルディフェンスが開発された。
我々のモデルは精度とリコールの観点から既存のSOTA NSFW検出手法に対して良好に機能する。
論文 参考訳(メタデータ) (2025-04-16T02:10:42Z) - MLLM-as-a-Judge for Image Safety without Human Labeling [81.24707039432292]
AIGCの時代には、多くの画像生成モデルは有害なコンテンツを生成できる。
確立された安全ルールに基づいて、このような安全でない画像を特定することが不可欠である。
既存のアプローチでは、人間のラベル付きデータセットを使った微調整MLLMが一般的である。
論文 参考訳(メタデータ) (2024-12-31T00:06:04Z) - AEIOU: A Unified Defense Framework against NSFW Prompts in Text-to-Image Models [39.11841245506388]
悪意のあるユーザは、しばしばテキスト・ツー・イメージ(T2I)モデルを使用してNot-Safe-for-Work(NSFW)イメージを生成する。
本稿では,T2IモデルにおけるNSFWプロンプトに対する適応性,効率性,解釈性,最適化性,統一性を備えたフレームワークであるAEIOUを紹介する。
論文 参考訳(メタデータ) (2024-12-24T03:17:45Z) - ShieldDiff: Suppressing Sexual Content Generation from Diffusion Models through Reinforcement Learning [7.099258248662009]
テキスト・ツー・イメージ(T2I)モデルは、不快な内容の安全でない画像を生成する可能性がある。
我々の研究では、T2IモデルからNSFW(職場では安全ではない)コンテンツ生成を排除することに重点を置いています。
本稿では,CLIP(Contrastive Language- Image Pre-Trening)とヌード報酬(nudity rewards)から構成される独自の報酬関数を提案する。
論文 参考訳(メタデータ) (2024-10-04T19:37:56Z) - Progressive Feature Self-reinforcement for Weakly Supervised Semantic
Segmentation [55.69128107473125]
Weakly Supervised Semantic (WSSS) のイメージレベルラベルを用いたシングルステージアプローチを提案する。
我々は、画像内容が決定論的領域(例えば、自信ある前景と背景)と不確実領域(例えば、オブジェクト境界と誤分類されたカテゴリ)に適応的に分割して、別々の処理を行う。
そこで我々は,これらの自信のある領域と同一のクラスラベルを持つ拡張画像とのセマンティック一貫性を制約する補完的な自己強調手法を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:21:52Z) - Safe-CLIP: Removing NSFW Concepts from Vision-and-Language Models [42.19184265811366]
本研究では,NSFW入力に対する感度を低下させることにより,視覚・言語モデルの安全性を高める新しいアプローチを提案する。
安全な文と安全でない文の変換を訓練した大規模言語モデルから得られた合成データに対して,CLIPモデルを微調整することで,これを実現できることを示す。
論文 参考訳(メタデータ) (2023-11-27T19:02:17Z) - Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - Task-Oriented Multi-Modal Mutual Leaning for Vision-Language Models [52.3032592038514]
ラベル関連画像情報で生成したプロンプトを豊かにするためのクラス対応テキストプロンプトを提案する。
我々は、新しいクラスで4.03%、調和平均で3.19%の改善を11の分類ベンチマークで達成した。
論文 参考訳(メタデータ) (2023-03-30T06:02:40Z) - On-Device Content Moderation [0.0]
NSFW画像検出のための新しいオンデバイスソリューションを提案する。
我々は,ヌード,セミヌード,セーフな3つのカテゴリからなるデータセットをキュレートした。
このモデルは、カスタムNSFW16kデータセットで95%の精度でF1スコア0.91、NPDIデータセットで0.92MAPをリコールする。
論文 参考訳(メタデータ) (2021-07-25T17:06:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。