論文の概要: On-Device Content Moderation
- arxiv url: http://arxiv.org/abs/2107.11845v1
- Date: Sun, 25 Jul 2021 17:06:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-27 16:24:33.906374
- Title: On-Device Content Moderation
- Title(参考訳): オンデバイスコンテンツモデレーション
- Authors: Anchal Pandey, Sukumar Moharana, Debi Prasanna Mohanty, Archit Panwar,
Dewang Agarwal, Siva Prasad Thota
- Abstract要約: NSFW画像検出のための新しいオンデバイスソリューションを提案する。
我々は,ヌード,セミヌード,セーフな3つのカテゴリからなるデータセットをキュレートした。
このモデルは、カスタムNSFW16kデータセットで95%の精度でF1スコア0.91、NPDIデータセットで0.92MAPをリコールする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the advent of internet, not safe for work(NSFW) content moderation is a
major problem today. Since,smartphones are now part of daily life of billions
of people,it becomes even more important to have a solution which coulddetect
and suggest user about potential NSFW content present ontheir phone. In this
paper we present a novel on-device solutionfor detecting NSFW images. In
addition to conventional porno-graphic content moderation, we have also
included semi-nudecontent moderation as it is still NSFW in a large
demography.We have curated a dataset comprising of three major
categories,namely nude, semi-nude and safe images. We have created anensemble
of object detector and classifier for filtering of nudeand semi-nude contents.
The solution provides unsafe body partannotations along with identification of
semi-nude images. Weextensively tested our proposed solution on several public
datasetand also on our custom dataset. The model achieves F1 scoreof 0.91 with
95% precision and 88% recall on our customNSFW16k dataset and 0.92 MAP on NPDI
dataset. Moreover itachieves average 0.002 false positive rate on a collection
of safeimage open datasets.
- Abstract(参考訳): インターネットの出現に伴い、nsfw(safe for work)コンテンツのモデレーションは、今日では大きな問題となっている。
スマートフォンは今や何十億という人々の日常生活の一部になっているので、スマートフォン上のnsfwコンテンツの可能性をユーザから検出し、示唆するソリューションを持つことは、さらに重要だ。
本稿では,NSFW画像検出のための新しいオンデバイスソリューションを提案する。
従来のポルノグラフィックコンテンツモデレーションに加えて,大規模なデモグラフィではnsfwのままであるセミヌードコンテンツモデレーションも取り入れており,ヌード,セミヌード,セーフイメージの3つの主要カテゴリからなるデータセットを収集した。
我々は,ヌードとセミヌードのフィルタリングを行うためのオブジェクト検出器と分類器のanensembleを開発した。
このソリューションは、セミヌード画像の識別とともに、安全でないボディ部分アノテーションを提供する。
weextensiveは、提案するソリューションをいくつかのパブリックデータセットとカスタムデータセット上でテストしました。
このモデルは、カスタムNSFW16kデータセットで95%精度でF1スコア0.91、NPDIデータセットで0.92MAPをリコールする。
さらに、itachievesはsafeimage open datasetのコレクションで平均0.002偽陽性率を示している。
関連論文リスト
- ShieldDiff: Suppressing Sexual Content Generation from Diffusion Models through Reinforcement Learning [7.099258248662009]
テキスト・ツー・イメージ(T2I)モデルは、不快な内容の安全でない画像を生成する可能性がある。
我々の研究では、T2IモデルからNSFW(職場では安全ではない)コンテンツ生成を排除することに重点を置いています。
本稿では,CLIP(Contrastive Language- Image Pre-Trening)とヌード報酬(nudity rewards)から構成される独自の報酬関数を提案する。
論文 参考訳(メタデータ) (2024-10-04T19:37:56Z) - SafeGen: Mitigating Sexually Explicit Content Generation in Text-to-Image Models [28.23494821842336]
テキスト・ツー・イメージ・モデルは、安全でない作業用コンテンツ(NSFW)を生成するために騙されることがある。
我々は、テキスト・ツー・イメージ・モデルによる性的コンテンツ生成を緩和するフレームワークであるSafeGenを紹介する。
論文 参考訳(メタデータ) (2024-04-10T00:26:08Z) - Safe-CLIP: Removing NSFW Concepts from Vision-and-Language Models [42.19184265811366]
本研究では,NSFW入力に対する感度を低下させることにより,視覚・言語モデルの安全性を高める新しいアプローチを提案する。
安全な文と安全でない文の変換を訓練した大規模言語モデルから得られた合成データに対して,CLIPモデルを微調整することで,これを実現できることを示す。
論文 参考訳(メタデータ) (2023-11-27T19:02:17Z) - Into the LAIONs Den: Investigating Hate in Multimodal Datasets [67.21783778038645]
本稿では、LAION-400MとLAION-2Bの2つのデータセットの比較監査を通して、ヘイトフルコンテンツに対するデータセットのスケーリングの効果について検討する。
その結果、データセットのスケールによってヘイトコンテンツは12%近く増加し、質的にも定量的にも測定された。
また、画像のみに基づいて算出されたNot Safe For Work(NSFW)値に基づくデータセットの内容のフィルタリングは、アルトテキストにおける有害なコンテンツをすべて排除するものではないことがわかった。
論文 参考訳(メタデータ) (2023-11-06T19:00:05Z) - HOD: A Benchmark Dataset for Harmful Object Detection [3.755082744150185]
有害物体検出のための新しいベンチマークデータセットを提案する。
提案したデータセットには、有害である可能性のある6つのカテゴリにわたる1万以上の画像が含まれている。
我々は,提案したデータセットの有効性を評価するために,広範囲な実験を行った。
論文 参考訳(メタデータ) (2023-10-08T15:00:38Z) - DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion Models [79.71665540122498]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - Privacy-Preserving Image Acquisition Using Trainable Optical Kernel [50.1239616836174]
本稿では、画像センサに到達する前に、光学領域の感度の高い識別情報を除去する訓練可能な画像取得手法を提案する。
イメージセンサに到達する前に、センシティブなコンテンツが抑制されるため、デジタルドメインには入らないため、いかなる種類のプライバシー攻撃でも検索できない。
論文 参考訳(メタデータ) (2021-06-28T11:08:14Z) - A Study of Face Obfuscation in ImageNet [94.2949777826947]
本稿では,imagenetチャレンジにおける画像難読化について検討する。
ImageNetチャレンジのほとんどのカテゴリは、人のカテゴリではありません。
さまざまな深層ニューラルネットワークを顔画像上でベンチマークし、異なるカテゴリに対する異なる影響を観察します。
結果は、顔が破れた画像で学んだ特徴が等しく転送可能であることを示している。
論文 参考訳(メタデータ) (2021-03-10T17:11:34Z) - Contemplating real-world object classification [53.10151901863263]
Barbuらが最近提案したObjectNetデータセットを再分析した。
日常の状況に物を含むこと。
分離されたオブジェクトにディープモデルを適用すると、元の論文のようにシーン全体ではなく、約20~30%の性能改善が得られます。
論文 参考訳(メタデータ) (2021-03-08T23:29:59Z) - Large image datasets: A pyrrhic win for computer vision? [2.627046865670577]
大規模ビジョンデータセットの問題点と結果について検討する。
我々は,同意や正義の問題などの幅広い問題や,データセットに検証可能なポルノ画像を含めるといった特定の懸念について検討する。
論文 参考訳(メタデータ) (2020-06-24T06:41:32Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。