論文の概要: On-Device Content Moderation
- arxiv url: http://arxiv.org/abs/2107.11845v1
- Date: Sun, 25 Jul 2021 17:06:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-27 16:24:33.906374
- Title: On-Device Content Moderation
- Title(参考訳): オンデバイスコンテンツモデレーション
- Authors: Anchal Pandey, Sukumar Moharana, Debi Prasanna Mohanty, Archit Panwar,
Dewang Agarwal, Siva Prasad Thota
- Abstract要約: NSFW画像検出のための新しいオンデバイスソリューションを提案する。
我々は,ヌード,セミヌード,セーフな3つのカテゴリからなるデータセットをキュレートした。
このモデルは、カスタムNSFW16kデータセットで95%の精度でF1スコア0.91、NPDIデータセットで0.92MAPをリコールする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the advent of internet, not safe for work(NSFW) content moderation is a
major problem today. Since,smartphones are now part of daily life of billions
of people,it becomes even more important to have a solution which coulddetect
and suggest user about potential NSFW content present ontheir phone. In this
paper we present a novel on-device solutionfor detecting NSFW images. In
addition to conventional porno-graphic content moderation, we have also
included semi-nudecontent moderation as it is still NSFW in a large
demography.We have curated a dataset comprising of three major
categories,namely nude, semi-nude and safe images. We have created anensemble
of object detector and classifier for filtering of nudeand semi-nude contents.
The solution provides unsafe body partannotations along with identification of
semi-nude images. Weextensively tested our proposed solution on several public
datasetand also on our custom dataset. The model achieves F1 scoreof 0.91 with
95% precision and 88% recall on our customNSFW16k dataset and 0.92 MAP on NPDI
dataset. Moreover itachieves average 0.002 false positive rate on a collection
of safeimage open datasets.
- Abstract(参考訳): インターネットの出現に伴い、nsfw(safe for work)コンテンツのモデレーションは、今日では大きな問題となっている。
スマートフォンは今や何十億という人々の日常生活の一部になっているので、スマートフォン上のnsfwコンテンツの可能性をユーザから検出し、示唆するソリューションを持つことは、さらに重要だ。
本稿では,NSFW画像検出のための新しいオンデバイスソリューションを提案する。
従来のポルノグラフィックコンテンツモデレーションに加えて,大規模なデモグラフィではnsfwのままであるセミヌードコンテンツモデレーションも取り入れており,ヌード,セミヌード,セーフイメージの3つの主要カテゴリからなるデータセットを収集した。
我々は,ヌードとセミヌードのフィルタリングを行うためのオブジェクト検出器と分類器のanensembleを開発した。
このソリューションは、セミヌード画像の識別とともに、安全でないボディ部分アノテーションを提供する。
weextensiveは、提案するソリューションをいくつかのパブリックデータセットとカスタムデータセット上でテストしました。
このモデルは、カスタムNSFW16kデータセットで95%精度でF1スコア0.91、NPDIデータセットで0.92MAPをリコールする。
さらに、itachievesはsafeimage open datasetのコレクションで平均0.002偽陽性率を示している。
関連論文リスト
- Removing NSFW Concepts from Vision-and-Language Models for Text-to-Image
Retrieval and Generation [44.707144011189335]
我々は、安全でない作業概念に対する感受性を排除し、ビジョン・アンド・ランゲージモデルをより安全にする方法を紹介した。
安全な文と安全でない文を変換する大規模な言語モデルから、これを蒸留する方法を示す。
本研究では,画像検索とテキスト・ツー・イメージ生成の両面から得られる埋め込み空間について広範な実験を行った。
論文 参考訳(メタデータ) (2023-11-27T19:02:17Z) - Into the LAIONs Den: Investigating Hate in Multimodal Datasets [67.21783778038645]
本稿では、LAION-400MとLAION-2Bの2つのデータセットの比較監査を通して、ヘイトフルコンテンツに対するデータセットのスケーリングの効果について検討する。
その結果、データセットのスケールによってヘイトコンテンツは12%近く増加し、質的にも定量的にも測定された。
また、画像のみに基づいて算出されたNot Safe For Work(NSFW)値に基づくデータセットの内容のフィルタリングは、アルトテキストにおける有害なコンテンツをすべて排除するものではないことがわかった。
論文 参考訳(メタデータ) (2023-11-06T19:00:05Z) - HOD: A Benchmark Dataset for Harmful Object Detection [3.755082744150185]
有害物体検出のための新しいベンチマークデータセットを提案する。
提案したデータセットには、有害である可能性のある6つのカテゴリにわたる1万以上の画像が含まれている。
我々は,提案したデータセットの有効性を評価するために,広範囲な実験を行った。
論文 参考訳(メタデータ) (2023-10-08T15:00:38Z) - DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion
Models [85.52369122266549]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - SneakyPrompt: Jailbreaking Text-to-image Generative Models [20.645304189835944]
我々は,最初の自動攻撃フレームワークであるSneakyPromptをジェイルブレイクテキスト画像生成モデルに提案する。
安全フィルタによってブロックされるプロンプトを与えられたSneakyPromptは、テキスト・ツー・イメージ生成モデルを繰り返しクエリし、クエリ結果に基づいてプロンプト内のトークンを戦略的に摂動させ、安全フィルタをバイパスする。
評価の結果,SneakyPromptはNSFW画像の生成に成功しているだけでなく,jailbreakテキスト・画像生成モデルに拡張された場合,既存のテキスト敵攻撃よりも優れていた。
論文 参考訳(メタデータ) (2023-05-20T03:41:45Z) - Privacy-Preserving Image Acquisition Using Trainable Optical Kernel [50.1239616836174]
本稿では、画像センサに到達する前に、光学領域の感度の高い識別情報を除去する訓練可能な画像取得手法を提案する。
イメージセンサに到達する前に、センシティブなコンテンツが抑制されるため、デジタルドメインには入らないため、いかなる種類のプライバシー攻撃でも検索できない。
論文 参考訳(メタデータ) (2021-06-28T11:08:14Z) - A Study of Face Obfuscation in ImageNet [94.2949777826947]
本稿では,imagenetチャレンジにおける画像難読化について検討する。
ImageNetチャレンジのほとんどのカテゴリは、人のカテゴリではありません。
さまざまな深層ニューラルネットワークを顔画像上でベンチマークし、異なるカテゴリに対する異なる影響を観察します。
結果は、顔が破れた画像で学んだ特徴が等しく転送可能であることを示している。
論文 参考訳(メタデータ) (2021-03-10T17:11:34Z) - Large image datasets: A pyrrhic win for computer vision? [2.627046865670577]
大規模ビジョンデータセットの問題点と結果について検討する。
我々は,同意や正義の問題などの幅広い問題や,データセットに検証可能なポルノ画像を含めるといった特定の懸念について検討する。
論文 参考訳(メタデータ) (2020-06-24T06:41:32Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z) - A Method for Curation of Web-Scraped Face Image Datasets [13.893682217746816]
データセットを集める際には、さまざまな問題が発生する。
何百万もの画像が存在しているため、手作業によるクリーニングは不可能である。
本稿では,顔認識手法をテストするためのクリーンなデータセットを提供することを目標とする半自動手法を提案する。
論文 参考訳(メタデータ) (2020-04-07T01:57:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。