論文の概要: HOD: A Benchmark Dataset for Harmful Object Detection
- arxiv url: http://arxiv.org/abs/2310.05192v1
- Date: Sun, 8 Oct 2023 15:00:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 11:33:27.619587
- Title: HOD: A Benchmark Dataset for Harmful Object Detection
- Title(参考訳): HOD: 有害なオブジェクト検出のためのベンチマークデータセット
- Authors: Eungyeom Ha, Heemook Kim, Sung Chul Hong, Dongbin Na
- Abstract要約: 有害物体検出のための新しいベンチマークデータセットを提案する。
提案したデータセットには、有害である可能性のある6つのカテゴリにわたる1万以上の画像が含まれている。
我々は,提案したデータセットの有効性を評価するために,広範囲な実験を行った。
- 参考スコア(独自算出の注目度): 3.755082744150185
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent multi-media data such as images and videos have been rapidly spread
out on various online services such as social network services (SNS). With the
explosive growth of online media services, the number of image content that may
harm users is also growing exponentially. Thus, most recent online platforms
such as Facebook and Instagram have adopted content filtering systems to
prevent the prevalence of harmful content and reduce the possible risk of
adverse effects on users. Unfortunately, computer vision research on detecting
harmful content has not yet attracted attention enough. Users of each platform
still manually click the report button to recognize patterns of harmful content
they dislike when exposed to harmful content. However, the problem with manual
reporting is that users are already exposed to harmful content. To address
these issues, our research goal in this work is to develop automatic harmful
object detection systems for online services. We present a new benchmark
dataset for harmful object detection. Unlike most related studies focusing on a
small subset of object categories, our dataset addresses various categories.
Specifically, our proposed dataset contains more than 10,000 images across 6
categories that might be harmful, consisting of not only normal cases but also
hard cases that are difficult to detect. Moreover, we have conducted extensive
experiments to evaluate the effectiveness of our proposed dataset. We have
utilized the recently proposed state-of-the-art (SOTA) object detection
architectures and demonstrated our proposed dataset can be greatly useful for
the real-time harmful object detection task. The whole source codes and
datasets are publicly accessible at
https://github.com/poori-nuna/HOD-Benchmark-Dataset.
- Abstract(参考訳): 近年,画像や動画などのマルチメディアデータがソーシャルネットワークサービス(SNS)など様々なオンラインサービスに急速に普及している。
オンラインメディアサービスの爆発的な成長に伴い、ユーザーを害する画像コンテンツも指数関数的に増えている。
したがって、FacebookやInstagramのような最近のオンラインプラットフォームでは、有害なコンテンツの頻度を防ぎ、ユーザに対する有害な影響のリスクを低減するために、コンテンツフィルタリングシステムを採用している。
残念ながら、有害なコンテンツを検出するコンピュータビジョンの研究はまだ注目されていない。
各プラットフォームのユーザは、レポートボタンを手動でクリックして、有害なコンテンツに晒されたときに嫌いなコンテンツパターンを認識する。
しかし、手動レポートの問題は、ユーザーがすでに有害なコンテンツに晒されていることだ。
これらの課題に対処するため,オンラインサービスにおける有害物自動検出システムの開発が本研究の目的である。
有害物体検出のための新しいベンチマークデータセットを提案する。
オブジェクトカテゴリの小さなサブセットに焦点を当てたほとんどの関連する研究とは異なり、データセットはさまざまなカテゴリに対処する。
具体的には、6つのカテゴリにまたがる1万以上の画像が含まれており、通常のケースだけでなく、検出が難しいケースも含んでいる。
さらに,提案したデータセットの有効性を評価するため,広範な実験を行った。
我々は,最近提案されたsota(state-of-the-art)オブジェクト検出アーキテクチャを活用し,提案するデータセットをリアルタイム有害オブジェクト検出タスクに活用できることを実証した。
ソースコードとデータセットはhttps://github.com/poori-nuna/hod-benchmark-datasetで公開されている。
関連論文リスト
- T2Vs Meet VLMs: A Scalable Multimodal Dataset for Visual Harmfulness Recognition [24.78672820633581]
既存の有害なデータセットは、限られた範囲の有害なオブジェクトの存在によってキュレートされる。
これにより、そのようなデータセットに基づいたメソッドの一般化が妨げられ、誤判断につながる可能性がある。
我々は,インターネットからクロールして4つの生成モデルによって生成された1万枚の画像と1,000本の動画からなる包括的有害データセットを提案する。
論文 参考訳(メタデータ) (2024-09-29T15:20:00Z) - A Comprehensive Library for Benchmarking Multi-class Visual Anomaly Detection [52.228708947607636]
本稿では,新しい手法のモジュラーフレームワークであるADerを包括的視覚異常検出ベンチマークとして紹介する。
このベンチマークには、産業ドメインと医療ドメインからの複数のデータセットが含まれており、15の最先端メソッドと9つの包括的なメトリクスを実装している。
我々は,異なる手法の長所と短所を客観的に明らかにし,多クラス視覚異常検出の課題と今後の方向性について考察する。
論文 参考訳(メタデータ) (2024-06-05T13:40:07Z) - Into the LAIONs Den: Investigating Hate in Multimodal Datasets [67.21783778038645]
本稿では、LAION-400MとLAION-2Bの2つのデータセットの比較監査を通して、ヘイトフルコンテンツに対するデータセットのスケーリングの効果について検討する。
その結果、データセットのスケールによってヘイトコンテンツは12%近く増加し、質的にも定量的にも測定された。
また、画像のみに基づいて算出されたNot Safe For Work(NSFW)値に基づくデータセットの内容のフィルタリングは、アルトテキストにおける有害なコンテンツをすべて排除するものではないことがわかった。
論文 参考訳(メタデータ) (2023-11-06T19:00:05Z) - Salient Object Detection for Images Taken by People With Vision
Impairments [13.157939981657886]
本稿では、視覚障害者が撮影した画像を用いた、新しい有能な物体検出データセットを提案する。
VizWiz-SalientObjectは最大(つまり32,000個の人称注釈付き画像)で、ユニークな特徴を持っている。
我々は、我々のデータセットで7つの現代的な正当性オブジェクト検出方法のベンチマークを行い、それらが大きな画像、より複雑な境界、テキストの欠如に最も苦労していることを発見した。
論文 参考訳(メタデータ) (2023-01-12T22:33:01Z) - Multimodal datasets: misogyny, pornography, and malignant stereotypes [2.8682942808330703]
最近リリースされたLAION-400Mデータセットは、Common-Crawlデータセットから解析された画像-Alt-textペアのCLIPフィルタリングデータセットである。
このデータセットには、レイプ、ポルノグラフィー、悪性のステレオタイプ、人種差別的および民族的スラー、その他の非常に問題のあるコンテンツが含まれています。
論文 参考訳(メタデータ) (2021-10-05T11:47:27Z) - Towards Real-World Prohibited Item Detection: A Large-Scale X-ray
Benchmark [53.9819155669618]
本稿では,PIDrayと命名された大規模データセットについて述べる。
大量の努力を払って、私たちのデータセットには、高品質な注釈付きセグメンテーションマスクとバウンディングボックスを備えた47,677ドルのX線画像に、禁止アイテムの12ドルカテゴリが含まれています。
提案手法は最先端の手法に対して,特に故意に隠された項目を検出するために好適に機能する。
論文 参考訳(メタデータ) (2021-08-16T11:14:16Z) - Unsupervised Domain Adaption of Object Detectors: A Survey [87.08473838767235]
近年のディープラーニングの進歩は、様々なコンピュータビジョンアプリケーションのための正確で効率的なモデルの開発につながっている。
高度に正確なモデルを学ぶには、大量の注釈付きイメージを持つデータセットの可用性に依存する。
このため、ラベルスカースデータセットに視覚的に異なる画像がある場合、モデルの性能は大幅に低下する。
論文 参考訳(メタデータ) (2021-05-27T23:34:06Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - Few-Shot Learning for Video Object Detection in a Transfer-Learning
Scheme [70.45901040613015]
ビデオ物体検出のための数発学習の新たな課題について検討する。
我々は,多数のベースクラスオブジェクトに対して映像物体検出を効果的に訓練するトランスファー学習フレームワークと,ノベルクラスオブジェクトのいくつかのビデオクリップを用いる。
論文 参考訳(メタデータ) (2021-03-26T20:37:55Z) - Deep Learning Benchmarks and Datasets for Social Media Image
Classification for Disaster Response [5.610924570214424]
本研究では,災害タイプ検出,情報度分類,被害重大度評価のための新しいデータセットを提案する。
我々は、最先端のディープラーニングモデルをいくつかベンチマークし、有望な結果を得る。
我々は、適切なベースラインを提供するとともに、危機情報化コミュニティにおけるさらなる研究を促進するために、データセットとモデルを公開しています。
論文 参考訳(メタデータ) (2020-11-17T20:15:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。