論文の概要: Orientation Aware Weapons Detection In Visual Data : A Benchmark Dataset
- arxiv url: http://arxiv.org/abs/2112.02221v1
- Date: Sat, 4 Dec 2021 02:21:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 16:43:54.112646
- Title: Orientation Aware Weapons Detection In Visual Data : A Benchmark Dataset
- Title(参考訳): 視覚データにおける武器検出を意識したオリエンテーション : ベンチマークデータセット
- Authors: Nazeef Ul Haq and Muhammad Moazam Fraz and Tufail Sajjad Shah Hashmi
and Muhammad Shahzad
- Abstract要約: そこで本研究では,指向性認識兵器検出のためのCNNアーキテクチャを提案する。
提案モデルは,角度を8つのクラスに分割することで,角度を分類問題として利用するだけでなく,角度を回帰問題として利用する。
我々のデータセットは、向き付けられたバウンディングボックスを地平線として提供するだけでなく、水平のバウンディングボックスも提供する。
- 参考スコア(独自算出の注目度): 4.10464681051471
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic detection of weapons is significant for improving security and well
being of individuals, nonetheless, it is a difficult task due to large variety
of size, shape and appearance of weapons. View point variations and occlusion
also are reasons which makes this task more difficult. Further, the current
object detection algorithms process rectangular areas, however a slender and
long rifle may really cover just a little portion of area and the rest may
contain unessential details. To overcome these problem, we propose a CNN
architecture for Orientation Aware Weapons Detection, which provides oriented
bounding box with improved weapons detection performance. The proposed model
provides orientation not only using angle as classification problem by dividing
angle into eight classes but also angle as regression problem. For training our
model for weapon detection a new dataset comprising of total 6400 weapons
images is gathered from the web and then manually annotated with position
oriented bounding boxes. Our dataset provides not only oriented bounding box as
ground truth but also horizontal bounding box. We also provide our dataset in
multiple formats of modern object detectors for further research in this area.
The proposed model is evaluated on this dataset, and the comparative analysis
with off-the shelf object detectors yields superior performance of proposed
model, measured with standard evaluation strategies. The dataset and the model
implementation are made publicly available at this link:
https://bit.ly/2TyZICF.
- Abstract(参考訳): 武器の自動検出は、個人の安全と健康を改善する上で重要であるが、武器のサイズ、形状、外観が多種多様であるため、難しい作業である。
ビューポイントの変化とオクルージョンは、このタスクをより難しくする理由でもある。
さらに、現在の物体検出アルゴリズムは矩形領域を処理するが、細く長いライフルは実際に面積のほんの一部をカバーし、残りは不要な詳細を含む可能性がある。
そこで本研究では,兵器検出性能の向上を図り,指向性認識兵器検出のためのCNNアーキテクチャを提案する。
提案モデルは,角度を分類問題として用いるだけでなく,角度を8つのクラスに分割し,角度を回帰問題として用いる。
武器検出モデルのトレーニングには、ウェブから合計6400個の武器画像からなる新しいデータセットを収集し、手動で位置指向境界ボックスを付加する。
私たちのデータセットは、真理として向き付けられたバウンディングボックスだけでなく、水平バウンディングボックスも提供します。
また、この領域のさらなる研究のために、現代のオブジェクト検出器の複数のフォーマットでデータセットを提供しています。
本データを用いて提案モデルを評価し, 既設物体検出器との比較分析により, 標準評価手法で測定した提案モデルの性能が向上した。
データセットとモデルの実装はこのリンクで公開されています。
関連論文リスト
- Visible and Clear: Finding Tiny Objects in Difference Map [50.54061010335082]
本稿では,検出モデルに自己再構成機構を導入し,それと微小物体との強い相関関係を明らかにする。
具体的には、再構成画像と入力の差分マップを構築して、検出器の首の内側に再構成ヘッドを配置し、小さな物体に対して高い感度を示す。
さらに、小さな特徴表現をより明確にするために、差分マップガイド機能拡張(DGFE)モジュールを開発する。
論文 参考訳(メタデータ) (2024-05-18T12:22:26Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Knowledge Combination to Learn Rotated Detection Without Rotated
Annotation [53.439096583978504]
回転バウンディングボックスは、伸長したオブジェクトの出力あいまいさを劇的に減少させる。
この効果にもかかわらず、回転検出器は広く使われていない。
本稿では,モデルが正確な回転ボックスを予測できるフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-05T03:07:36Z) - Uncertainty Aware Active Learning for Reconfiguration of Pre-trained
Deep Object-Detection Networks for New Target Domains [0.0]
物体検出はコンピュータビジョンタスクの最も重要かつ基本的な側面の1つである。
オブジェクト検出モデルのトレーニングデータを効率的に取得するために、多くのデータセットは、ビデオフォーマットでアノテーションのないデータを取得することを選択します。
ビデオからすべてのフレームに注釈を付けるのは、多くのフレームがモデルが学ぶのに非常によく似た情報を含んでいるため、費用がかかり非効率である。
本稿では,この問題に対処するためのオブジェクト検出モデルのための新しい能動学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-22T17:14:10Z) - Long Range Object-Level Monocular Depth Estimation for UAVs [0.0]
本稿では,画像からモノクロ物体を長距離検出するための最先端手法の新たな拡張法を提案する。
まず、回帰タスクとして深度推定をモデル化する際、SigmoidおよびReLUライクエンコーディングを提案する。
次に,深度推定を分類問題とし,訓練損失の計算にソフトアルグマックス関数を導入する。
論文 参考訳(メタデータ) (2023-02-17T15:26:04Z) - Weakly Supervised Attended Object Detection Using Gaze Data as
Annotations [19.556639418489446]
本研究では,自我中心の視点から,観光地における対象物の検出と認識の課題について考察する。
本稿では、視線データにのみ依存するタスクの弱教師付きバージョンと、出席対象のクラスを示すフレームレベルラベルを提案する。
その結果, 検討された手法は, 弱教師付き方式で満足な性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2022-04-14T16:31:24Z) - Towards Real-World Prohibited Item Detection: A Large-Scale X-ray
Benchmark [53.9819155669618]
本稿では,PIDrayと命名された大規模データセットについて述べる。
大量の努力を払って、私たちのデータセットには、高品質な注釈付きセグメンテーションマスクとバウンディングボックスを備えた47,677ドルのX線画像に、禁止アイテムの12ドルカテゴリが含まれています。
提案手法は最先端の手法に対して,特に故意に隠された項目を検出するために好適に機能する。
論文 参考訳(メタデータ) (2021-08-16T11:14:16Z) - Unsupervised Domain Adaption of Object Detectors: A Survey [87.08473838767235]
近年のディープラーニングの進歩は、様々なコンピュータビジョンアプリケーションのための正確で効率的なモデルの開発につながっている。
高度に正確なモデルを学ぶには、大量の注釈付きイメージを持つデータセットの可用性に依存する。
このため、ラベルスカースデータセットに視覚的に異なる画像がある場合、モデルの性能は大幅に低下する。
論文 参考訳(メタデータ) (2021-05-27T23:34:06Z) - MOD: Benchmark for Military Object Detection [7.717707789008148]
そこで本研究では,MODと呼ばれる軍用物体検出ベンチマークを提案する。
MODのオブジェクトには、迷彩、ぼかし、クラス間の類似性、クラス内分散、複雑な軍事環境などのユニークな課題が含まれています。
物体の代表的な領域を強調表示するために、損失誘導注意(LGA)モジュールを利用するLGA-RCNNを提案する。
論文 参考訳(メタデータ) (2021-04-28T13:52:58Z) - Data Augmentation for Object Detection via Differentiable Neural
Rendering [71.00447761415388]
注釈付きデータが乏しい場合、堅牢なオブジェクト検出器を訓練することは困難です。
この問題に対処する既存のアプローチには、ラベル付きデータからラベル付きデータを補間する半教師付き学習が含まれる。
オブジェクト検出のためのオフラインデータ拡張手法を導入し、新しいビューでトレーニングデータを意味的に補間する。
論文 参考訳(メタデータ) (2021-03-04T06:31:06Z) - Assisting Scene Graph Generation with Self-Supervision [21.89909688056478]
本稿では,3つの新しい自己スーパービジョンタスクのセットを提案し,それらをメインモデルへの補助的マルチタスクとして訓練する。
比較しながら、これらのセルフスーパービジョンタスクでベースモデルをスクラッチからトレーニングし、すべてのメトリクスとリコール設定で最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-08-08T16:38:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。