論文の概要: MOD: Benchmark for Military Object Detection
- arxiv url: http://arxiv.org/abs/2104.13763v1
- Date: Wed, 28 Apr 2021 13:52:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-29 12:45:55.028175
- Title: MOD: Benchmark for Military Object Detection
- Title(参考訳): mod: 軍事用物体検出ベンチマーク
- Authors: Xin Yi, Jiahao Wu, Bo Ma, Yangtong Ou, Longyao Liu
- Abstract要約: そこで本研究では,MODと呼ばれる軍用物体検出ベンチマークを提案する。
MODのオブジェクトには、迷彩、ぼかし、クラス間の類似性、クラス内分散、複雑な軍事環境などのユニークな課題が含まれています。
物体の代表的な領域を強調表示するために、損失誘導注意(LGA)モジュールを利用するLGA-RCNNを提案する。
- 参考スコア(独自算出の注目度): 7.717707789008148
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection is widely studied in computer vision filed. In recent years,
certain representative deep learning based detection methods along with solid
benchmarks are proposed, which boosts the development of related researchs.
However, there is no object detection benchmark targeted at military field so
far. To facilitate future military object detection research, we propose a
novel, publicly available object detection benchmark in military filed called
MOD, which contains 6,000 images and 17,465 labeled instances. Unlike previous
benchmarks, objects in MOD contain unique challenges such as camouflage, blur,
inter-class similarity, intra-class variance and complex military environment.
Experiments show that under above chanllenges, existing detection methods
suffer from undesirable performance. To address this issue, we propose LGA-RCNN
which utilizes a loss-guided attention (LGA) module to highlight representative
region of objects. Then, those highlighted local information are fused with
global information for precise classification and localization. Extensive
experiments on MOD validate the effectiveness of our method.
- Abstract(参考訳): 物体検出はコンピュータビジョンで広く研究されている。
近年,いくつかの代表的深層学習に基づく検出手法が提案され,関連する研究の進展が促進されている。
しかし、今のところ軍事分野を対象とする物体検出ベンチマークは存在しない。
将来の軍用物体検出研究を容易にするために,6,000枚の画像と17,465個のラベル付きインスタンスを含むMODと呼ばれる軍用物体検出ベンチマークを提案する。
以前のベンチマークとは異なり、modのオブジェクトは迷彩、ぼやけ、クラス間の類似性、クラス内分散、複雑な軍事環境といったユニークな課題を含んでいる。
以上の結果から,既存の検出手法は望ましくない性能に悩まされていることが明らかとなった。
この問題に対処するために、オブジェクトの代表領域をハイライトするために損失誘導注意(LGA)モジュールを利用するLGA-RCNNを提案する。
次に、強調したローカル情報をグローバル情報と融合して、正確な分類とローカライゼーションを行う。
MODの広範囲な実験により,本手法の有効性が検証された。
関連論文リスト
- A Comprehensive Library for Benchmarking Multi-class Visual Anomaly Detection [52.228708947607636]
本稿では,新しい手法のモジュラーフレームワークであるADerを包括的視覚異常検出ベンチマークとして紹介する。
このベンチマークには、産業ドメインと医療ドメインからの複数のデータセットが含まれており、15の最先端メソッドと9つの包括的なメトリクスを実装している。
我々は,異なる手法の長所と短所を客観的に明らかにし,多クラス視覚異常検出の課題と今後の方向性について考察する。
論文 参考訳(メタデータ) (2024-06-05T13:40:07Z) - Open World Object Detection in the Era of Foundation Models [53.683963161370585]
5つの実世界のアプリケーション駆動データセットを含む新しいベンチマークを導入する。
本稿では,オープンワールドのための新しいオブジェクト検出モデル(FOMO)を提案する。
論文 参考訳(メタデータ) (2023-12-10T03:56:06Z) - Transformers in Small Object Detection: A Benchmark and Survey of
State-of-the-Art [34.077422623505804]
トランスフォーマーは、ほぼすべてのビデオや画像データセットにおいて、確立されたCNNベースの検出器を一貫して上回った。
小さなオブジェクトは、検出フレームワークにおいて最も難しいオブジェクトタイプの一つとして特定されている。
本研究は,小物体検出のための変圧器の開発研究を60回以上行った。
論文 参考訳(メタデータ) (2023-09-10T00:08:29Z) - USD: Unknown Sensitive Detector Empowered by Decoupled Objectness and
Segment Anything Model [14.080744645704751]
Open World Object Detection (OWOD) は、新しいコンピュータビジョンタスクである。
本稿では,この2つの境界の学習をデコーダ層に分割する,シンプルで効果的な学習戦略であるDecoupled Objectness Learning(DOL)を提案する。
また、擬似ラベルとソフトウェイト戦略を用いてノイズの負の影響を緩和する補助的スーパービジョンフレームワーク(ASF)も導入する。
論文 参考訳(メタデータ) (2023-06-04T06:42:09Z) - Long Range Object-Level Monocular Depth Estimation for UAVs [0.0]
本稿では,画像からモノクロ物体を長距離検出するための最先端手法の新たな拡張法を提案する。
まず、回帰タスクとして深度推定をモデル化する際、SigmoidおよびReLUライクエンコーディングを提案する。
次に,深度推定を分類問題とし,訓練損失の計算にソフトアルグマックス関数を導入する。
論文 参考訳(メタデータ) (2023-02-17T15:26:04Z) - A Guide to Image and Video based Small Object Detection using Deep
Learning : Case Study of Maritime Surveillance [38.88995659233979]
光画像やビデオにおける小さな物体検出は難しい問題である。
最先端のジェネリックオブジェクト検出方法でさえ、そのようなオブジェクトの正確なローカライズと識別に失敗する。
本稿では,既存の文献を要約し,現在の研究の全体像を示す分類法を提案する。
論文 参考訳(メタデータ) (2022-07-26T14:28:38Z) - Incremental-DETR: Incremental Few-Shot Object Detection via
Self-Supervised Learning [60.64535309016623]
本稿では,DeTRオブジェクト検出器上での微調整および自己教師型学習によるインクリメンタル・デクリメンタル・デクリメンタル・デクリメンタル・オブジェクト検出を提案する。
まず,DeTRのクラス固有のコンポーネントを自己監督で微調整する。
さらに,DeTRのクラス固有のコンポーネントに知識蒸留を施した数発の微調整戦略を導入し,破滅的な忘れを伴わずに新しいクラスを検出するネットワークを奨励する。
論文 参考訳(メタデータ) (2022-05-09T05:08:08Z) - OW-DETR: Open-world Detection Transformer [90.56239673123804]
オープンワールドオブジェクト検出のための新しいエンドツーエンドトランスフォーマーベースのフレームワークOW-DETRを提案する。
OW-DETRは3つの専用コンポーネント、すなわち注目駆動の擬似ラベル、新規性分類、オブジェクトネススコアから構成される。
我々のモデルは、最近導入されたOWODアプローチであるOREよりも優れており、リコールの度合いは1.8%から3.3%である。
論文 参考訳(メタデータ) (2021-12-02T18:58:30Z) - Discovery-and-Selection: Towards Optimal Multiple Instance Learning for
Weakly Supervised Object Detection [86.86602297364826]
複数インスタンス学習(DS-MIL)と融合した発見・選択手法を提案する。
我々の提案するDS-MILアプローチは,最先端の性能を報告しながら,ベースラインを一貫して改善することができる。
論文 参考訳(メタデータ) (2021-10-18T07:06:57Z) - Slender Object Detection: Diagnoses and Improvements [74.40792217534]
本稿では,超高アスペクト比,すなわちtextbfslender オブジェクトの特定タイプの検出について検討する。
古典的物体検出法では、細い物体に対してのみ評価される場合、COCO上の18.9%のmAPの劇的な低下が観察される。
論文 参考訳(メタデータ) (2020-11-17T09:39:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。