論文の概要: SyNet: An Ensemble Network for Object Detection in UAV Images
- arxiv url: http://arxiv.org/abs/2012.12991v1
- Date: Wed, 23 Dec 2020 21:38:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 20:05:52.635703
- Title: SyNet: An Ensemble Network for Object Detection in UAV Images
- Title(参考訳): SyNet:UAV画像におけるオブジェクト検出のためのアンサンブルネットワーク
- Authors: Berat Mert Albaba, Sedat Ozer
- Abstract要約: 本稿では,マルチステージ方式とシングルステージ方式を組み合わせたアンサンブルネットワークであるSyNetを提案する。
ビルディングブロックとして、センシング戦略とともに、プリトレーニング特徴抽出器を備えたセンタネットおよびカスケードr−cnnを利用する。
提案手法により得られた技術成果を2つの異なるデータセットで報告する。
- 参考スコア(独自算出の注目度): 13.198689566654107
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in camera equipped drone applications and their widespread
use increased the demand on vision based object detection algorithms for aerial
images. Object detection process is inherently a challenging task as a generic
computer vision problem, however, since the use of object detection algorithms
on UAVs (or on drones) is relatively a new area, it remains as a more
challenging problem to detect objects in aerial images. There are several
reasons for that including: (i) the lack of large drone datasets including
large object variance, (ii) the large orientation and scale variance in drone
images when compared to the ground images, and (iii) the difference in texture
and shape features between the ground and the aerial images. Deep learning
based object detection algorithms can be classified under two main categories:
(a) single-stage detectors and (b) multi-stage detectors. Both single-stage and
multi-stage solutions have their advantages and disadvantages over each other.
However, a technique to combine the good sides of each of those solutions could
yield even a stronger solution than each of those solutions individually. In
this paper, we propose an ensemble network, SyNet, that combines a multi-stage
method with a single-stage one with the motivation of decreasing the high false
negative rate of multi-stage detectors and increasing the quality of the
single-stage detector proposals. As building blocks, CenterNet and Cascade
R-CNN with pretrained feature extractors are utilized along with an ensembling
strategy. We report the state of the art results obtained by our proposed
solution on two different datasets: namely MS-COCO and visDrone with \%52.1
$mAP_{IoU = 0.75}$ is obtained on MS-COCO $val2017$ dataset and \%26.2
$mAP_{IoU = 0.75}$ is obtained on VisDrone $test-set$.
- Abstract(参考訳): カメラ搭載ドローンの最近の進歩と普及により、航空画像に対する視覚に基づく物体検出アルゴリズムの需要が高まった。
物体検出プロセスは、本質的には汎用的なコンピュータビジョン問題としての課題であるが、uav(またはドローン)での物体検出アルゴリズムの使用は、比較的新しい領域であるため、航空画像中の物体を検出するためのより困難な問題として残されている。
i)大きな物体のばらつきを含む大規模なドローンデータセットの欠如、(ii)地上画像と比較してドローン画像の大きな向きとスケールのばらつき、(iii)地上画像と空中画像のテクスチャと形状の特徴の違いなど、いくつかの理由がある。
ディープラーニングに基づく物体検出アルゴリズムは、(a)単段検出器と(b)多段検出器の2つの主要なカテゴリに分類される。
シングルステージソリューションとマルチステージソリューションはどちらも、それぞれに長所と短所がある。
しかし、これらの解の良辺を結合する手法は、それぞれの解よりも強い解を個々に得ることができる。
本稿では,多段方式と単段方式を組み合わせたアンサンブルネットワークであるsynetを提案する。
ビルディングブロックとして、事前訓練された特徴抽出器を備えたCenterNetとCascade R-CNNをアンサンブル戦略と共に利用する。
提案手法によって得られた2つの異なるデータセット、すなわち、mAP_{IoU = 0.75}$がMS-COCO $val2017$データセットで得られ、mAP_{IoU = 0.75}$がVisDrone $test-set$で得られる。
関連論文リスト
- ARUBA: An Architecture-Agnostic Balanced Loss for Aerial Object
Detection [24.085715205081385]
我々は、オブジェクトのサイズを画像中の画素数、サイズ不均衡として、データセット内の特定のサイズのオブジェクトの過剰表現として表現する。
本稿では,任意のオブジェクト検出モデル上にプラグインとして適用可能な,新しいARchitectUre-Agnostic BAlanced Loss (ARUBA)を提案する。
論文 参考訳(メタデータ) (2022-10-10T11:28:16Z) - Uncertainty Aware Multitask Pyramid Vision Transformer For UAV-Based
Object Re-Identification [38.19907319079833]
UAVベースのオブジェクトReIDのバックボーンとして、畳み込みのない新しいマルチスケールアーキテクチャであるPraamid Vision Transformer(PVT)を用いるマルチタスク学習手法を提案する。
クラス内変動の不確実性モデリングにより、不確実性認識オブジェクトIDとカメラID情報の両方を用いて、提案手法を協調的に最適化することができる。
論文 参考訳(メタデータ) (2022-09-19T00:27:07Z) - Enhanced Single-shot Detector for Small Object Detection in Remote
Sensing Images [33.84369068593722]
小型物体検出のための画像ピラミッド単発検出器(IPSSD)を提案する。
IPSSDでは、単一ショット検出器と画像ピラミッドネットワークを組み合わせて、候補領域を生成するための意味的に強い特徴を抽出する。
提案するネットワークは,特徴ピラミッドネットワークから小規模な特徴を拡張できる。
論文 参考訳(メタデータ) (2022-05-12T07:35:07Z) - Dual Adversarial Adaptation for Cross-Device Real-World Image
Super-Resolution [114.26933742226115]
異なるデバイスからの画像に基づいて訓練された超高解像度(SR)モデルは、異なる画像パターンを示す可能性がある。
本稿では、DADA(Dual Adversarial Adaptation)という、実世界のSRのための教師なしドメイン適応機構を提案する。
3台のカメラで6台のリアル・トゥ・リアル・アダプティブ・セッティングで実験を行い、既存の最先端のアプローチと比較して優れた性能を実現した。
論文 参考訳(メタデータ) (2022-05-07T02:55:39Z) - Target-aware Dual Adversarial Learning and a Multi-scenario
Multi-Modality Benchmark to Fuse Infrared and Visible for Object Detection [65.30079184700755]
本研究は、物体検出のために異なるように見える赤外線と可視画像の融合の問題に対処する。
従来のアプローチでは、2つのモダリティの根底にある共通点を発見し、反復最適化またはディープネットワークによって共通空間に融合する。
本稿では、融合と検出の連立問題に対する二段階最適化の定式化を提案し、その後、核融合と一般的に使用される検出ネットワークのためのターゲット認識デュアル逆学習(TarDAL)ネットワークに展開する。
論文 参考訳(メタデータ) (2022-03-30T11:44:56Z) - One-Shot Object Affordance Detection in the Wild [76.46484684007706]
Affordance Detectionは、画像内のオブジェクトの潜在的なアクション可能性を特定することを指す。
我々は、人間の行動目的を推定し、それを転送して、すべての候補画像から共通価格を検出するワンショットアフォーダンス検出ネットワーク(OSAD-Net)を考案する。
複雑なシーンと豊富なアノテーションによって、当社のPADv2データセットは、アベイランス検出メソッドをベンチマークするためのテストベッドとして使用することができます。
論文 参考訳(メタデータ) (2021-08-08T14:53:10Z) - MRDet: A Multi-Head Network for Accurate Oriented Object Detection in
Aerial Images [51.227489316673484]
水平アンカーから変換された指向性提案を生成するために、任意指向領域提案ネットワーク(AO-RPN)を提案する。
正確なバウンディングボックスを得るために,検出タスクを複数のサブタスクに分離し,マルチヘッドネットワークを提案する。
各ヘッドは、対応するタスクに最適な特徴を学習するために特別に設計されており、ネットワークがオブジェクトを正確に検出することができる。
論文 参考訳(メタデータ) (2020-12-24T06:36:48Z) - Unsupervised Domain Adaptation from Synthetic to Real Images for
Anchorless Object Detection [0.0]
本稿では,アンカーレス物体検出器に非監視領域適応法を実装した。
私たちの仕事では、合成画像を含むドメイン適応問題のために、最新のアンカーレスアーキテクチャの1つである CenterNet を使用します。
論文 参考訳(メタデータ) (2020-12-15T10:51:43Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - PENet: Object Detection using Points Estimation in Aerial Images [9.33900415971554]
これらの課題に対処するために,新しいネットワーク構造であるポイント推定ネットワーク(PENet)を提案する。
PENetはMask Resampling Module(MRM)を使用して、不均衡なデータセットを増大させ、粗いアンカーフリー検出器(CPEN)で小さなオブジェクトクラスタの中心点を効果的に予測し、微細なアンカーフリー検出器FPENで小さなオブジェクトの正確な位置を特定する。
航空データセット visDrone と UAVDT による実験により,PENet は既存の最先端手法よりも精度の高い結果を得た。
論文 参考訳(メタデータ) (2020-01-22T19:43:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。