論文の概要: Multi-Modal Domain Fusion for Multi-modal Aerial View Object
Classification
- arxiv url: http://arxiv.org/abs/2212.07039v1
- Date: Wed, 14 Dec 2022 05:14:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 15:03:58.941706
- Title: Multi-Modal Domain Fusion for Multi-modal Aerial View Object
Classification
- Title(参考訳): マルチモーダル航空ビューオブジェクト分類のためのマルチモーダルドメインフュージョン
- Authors: Sumanth Udupa, Aniruddh Sikdar, Suresh Sundaram
- Abstract要約: マルチモーダルデータから領域不変性を学習するために,新しいマルチモーダルドメイン融合(MDF)ネットワークを提案する。
ネットワークはTrack-1で25.3%、Track-2でトップ5で34.26%の精度でトップ10のパフォーマンスを達成した。
- 参考スコア(独自算出の注目度): 4.438928487047433
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Object detection and classification using aerial images is a challenging task
as the information regarding targets are not abundant. Synthetic Aperture
Radar(SAR) images can be used for Automatic Target Recognition(ATR) systems as
it can operate in all-weather conditions and in low light settings. But, SAR
images contain salt and pepper noise(speckle noise) that cause hindrance for
the deep learning models to extract meaningful features. Using just aerial view
Electro-optical(EO) images for ATR systems may also not result in high accuracy
as these images are of low resolution and also do not provide ample information
in extreme weather conditions. Therefore, information from multiple sensors can
be used to enhance the performance of Automatic Target Recognition(ATR)
systems. In this paper, we explore a methodology to use both EO and SAR sensor
information to effectively improve the performance of the ATR systems by
handling the shortcomings of each of the sensors. A novel Multi-Modal Domain
Fusion(MDF) network is proposed to learn the domain invariant features from
multi-modal data and use it to accurately classify the aerial view objects. The
proposed MDF network achieves top-10 performance in the Track-1 with an
accuracy of 25.3 % and top-5 performance in Track-2 with an accuracy of 34.26 %
in the test phase on the PBVS MAVOC Challenge dataset [18].
- Abstract(参考訳): 対象に関する情報が乏しいため,空中画像を用いた物体検出と分類は難しい課題である。
SAR(Synthetic Aperture Radar)画像は、全天候および低照度環境で動作可能なATR(Automatic Target Recognition)システムに使用することができる。
しかし、sar画像には塩とペッパーノイズ(スペックルノイズ)が含まれており、ディープラーニングモデルが有意義な特徴を抽出するのを妨げる。
atrシステムでのみのaircraft view electro-optical(eo)イメージを使用すると、解像度が低く、極端な気象条件でも十分な情報を提供しないため、精度が向上しない可能性がある。
したがって、複数のセンサからの情報を自動目標認識(atr)システムの性能向上に使用できる。
本稿では,各センサの欠点に対処して,EOとSARの両方のセンサ情報を用いて,ATRシステムの性能を効果的に向上する手法について検討する。
マルチモーダル・ドメイン・フュージョン(MDF)ネットワークは、マルチモーダル・データからドメイン不変の特徴を学習し、それを空中ビューオブジェクトを正確に分類するために利用する。
PBVS MAVOC Challengeデータセット[18]において,提案したMDFネットワークは,Track-1において25.3%,Track-2では34.26%の精度でトップ10のパフォーマンスを実現している。
関連論文リスト
- Performance Assessment of Feature Detection Methods for 2-D FS Sonar Imagery [11.23455335391121]
主な課題は、一様でない照明と、濁った環境での視界の低下である。
高周波フォワードフォワードソナーカメラはこれらの問題に対処する。
5種類のソナー装置の実際のソナー画像を用いた特徴検出器の評価を行った。
論文 参考訳(メタデータ) (2024-09-11T04:35:07Z) - Multi-Stage Fusion Architecture for Small-Drone Localization and Identification Using Passive RF and EO Imagery: A Case Study [0.1872664641238533]
本研究では、受動無線周波数(RF)と電気光学(EO)画像データを用いた多段階融合アーキテクチャを開発する。
教師なしの深層学習に基づく手法と、教師なしの地上/後方分離手法を探索し、挑戦的な環境に対処する。
提案した融合アーキテクチャを検証し,その範囲で追跡性能を定量化する。
論文 参考訳(メタデータ) (2024-03-30T22:53:28Z) - Fewer is More: Efficient Object Detection in Large Aerial Images [59.683235514193505]
本稿では,検出者がより少ないパッチに注目するのに対して,より効率的な推論とより正確な結果を得るのに役立つObjectness Activation Network(OAN)を提案する。
OANを用いて、5つの検出器は3つの大規模な空中画像データセットで30.0%以上のスピードアップを取得する。
我々はOANをドライブシーン物体検出と4Kビデオ物体検出に拡張し,検出速度をそれぞれ112.1%,75.0%向上させた。
論文 参考訳(メタデータ) (2022-12-26T12:49:47Z) - Bridging the View Disparity of Radar and Camera Features for Multi-modal
Fusion 3D Object Detection [6.959556180268547]
本稿では3次元物体検出にミリ波レーダとカメラセンサ融合を用いる方法について述べる。
より優れた特徴表現のための鳥眼ビュー(BEV)における特徴レベル融合を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-08-25T13:21:37Z) - Target-aware Dual Adversarial Learning and a Multi-scenario
Multi-Modality Benchmark to Fuse Infrared and Visible for Object Detection [65.30079184700755]
本研究は、物体検出のために異なるように見える赤外線と可視画像の融合の問題に対処する。
従来のアプローチでは、2つのモダリティの根底にある共通点を発見し、反復最適化またはディープネットワークによって共通空間に融合する。
本稿では、融合と検出の連立問題に対する二段階最適化の定式化を提案し、その後、核融合と一般的に使用される検出ネットワークのためのターゲット認識デュアル逆学習(TarDAL)ネットワークに展開する。
論文 参考訳(メタデータ) (2022-03-30T11:44:56Z) - Learning Efficient Representations for Enhanced Object Detection on
Large-scene SAR Images [16.602738933183865]
SAR(Synthetic Aperture Radar)画像のターゲットの検出と認識は難しい問題である。
近年開発されたディープラーニングアルゴリズムは,SAR画像の固有の特徴を自動的に学習することができる。
本稿では,効率的かつ堅牢なディープラーニングに基づくターゲット検出手法を提案する。
論文 参考訳(メタデータ) (2022-01-22T03:25:24Z) - Attentional Feature Refinement and Alignment Network for Aircraft
Detection in SAR Imagery [24.004052923372548]
SAR(Synthetic Aperture Radar)画像における航空機検出は、航空機の離散的な外観、明らかなクラス内変異、小さなサイズ、深刻な背景の干渉のために難しい課題である。
本稿では,SAR画像中の航空機を競合精度と速度で検出する単一ショット検出器AFRANを提案する。
論文 参考訳(メタデータ) (2022-01-18T16:54:49Z) - Rethinking Drone-Based Search and Rescue with Aerial Person Detection [79.76669658740902]
航空ドローンの映像の視覚検査は、現在土地捜索救助(SAR)活動に不可欠な部分である。
本稿では,この空中人物検出(APD)タスクを自動化するための新しいディープラーニングアルゴリズムを提案する。
本稿では,Aerial Inspection RetinaNet (AIR) アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-11-17T21:48:31Z) - Meta-UDA: Unsupervised Domain Adaptive Thermal Object Detection using
Meta-Learning [64.92447072894055]
赤外線(IR)カメラは、照明条件や照明条件が悪ければ頑丈である。
既存のUDA手法を改善するためのアルゴリズムメタ学習フレームワークを提案する。
KAISTおよびDSIACデータセットのための最先端熱検出器を作成した。
論文 参考訳(メタデータ) (2021-10-07T02:28:18Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - Exploring Thermal Images for Object Detection in Underexposure Regions
for Autonomous Driving [67.69430435482127]
アンダーエクスポージャー地域は、安全な自動運転のための周囲の完全な認識を構築するのに不可欠である。
サーマルカメラが利用可能になったことで、他の光学センサーが解釈可能な信号を捉えていない地域を探索するための重要な代替手段となった。
本研究は,可視光画像から熱画像へ学習を伝達するためのスタイル伝達手法を用いたドメイン適応フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-01T09:59:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。