論文の概要: Drone Object Detection Using RGB/IR Fusion
- arxiv url: http://arxiv.org/abs/2201.03786v1
- Date: Tue, 11 Jan 2022 05:15:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-12 14:19:28.257011
- Title: Drone Object Detection Using RGB/IR Fusion
- Title(参考訳): rgb/ir融合によるドローン物体検出
- Authors: Lizhi Yang, Ruhang Ma, Avideh Zakhor
- Abstract要約: 本研究では,AIRSimシミュレーションエンジンとCycleGANを用いて合成赤外線画像を作成する手法を開発した。
我々は、地上での物体検出のためにRGBとIR画像の融合に照明対応の融合フレームワークを利用する。
我々のソリューションは、実際のドローン上で動作するNVIDIA Jetson Xavier上に実装されており、RGB/IRイメージペアあたり28ミリ秒の処理が必要になります。
- 参考スコア(独自算出の注目度): 1.5469452301122175
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection using aerial drone imagery has received a great deal of
attention in recent years. While visible light images are adequate for
detecting objects in most scenarios, thermal cameras can extend the
capabilities of object detection to night-time or occluded objects. As such,
RGB and Infrared (IR) fusion methods for object detection are useful and
important. One of the biggest challenges in applying deep learning methods to
RGB/IR object detection is the lack of available training data for drone IR
imagery, especially at night. In this paper, we develop several strategies for
creating synthetic IR images using the AIRSim simulation engine and CycleGAN.
Furthermore, we utilize an illumination-aware fusion framework to fuse RGB and
IR images for object detection on the ground. We characterize and test our
methods for both simulated and actual data. Our solution is implemented on an
NVIDIA Jetson Xavier running on an actual drone, requiring about 28
milliseconds of processing per RGB/IR image pair.
- Abstract(参考訳): 近年,空中ドローン画像による物体検出が注目されている。
可視光画像はほとんどのシナリオで物体を検出するのに適しているが、サーマルカメラは物体の検出能力を夜間や隠された物体に拡張することができる。
そのため、オブジェクト検出のためのRGBおよび赤外線融合法が有用かつ重要である。
RGB/IRオブジェクト検出にディープラーニング手法を適用する際の最大の課題のひとつは、特に夜間におけるドローン赤外線画像のトレーニングデータが不足していることである。
本稿では,airsimシミュレーションエンジンとcycleganを用いて合成ir画像を作成するためのいくつかの戦略を考案する。
さらに,地上での物体検出のためにRGBとIR画像の融合に照明対応融合フレームワークを利用する。
シミュレーションデータと実データの両方に対して,本手法を特徴付ける。
我々のソリューションはnvidia jetson xavierで実際のドローンで動作し、rgb/ir画像ペアあたり約28ミリ秒の処理を必要とする。
関連論文リスト
- IRSAM: Advancing Segment Anything Model for Infrared Small Target Detection [55.554484379021524]
Infrared Small Target Detection (IRSTD) タスクは、自然画像と赤外線画像の間に顕著な領域ギャップがあるため、満足度の高い性能を達成するには不十分である。
IRSTDのためのIRSAMモデルを提案する。これはSAMのエンコーダデコーダアーキテクチャを改善し、赤外線小物体の特徴表現をより良く学習する。
論文 参考訳(メタデータ) (2024-07-10T10:17:57Z) - The Solution for the GAIIC2024 RGB-TIR object detection Challenge [5.625794757504552]
RGB-TIRオブジェクト検出は、RGBとTIRの両方の画像を、検出中に補完情報として利用する。
提案手法はAとBのベンチマークでそれぞれ0.516と0.543のmAPスコアを得た。
論文 参考訳(メタデータ) (2024-07-04T12:08:36Z) - Real Time Human Detection by Unmanned Aerial Vehicles [0.0]
公安のための重要な2つのデータソースは、無人航空機(UAV)によって生成された熱赤外(TIR)リモートセンシング写真とビデオである。
ターゲットの小型化,複雑なシーン情報,視聴可能なビデオに対する低解像度化,ラベル付きデータセットやトレーニングモデルのデジェスなどにより,オブジェクト検出は依然として困難である。
本研究では,写真やビデオのためのUAV TIRオブジェクト検出フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-06T18:28:01Z) - Translation, Scale and Rotation: Cross-Modal Alignment Meets
RGB-Infrared Vehicle Detection [10.460296317901662]
空中RGB-IR画像における検出は, クロスモーダルな不整合問題に悩まされている。
本稿では,TSRA (Translation-Scale-Rotation Alignment) モジュールを提案する。
TSRAモジュールに基づく2ストリーム特徴アライメント検出器(TSFADet)は、空中画像におけるRGB-IRオブジェクト検出のために構築されている。
論文 参考訳(メタデータ) (2022-09-28T03:06:18Z) - Boosting RGB-D Saliency Detection by Leveraging Unlabeled RGB Images [89.81919625224103]
RGB-D Salient Object Detection (SOD) のための深層モデルの訓練は、しばしば多数のラベル付きRGB-D画像を必要とする。
本稿では、ラベルのないRGB画像を活用するために、Dual-Semi RGB-D Salient Object Detection Network (DS-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-01T03:02:27Z) - Infrared Small-Dim Target Detection with Transformer under Complex
Backgrounds [155.388487263872]
変換器を用いた赤外線小径目標検出手法を提案する。
画像特徴の相互作用情報をより広い範囲で学習するために,変換器の自己認識機構を採用する。
最小限のターゲットの機能を学習するための機能拡張モジュールも設計しています。
論文 参考訳(メタデータ) (2021-09-29T12:23:41Z) - EagerMOT: 3D Multi-Object Tracking via Sensor Fusion [68.8204255655161]
マルチオブジェクトトラッキング(MOT)により、移動ロボットは周囲の物体を3次元空間と時間で位置づけすることで、良好な動作計画とナビゲーションを行うことができる。
既存の方法は、深度センサー(例えばLiDAR)を使用して3D空間のターゲットを検出し追跡するが、信号の間隔が限られているため、検出範囲は限られている。
我々は,両方のセンサモダリティから利用可能な物体を全て統合し,シーンのダイナミックスを適切に解釈する簡易なトラッキング定式化であるeagermotを提案する。
論文 参考訳(メタデータ) (2021-04-29T22:30:29Z) - Multispectral Object Detection with Deep Learning [7.592218846348004]
本研究では,物体検出タスクにおいて,熱スペクトルとNIRスペクトルの両方を用いて撮像を行った。
我々は、マルチスペクトル画像から物体を検出するために、YOLO v3ネットワークをスクラッチからトレーニングする。
論文 参考訳(メタデータ) (2021-02-05T11:39:14Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。