論文の概要: Combining Visible and Infrared Spectrum Imagery using Machine Learning
for Small Unmanned Aerial System Detection
- arxiv url: http://arxiv.org/abs/2003.12638v2
- Date: Thu, 2 Apr 2020 19:08:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 04:53:19.120015
- Title: Combining Visible and Infrared Spectrum Imagery using Machine Learning
for Small Unmanned Aerial System Detection
- Title(参考訳): 小型無人航空機システム検出のための機械学習による可視・赤外スペクトル画像の合成
- Authors: Vinicius G. Goecks, Grayson Woods, John Valasek
- Abstract要約: 本研究は,SUASの視覚的検出に機械学習を用いたLWIRと可視光センサの利点を組み合わせることを提案する。
検出率は71.2+-8.3%で、LWIRに比べて69%、可視スペクトル単独では30.4%向上した。
- 参考スコア(独自算出の注目度): 1.392250707100996
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advances in machine learning and deep neural networks for object detection,
coupled with lower cost and power requirements of cameras, led to promising
vision-based solutions for sUAS detection. However, solely relying on the
visible spectrum has previously led to reliability issues in low contrast
scenarios such as sUAS flying below the treeline and against bright sources of
light. Alternatively, due to the relatively high heat signatures emitted from
sUAS during flight, a long-wave infrared (LWIR) sensor is able to produce
images that clearly contrast the sUAS from its background. However, compared to
widely available visible spectrum sensors, LWIR sensors have lower resolution
and may produce more false positives when exposed to birds or other heat
sources. This research work proposes combining the advantages of the LWIR and
visible spectrum sensors using machine learning for vision-based detection of
sUAS. Utilizing the heightened background contrast from the LWIR sensor
combined and synchronized with the relatively increased resolution of the
visible spectrum sensor, a deep learning model was trained to detect the sUAS
through previously difficult environments. More specifically, the approach
demonstrated effective detection of multiple sUAS flying above and below the
treeline, in the presence of heat sources, and glare from the sun. Our approach
achieved a detection rate of 71.2 +- 8.3%, improving by 69% when compared to
LWIR and by 30.4% when visible spectrum alone, and achieved false alarm rate of
2.7 +- 2.6%, decreasing by 74.1% and by 47.1% when compared to LWIR and visible
spectrum alone, respectively, on average, for single and multiple drone
scenarios, controlled for the same confidence metric of the machine learning
object detector of at least 50%. Videos of the solution's performance can be
seen at https://sites.google.com/view/tamudrone-spie2020/.
- Abstract(参考訳): オブジェクト検出のための機械学習とディープニューラルネットワークの進歩と、カメラの低コストと電力要件が相まって、suas検出のためのビジョンベースのソリューションが期待できる。
しかし、これまでは可視光スペクトルのみに頼っていたため、SUASはツリーラインの下を飛んでおり、明るい光源に対して低いコントラストのシナリオで信頼性の問題を引き起こした。
または、飛行中にsUASから放出される比較的高い熱信号のために、LWIRセンサーは、SUASを背景と明確に対比した画像を生成することができる。
しかし、広く利用可能な可視スペクトルセンサーに比べ、lwirセンサーは解像度が低く、鳥や他の熱源に曝されると偽陽性になる可能性がある。
本研究は,suasの検出に機械学習を用いたlwirと可視スペクトルセンサの利点を組み合わせることを提案する。
可視光スペクトルセンサの解像度が比較的向上したlwirセンサとの背景コントラストの高まりを利用して,これまで困難だった環境下でのsuas検出を深層学習モデルで訓練した。
より具体的には、このアプローチは、ツリーラインの上と下を飛んでいる複数のsUASを、熱源の存在や太陽からの輝きの存在下で効果的に検出することを示した。
提案手法は,LWIRと比較して71.2+-8.3%,可視スペクトル単独で30.4%,誤警報率2.7+-2.6%,LWIRと可視スペクトル単独で平均74.1%,可視スペクトル単独で平均47.1%,単発および複数発のドローンシナリオで平均50%以上の精度で制御された。
ソリューションのパフォーマンスのビデオはhttps://sites.google.com/view/tamudrone-spie2020/で見ることができる。
関連論文リスト
- Beyond Night Visibility: Adaptive Multi-Scale Fusion of Infrared and
Visible Images [49.75771095302775]
赤外線および可視画像を用いた適応型マルチスケール核融合ネットワーク(AMFusion)を提案する。
まず、赤外画像と可視画像から空間的特徴と意味的特徴を分離し、前者が光分布の調整に使用される。
第2に,事前学習したバックボーンから抽出した検出機能を利用して,意味的特徴の融合を誘導する。
第3に、通常の光強度で融合画像を制約する新しい照明損失を提案する。
論文 参考訳(メタデータ) (2024-03-02T03:52:07Z) - DensePose From WiFi [86.61881052177228]
WiFi信号の位相と振幅を24のヒト領域内の紫外線座標にマッピングするディープニューラルネットワークを開発した。
本モデルでは,複数の被験者の密集したポーズを,画像に基づくアプローチと同等の性能で推定することができる。
論文 参考訳(メタデータ) (2022-12-31T16:48:43Z) - Near-infrared and visible-light periocular recognition with Gabor
features using frequency-adaptive automatic eye detection [69.35569554213679]
近視認識は、制御の少ないシナリオにおいて、顔や虹彩の堅牢性の増大が要求されるため、近年注目を集めている。
本稿では,複雑な対称性フィルタに基づく眼球検出システムを提案する。
このシステムはレチノトピックサンプリンググリッドとガボルスペクトル分解に基づく近視アルゴリズムの入力として用いられる。
論文 参考訳(メタデータ) (2022-11-10T13:04:03Z) - Target-aware Dual Adversarial Learning and a Multi-scenario
Multi-Modality Benchmark to Fuse Infrared and Visible for Object Detection [65.30079184700755]
本研究は、物体検出のために異なるように見える赤外線と可視画像の融合の問題に対処する。
従来のアプローチでは、2つのモダリティの根底にある共通点を発見し、反復最適化またはディープネットワークによって共通空間に融合する。
本稿では、融合と検出の連立問題に対する二段階最適化の定式化を提案し、その後、核融合と一般的に使用される検出ネットワークのためのターゲット認識デュアル逆学習(TarDAL)ネットワークに展開する。
論文 参考訳(メタデータ) (2022-03-30T11:44:56Z) - Long-Range Thermal 3D Perception in Low Contrast Environments [0.0]
本報告では, マイクロボロメータを用いたLWIR(Long Wave Infrared)検出器の感度の劇的改善の実現可能性を証明するため, フェーズIの取り組みの結果について述べる。
結果として生じる低SWaP-C熱深度センシングシステムにより、高度空力(AAM)のための自律型航空車両の状況把握が可能となる。
低コントラストの静的および移動物体を含む周囲環境の堅牢な3D情報を提供する。
論文 参考訳(メタデータ) (2021-12-10T01:16:44Z) - A Multi-Stage model based on YOLOv3 for defect detection in PV panels
based on IR and Visible Imaging by Unmanned Aerial Vehicle [65.99880594435643]
本研究では,無人航空機が捉えた空中画像のパネル欠陥を検出するための新しいモデルを提案する。
このモデルは、パネルと欠陥の検出を組み合わせることで、精度を向上する。
提案モデルはイタリア南部の2つの大きなPVプラントで検証されている。
論文 参考訳(メタデータ) (2021-11-23T08:04:32Z) - Deep Learning-based Human Detection for UAVs with Optical and Infrared
Cameras: System and Experiments [35.342730238802886]
本稿では,光学(RGB)と長波赤外線(LWIR)カメラを用いた深層学習に基づく人体検知システムを提案する。
それぞれのスペクトルにおいて、ResNetバックボーンを備えたカスタマイズされたRetinaNetネットワークは、人間の検出を提供する。
境界ボックスアンカーを最適化し,画像解像度を向上することにより,高高度からの欠落検出数を20%以上削減できることを示す。
論文 参考訳(メタデータ) (2020-08-10T15:30:42Z) - Recurrent Exposure Generation for Low-Light Face Detection [113.25331155337759]
本稿では,Recurrent Exposure Generation (REG) モジュールと Multi-Exposure Detection (MED) モジュールを提案する。
REGは、様々な露光設定に対応する段階的かつ効率的な中間画像を生成する。
このような擬似露光はMEDによって融合され、異なる照明条件で顔を検出する。
論文 参考訳(メタデータ) (2020-07-21T17:30:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。