論文の概要: Multi-temporal Adaptive Red-Green-Blue and Long-Wave Infrared Fusion for You Only Look Once-Based Landmine Detection from Unmanned Aerial Systems
- arxiv url: http://arxiv.org/abs/2512.20487v1
- Date: Tue, 23 Dec 2025 16:26:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.934808
- Title: Multi-temporal Adaptive Red-Green-Blue and Long-Wave Infrared Fusion for You Only Look Once-Based Landmine Detection from Unmanned Aerial Systems
- Title(参考訳): 無人航空機からの1回の地雷検出のための多時間適応赤緑色および長波赤外核融合
- Authors: James E. Gallagher, Edward J. Oughton, Jana Kosecka,
- Abstract要約: 毎年2万6000人の死者を出し、60か国に1億1000万の鉱山を活発に展開した。
本研究では,無人航空システム(UAS)による地すべり地雷検出のための適応型赤緑色(RGB)およびLWIR(LWIR)融合の評価を行った。
- 参考スコア(独自算出の注目度): 2.2976554778751668
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Landmines remain a persistent humanitarian threat, with 110 million actively deployed mines across 60 countries, claiming 26,000 casualties annually. This research evaluates adaptive Red-Green-Blue (RGB) and Long-Wave Infrared (LWIR) fusion for Unmanned Aerial Systems (UAS)-based detection of surface-laid landmines, leveraging the thermal contrast between the ordnance and the surrounding soil to enhance feature extraction. Using You Only Look Once (YOLO) architectures (v8, v10, v11) across 114 test images, generating 35,640 model-condition evaluations, YOLOv11 achieved optimal performance (86.8% mAP), with 10 to 30% thermal fusion at 5 to 10m altitude identified as the optimal detection parameters. A complementary architectural comparison revealed that while RF-DETR achieved the highest accuracy (69.2% mAP), followed by Faster R-CNN (67.6%), YOLOv11 (64.2%), and RetinaNet (50.2%), YOLOv11 trained 17.7 times faster than the transformer-based RF-DETR (41 minutes versus 12 hours), presenting a critical accuracy-efficiency tradeoff for operational deployment. Aggregated multi-temporal training datasets outperformed season-specific approaches by 1.8 to 9.6%, suggesting that models benefit from exposure to diverse thermal conditions. Anti-Tank (AT) mines achieved 61.9% detection accuracy, compared with 19.2% for Anti-Personnel (AP) mines, reflecting both the size differential and thermal-mass differences between these ordnance classes. As this research examined surface-laid mines where thermal contrast is maximized, future research should quantify thermal contrast effects for mines buried at varying depths across heterogeneous soil types.
- Abstract(参考訳): 地雷は依然として永続的な人道的脅威であり、60カ国に1億1000万の鉱山が活発に配備され、毎年2万6000人が負傷した。
本研究では,無人航空システム(UAS)による地雷の赤緑色(RGB)とLWIR(LWIR)を適応的に検出し,日射と周辺の土壌の熱コントラストを利用して特徴抽出を向上する。
YOLO(You Only Look Once)アーキテクチャ(v8, v10, v11)を114の試験画像に使用し、35,640のモデル条件評価を生成し、YOLOv11は最適性能(86.8% mAP)を達成した。
補完的なアーキテクチャ比較の結果、RF-DETRは最高精度(69.2% mAP)を達成し、続いてFaster R-CNN(67.6%)、YOLOv11(64.2%)、RetinaNet(50.2%)が続いたが、YOLOv11はトランスフォーマーベースのRF-DETR(41分対12時間)よりも17.7倍の速度で訓練し、運用運用における重要な精度と効率のトレードオフを示した。
集約された多時期トレーニングデータセットは、季節固有のアプローチを1.8から9.6%上回った。
反タンク(AT)地雷は61.9%の精度で検出され、反パネル(AP)地雷は19.2%の精度で検出された。
本研究は, 熱コントラストが最大となる表層地雷について検討したので, 将来, 異種土壌の様々な深さに埋没した地雷の熱コントラスト効果の定量化が期待できる。
関連論文リスト
- AMLID: An Adaptive Multispectral Landmine Identification Dataset for Drone-Based Detection [0.0]
我々は,無人航空システム(UAS)による地雷検出のために,レッドグリーンブルー(RGB)とロングウェーブ赤外線(LWIR)画像を組み合わせた最初のオープンソースデータセットを提案する。
AMLIDは12,078枚のラベル付き画像で構成されており、金属およびプラスチックの組成において、対人および対戦車のカテゴリに21種類の地球規模の地雷が配置されている。
論文 参考訳(メタデータ) (2025-12-21T13:58:35Z) - YOLOv11-Litchi: Efficient Litchi Fruit Detection based on UAV-Captured Agricultural Imagery in Complex Orchard Environments [6.862722449907841]
本稿では,UAVを用いたリッチ検出のための軽量で堅牢な検出モデルであるYOLOv11-Litchiを紹介する。
YOLOv11-Litchiのパラメータサイズは6.35MBで、YOLOv11ベースラインよりも32.5%小さい。
このモデルは57.2FPSのフレームレートを実現し、リアルタイム検出要求を満たす。
論文 参考訳(メタデータ) (2025-10-11T09:44:00Z) - A Comparative Benchmark of Real-time Detectors for Blueberry Detection towards Precision Orchard Management [2.667064587590596]
本研究では,先進的リアルタイム物体検出器の比較ベンチマーク解析を行った。
このデータセットは、2022-2023シーズンにスマートフォンで収集された671枚の天蓋画像からなる。
YOLOモデルのうち、YOLOv12mはmAP@50の93.3%で最高の精度を達成した。
論文 参考訳(メタデータ) (2025-09-24T21:42:24Z) - Solar Active Regions Emergence Prediction Using Long Short-Term Memory
Networks [44.99833362998488]
太陽表面における活動領域(AR)の形成を予測するために,Long Short-Term Memory(LSTM)モデルを開発した。
音響パワーと磁束の時系列データセットを使用して、LSTMモデルを12時間前に連続強度を予測するために訓練する。
これらの機械学習(ML)モデルは、次の磁束の出現と連続体強度の減少に伴う音響パワー密度の変動を捉えることができる。
論文 参考訳(メタデータ) (2024-09-25T23:09:46Z) - Thermal Imaging and Radar for Remote Sleep Monitoring of Breathing and Apnea [42.00356210257671]
睡眠モニタリングのためのレーダとサーマルイメージングの初回比較を行った。
熱画像法では,0.99,精度0.68,リコール0.74,F1スコア0.71,クラス内相関0.73が検出された。
マルチモーダル・セットアップを活用して閉塞性および中枢性睡眠時無呼吸を分類するための新しい提案を提案する。
論文 参考訳(メタデータ) (2024-07-16T17:26:50Z) - Dual-band feature selection for maturity classification of specialty crops by hyperspectral imaging [5.905721043072562]
イチゴやトマトなどの特産作物の成熟度分類は、農業の下流における重要な活動である。
近年のDeep Learningの進歩は、成熟度分類のためのカラー画像の奨励的な結果を生み出している。
成熟度分類のための特徴抽出法を提案する。
論文 参考訳(メタデータ) (2024-05-16T10:01:16Z) - Automating global landslide detection with heterogeneous ensemble
deep-learning classification [44.99833362998488]
地すべりは道路、鉄道、建物、人間の生活などのインフラを脅かす。
危険に基づく空間計画と早期警戒システムは、地すべりから社会へのリスクを減らすための費用対効果の戦略である。
近年,中~高解像度の衛星画像を入力として,深層学習モデルを陸地マッピングに適用している。
論文 参考訳(メタデータ) (2023-09-12T10:56:16Z) - Vision Transformers, a new approach for high-resolution and large-scale
mapping of canopy heights [50.52704854147297]
分類(離散化)と連続損失関数を最適化した新しい視覚変換器(ViT)モデルを提案する。
このモデルは、従来使用されていた畳み込みベースのアプローチ(ConvNet)よりも、連続損失関数のみで最適化された精度が向上する。
論文 参考訳(メタデータ) (2023-04-22T22:39:03Z) - A Multi-Stage model based on YOLOv3 for defect detection in PV panels
based on IR and Visible Imaging by Unmanned Aerial Vehicle [65.99880594435643]
本研究では,無人航空機が捉えた空中画像のパネル欠陥を検出するための新しいモデルを提案する。
このモデルは、パネルと欠陥の検出を組み合わせることで、精度を向上する。
提案モデルはイタリア南部の2つの大きなPVプラントで検証されている。
論文 参考訳(メタデータ) (2021-11-23T08:04:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。