論文の概要: Evaluating an Adaptive Multispectral Turret System for Autonomous Tracking Across Variable Illumination Conditions
- arxiv url: http://arxiv.org/abs/2512.22263v1
- Date: Wed, 24 Dec 2025 17:11:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:29.946859
- Title: Evaluating an Adaptive Multispectral Turret System for Autonomous Tracking Across Variable Illumination Conditions
- Title(参考訳): 可変照明条件における自律追尾のための適応型マルチスペクトルターレットシステムの評価
- Authors: Aahan Sachdeva, Dhanvinkumar Ganeshkumar, James E. Gallagher, Tyler Treat, Edward J. Oughton,
- Abstract要約: 従来の赤緑色(RGB)検出パイプラインは、低照度環境で苦労している。
RGBと長波長赤外線(LWIR)ビデオストリームを複数の融合比で融合する適応フレームワークを提案する。
私たちは、3つの光レベルにまたがる22,000以上の注釈付きイメージで、33のYou Only Look Once (YOLO)モデルをトレーニングしました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous robotic platforms are playing a growing role across the emergency services sector, supporting missions such as search and rescue operations in disaster zones and reconnaissance. However, traditional red-green-blue (RGB) detection pipelines struggle in low-light environments, and thermal-based systems lack color and texture information. To overcome these limitations, we present an adaptive framework that fuses RGB and long-wave infrared (LWIR) video streams at multiple fusion ratios and dynamically selects the optimal detection model for each illumination condition. We trained 33 You Only Look Once (YOLO) models on over 22,000 annotated images spanning three light levels: no-light (<10 lux), dim-light (10-1000 lux), and full-light (>1000 lux). To integrate both modalities, fusion was performed by blending aligned RGB and LWIR frames at eleven ratios, from full RGB (100/0) to full LWIR (0/100) in 10% increments. Evaluation showed that the best full-light model (80/20 RGB-LWIR) and dim-light model (90/10 fusion) achieved 92.8% and 92.0% mean confidence; both significantly outperformed the YOLOv5 nano (YOLOv5n) and YOLOv11 nano (YOLOv11n) baselines. Under no-light conditions, the top 40/60 fusion reached 71.0%, exceeding baselines though not statistically significant. Adaptive RGB-LWIR fusion improved detection confidence and reliability across all illumination conditions, enhancing autonomous robotic vision performance.
- Abstract(参考訳): 自律型ロボットプラットフォームは、災害地帯での捜索・救助活動や偵察などのミッションを支援することで、救急サービス部門全体で成長する役割を担っている。
しかし、従来の赤緑色(RGB)検出パイプラインは低照度環境では困難であり、熱ベースのシステムには色やテクスチャの情報がない。
これらの制約を克服するため、RGBと長波長赤外線(LWIR)ビデオストリームを複数の融合比で融合し、各照明条件に対する最適検出モデルを動的に選択する適応フレームワークを提案する。
私たちは、ノーライト(10 lux)、ディムライト(10-1000 lux)、フルライト(10-1000 lux)、フルライト(>1000 lux)の3つのレベルにまたがる22,000以上の注釈付き画像で、33 You Only Look Once (YOLO)モデルをトレーニングしました。
両モードを統合するため, 完全RGB (100/0) から完全LWIR (0/100) まで, 10%増分で11の比率でアライメントされたRGBフレームとLWIRフレームを混合して融合を行った。
評価の結果、最高のフルライトモデル (80/20 RGB-LWIR) とディムライトモデル (90/10フュージョン) は92.8%と92.0%の平均信頼を達成し、どちらもYOLOv5ナノ (YOLOv5n) とYOLOv11ナノ (YOLOv11n) のベースラインを大きく上回った。
無光条件下では、トップ40/60融合は71.0%に達し、統計的に有意ではないがベースラインを超えた。
適応的なRGB-LWIR融合により、すべての照明条件における検出信頼性と信頼性が向上し、自律型ロボットビジョンの性能が向上した。
関連論文リスト
- SWIR-LightFusion: Multi-spectral Semantic Fusion of Synthetic SWIR with Thermal IR (LWIR/MWIR) and RGB [6.054759773528757]
スペクトル再現を主張せずにSWIR様の構造/コントラストキューを合成的に生成する。
次に、合成SWIR、LWIR、RGBモダリティを統合したマルチモーダル融合フレームワークを提案する。
この結果は、監視と自律システムにおける現実世界の応用のかなりの可能性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-10-15T11:00:41Z) - UNIV: Unified Foundation Model for Infrared and Visible Modalities [12.0490466425884]
Infrared and Visible modalities(UNIV)のための生物学的に着想を得た統一基盤モデルを提案する。
PCCLは、網膜水平細胞の側方抑制を模倣する注意誘導蒸留フレームワークである。
我々の二重知識保存機構は網膜の双極性細胞シグナルルーティングをエミュレートする。
論文 参考訳(メタデータ) (2025-09-19T06:07:53Z) - DepthVision: Robust Vision-Language Understanding through GAN-Based LiDAR-to-RGB Synthesis [11.976362049118782]
このレターではマルチモーダルシーン理解のためのフレームワークであるDepthVisionを紹介します。
条件付き生成逆数ネットワーク(GAN)を用いて、疎LiDAR点雲からRGB画像を合成する。
これらの合成ビューは、Luminance-Aware Modality Adaptation (LAMA)を用いて実際のRGBデータと結合される。
論文 参考訳(メタデータ) (2025-09-09T07:42:07Z) - SAIGFormer: A Spatially-Adaptive Illumination-Guided Network for Low-Light Image Enhancement [58.79901582809091]
近年, トランスフォーマーを用いた低照度化手法は, 世界照明の回復に有望な進展をもたらした。
近年, トランスフォーマーを用いた低照度化手法は, 世界照明の回復に有望な進展をもたらした。
正確な照明復元を可能にする空間適応照明誘導変圧器フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-21T11:38:56Z) - RGB-Thermal Infrared Fusion for Robust Depth Estimation in Complex Environments [0.0]
本稿では,深度推定精度とロバスト性を向上させるマルチモーダル深度推定モデルRTFusionを提案する。
このモデルは、相互補完的アライメント(MCA)モジュールからなる独自の融合機構であるEGFusionを組み込んでいる。
MS2およびViViD++データセットの実験では、提案モデルが高品質な深度マップを一貫して生成していることが示されている。
論文 参考訳(メタデータ) (2025-03-05T01:35:14Z) - SEE: See Everything Every Time - Adaptive Brightness Adjustment for Broad Light Range Images via Events [62.23917631871362]
ダイナミックレンジが120億ドルを超えるイベントカメラは、従来の組込みカメラをはるかに上回っている。
本研究では,広い照明条件下で撮影した画像の明るさを拡張・適応的に調整するために,イベントをどのように利用するかという,新しい研究課題を提案する。
我々のフレームワークは、センサパターンを通して色を捉え、イベントを輝度辞書としてモデル化するためにクロスアテンションを使用し、画像のダイナミックレンジを調整し、広い光域表現を形成する。
論文 参考訳(メタデータ) (2025-02-28T14:55:37Z) - Bringing RGB and IR Together: Hierarchical Multi-Modal Enhancement for Robust Transmission Line Detection [67.02804741856512]
高速かつ高精度なTL検出のために,RGBとIRデータを統合したHMMEN(Hierarchical Multi-Modal Enhancement Network)を提案する。
提案手法では,(1)階層的RGBおよびIR特徴写像を大まかに融合・拡張するMMEB,(2)デコーダ出力とIR特徴写像の不整合を変形可能な畳み込みを利用して補正するFAB,の2つの重要な構成要素を紹介する。
論文 参考訳(メタデータ) (2025-01-25T06:21:06Z) - VELoRA: A Low-Rank Adaptation Approach for Efficient RGB-Event based Recognition [54.27379947727035]
本稿では,RGBイベントに基づく分類のために,事前学習した基盤視覚モデルに適応するための新しいPEFT戦略を提案する。
また、2重モードのフレーム差は、フレーム差バックボーンネットワークを介してモーションキューをキャプチャすると考えられている。
ソースコードと事前トレーニングされたモデルはurlhttps://github.com/Event-AHU/VELoRAでリリースされる。
論文 参考訳(メタデータ) (2024-12-28T07:38:23Z) - Diving into Darkness: A Dual-Modulated Framework for High-Fidelity
Super-Resolution in Ultra-Dark Environments [51.58771256128329]
本稿では,低照度超解像課題の性質を深く理解しようとする,特殊二変調学習フレームワークを提案する。
Illuminance-Semantic Dual Modulation (ISDM) コンポーネントを開発した。
包括的実験は、我々のアプローチが多様で挑戦的な超低照度条件に適用可能であることを示す。
論文 参考訳(メタデータ) (2023-09-11T06:55:32Z) - DUT-LFSaliency: Versatile Dataset and Light Field-to-RGB Saliency
Detection [104.50425501764806]
ライトフィールドサリエンシー検出のための汎用性の高いアプリケーションを可能にする大規模なデータセットを紹介します。
本論文では,フォカルストリームとRGBストリームからなる非対称2ストリームモデルを提案する。
実験は、我々の焦点ストリームが最先端のパフォーマンスを達成することを実証する。
論文 参考訳(メタデータ) (2020-12-30T11:53:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。