論文の概要: LSFDNet: A Single-Stage Fusion and Detection Network for Ships Using SWIR and LWIR
- arxiv url: http://arxiv.org/abs/2507.20574v1
- Date: Mon, 28 Jul 2025 07:13:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:57.960912
- Title: LSFDNet: A Single-Stage Fusion and Detection Network for Ships Using SWIR and LWIR
- Title(参考訳): LSFDNet:SWIRとLWIRを用いた船舶用単段核融合検出ネットワーク
- Authors: Yanyin Guo, Runxuan An, Junwei Li, Zhiyuan Zhang,
- Abstract要約: 船舶検出には短波赤外(SWIR)と長波赤外(LWIR)が使用される。
LSFDNetと呼ばれる新しい単一ステージ画像融合検出アルゴリズムを提案する。
このアルゴリズムは画像融合とオブジェクト検出サブタスクネットワーク間の特徴的相互作用を利用する。
2つのデータセット上での単段核融合検出アルゴリズムの優位性を検証した。
- 参考スコア(独自算出の注目度): 16.16208006025223
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional ship detection methods primarily rely on single-modal approaches, such as visible or infrared images, which limit their application in complex scenarios involving varying lighting conditions and heavy fog. To address this issue, we explore the advantages of short-wave infrared (SWIR) and long-wave infrared (LWIR) in ship detection and propose a novel single-stage image fusion detection algorithm called LSFDNet. This algorithm leverages feature interaction between the image fusion and object detection subtask networks, achieving remarkable detection performance and generating visually impressive fused images. To further improve the saliency of objects in the fused images and improve the performance of the downstream detection task, we introduce the Multi-Level Cross-Fusion (MLCF) module. This module combines object-sensitive fused features from the detection task and aggregates features across multiple modalities, scales, and tasks to obtain more semantically rich fused features. Moreover, we utilize the position prior from the detection task in the Object Enhancement (OE) loss function, further increasing the retention of object semantics in the fused images. The detection task also utilizes preliminary fused features from the fusion task to complement SWIR and LWIR features, thereby enhancing detection performance. Additionally, we have established a Nearshore Ship Long-Short Wave Registration (NSLSR) dataset to train effective SWIR and LWIR image fusion and detection networks, bridging a gap in this field. We validated the superiority of our proposed single-stage fusion detection algorithm on two datasets. The source code and dataset are available at https://github.com/Yanyin-Guo/LSFDNet
- Abstract(参考訳): 従来の船舶検出法は主に、可視画像や赤外線画像のような単一モードのアプローチに依存しており、様々な照明条件や重い霧を含む複雑なシナリオにおける適用を制限する。
そこで本研究では,船体検出における短波赤外(SWIR)と長波赤外(LWIR)の利点について検討し,LSFDNetと呼ばれる単一段画像融合検出アルゴリズムを提案する。
このアルゴリズムは画像融合とオブジェクト検出サブタスクネットワーク間の特徴的相互作用を利用して、目覚ましい検出性能を実現し、視覚的に印象的な融合画像を生成する。
融合画像におけるオブジェクトの健全性をさらに向上し、下流検出タスクの性能を向上させるために、マルチレベルクロスフュージョン(MLCF)モジュールを導入する。
このモジュールは、検出タスクからオブジェクトセンシティブなフューズド機能を組み合わせて、複数のモーダル、スケール、タスクを集約し、より意味的にリッチなフューズド機能を得る。
さらに、オブジェクト強調(OE)損失関数における検出タスクから先行する位置を利用して、融合画像におけるオブジェクトの意味の保持をさらに高める。
検出タスクはまた、融合タスクからの予備的な融合特徴を利用してSWIRとLWIRの特徴を補完し、検出性能を向上する。
さらに、SWIRおよびLWIR画像融合および検出ネットワークを効果的に訓練し、この分野のギャップを埋めるため、NSLSR(Nearshore Ship Long-Short Wave Registration)データセットを構築した。
2つのデータセット上での単段核融合検出アルゴリズムの優位性を検証した。
ソースコードとデータセットはhttps://github.com/Yanyin-Guo/LSFDNetで公開されている。
関連論文リスト
- DREB-Net: Dual-stream Restoration Embedding Blur-feature Fusion Network for High-mobility UAV Object Detection [38.882935730384965]
DREB-Netは、ぼやけた画像に特化して設計された、革新的なオブジェクト検出アルゴリズムである。
ブラリー画像復元補助枝を組み込むことにより、ぼやけた画像オブジェクト検出問題の特異性に対処する。
実験結果から, DREB-Netは撮影画像において, 動きのぼやけの下でオブジェクト検出タスクを効果的に行うことが可能であることが示唆された。
論文 参考訳(メタデータ) (2024-10-23T12:32:20Z) - Multimodal Transformer Using Cross-Channel attention for Object Detection in Remote Sensing Images [1.662438436885552]
マルチモーダル融合は、複数のモーダルからのデータを融合することで精度を高めることが決定されている。
早期に異なるチャネル間の関係をマッピングするための新しいマルチモーダル融合戦略を提案する。
本手法は,中期・後期の手法とは対照的に,早期の融合に対処することにより,既存の手法と比較して,競争力や性能に優れる。
論文 参考訳(メタデータ) (2023-10-21T00:56:11Z) - An Interactively Reinforced Paradigm for Joint Infrared-Visible Image
Fusion and Saliency Object Detection [59.02821429555375]
この研究は、野生の隠れた物体の発見と位置決めに焦点をあて、無人のシステムに役立てる。
経験的分析により、赤外線と可視画像融合(IVIF)は、難しい物体の発見を可能にする。
マルチモーダル・サリエント・オブジェクト検出(SOD)は、画像内の物体の正確な空間的位置を正確に記述する。
論文 参考訳(メタデータ) (2023-05-17T06:48:35Z) - CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for
Multi-Modality Image Fusion [138.40422469153145]
本稿では,CDDFuse(Relationed-Driven Feature Decomposition Fusion)ネットワークを提案する。
近赤外可視画像融合や医用画像融合など,複数の融合タスクにおいてCDDFuseが有望な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-11-26T02:40:28Z) - Target-aware Dual Adversarial Learning and a Multi-scenario
Multi-Modality Benchmark to Fuse Infrared and Visible for Object Detection [65.30079184700755]
本研究は、物体検出のために異なるように見える赤外線と可視画像の融合の問題に対処する。
従来のアプローチでは、2つのモダリティの根底にある共通点を発見し、反復最適化またはディープネットワークによって共通空間に融合する。
本稿では、融合と検出の連立問題に対する二段階最適化の定式化を提案し、その後、核融合と一般的に使用される検出ネットワークのためのターゲット認識デュアル逆学習(TarDAL)ネットワークに展開する。
論文 参考訳(メタデータ) (2022-03-30T11:44:56Z) - Infrared Small-Dim Target Detection with Transformer under Complex
Backgrounds [155.388487263872]
変換器を用いた赤外線小径目標検出手法を提案する。
画像特徴の相互作用情報をより広い範囲で学習するために,変換器の自己認識機構を採用する。
最小限のターゲットの機能を学習するための機能拡張モジュールも設計しています。
論文 参考訳(メタデータ) (2021-09-29T12:23:41Z) - EPMF: Efficient Perception-aware Multi-sensor Fusion for 3D Semantic Segmentation [62.210091681352914]
自律運転やロボティクスなど,多くのアプリケーションを対象とした3次元セマンティックセマンティックセグメンテーションのためのマルチセンサフュージョンについて検討する。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
本稿では,2つのモードから特徴を分離して抽出する2ストリームネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。