論文の概要: ILNet: Low-level Matters for Salient Infrared Small Target Detection
- arxiv url: http://arxiv.org/abs/2309.13646v1
- Date: Sun, 24 Sep 2023 14:09:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 18:22:25.073883
- Title: ILNet: Low-level Matters for Salient Infrared Small Target Detection
- Title(参考訳): ILNet:高次赤外小ターゲット検出のための低レベル事項
- Authors: Haoqing Li, Jinfu Yang, Runshi Wang, Yifei Xu
- Abstract要約: 赤外線小目標検出は、赤外クラッタ背景から小目標を検出する技術である。
高レベルセマンティック情報の変形により、CNNの深い層では、小さな赤外線ターゲット特性が弱まる。
我々は、赤外線小ターゲットを意味情報が少ない有能な領域とみなす赤外線低レベルネットワーク(ILNet)を提案する。
- 参考スコア(独自算出の注目度): 5.248337726304453
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Infrared small target detection is a technique for finding small targets from
infrared clutter background. Due to the dearth of high-level semantic
information, small infrared target features are weakened in the deep layers of
the CNN, which underachieves the CNN's representation ability. To address the
above problem, in this paper, we propose an infrared low-level network (ILNet)
that considers infrared small targets as salient areas with little semantic
information. Unlike other SOTA methods, ILNet pays greater attention to
low-level information instead of treating them equally. A new lightweight
feature fusion module, named Interactive Polarized Orthogonal Fusion module
(IPOF), is proposed, which integrates more important low-level features from
the shallow layers into the deep layers. A Dynamic One-Dimensional Aggregation
layers (DODA) are inserted into the IPOF, to dynamically adjust the aggregation
of low dimensional information according to the number of input channels. In
addition, the idea of ensemble learning is used to design a Representative
Block (RB) to dynamically allocate weights for shallow and deep layers.
Experimental results on the challenging NUAA-SIRST (78.22% nIoU and 1.33e-6 Fa)
and IRSTD-1K (68.91% nIoU and 3.23e-6 Fa) dataset demonstrate that the proposed
ILNet can get better performances than other SOTA methods. Moreover, ILNet can
obtain a greater improvement with the increasement of data volume. Training
code are available at https://github.com/Li-Haoqing/ILNet.
- Abstract(参考訳): 赤外線小目標検出は、赤外クラッタ背景から小目標を検出する技術である。
高レベルの意味情報の不足のため、cnnの深い層では小さな赤外線ターゲットの特徴が弱められ、cnnの表現能力が低下する。
そこで本稿では,この問題を解決するために,赤外線小目標を意味情報に乏しいサルエント領域と見なす赤外線低レベルネットワーク (ilnet) を提案する。
他の sota メソッドとは異なり、ilnet は低レベルの情報に対して等しく扱うのではなく、より注意を払っている。
新しい軽量機能融合モジュールであるInteractive Polarized Orthogonal Fusion Module (IPOF)が提案されている。
IPOFには動的一次元アグリゲーション層(DODA)が挿入され、入力チャネル数に応じて低次元情報のアグリゲーションを動的に調整する。
さらに、アンサンブル学習という概念は、浅い層と深い層の重みを動的に割り当てる代表ブロック(RB)を設計するために用いられる。
挑戦的な NUAA-SIRST (78.22% nIoU と 1.33e-6 Fa) と IRSTD-1K (68.91% nIoU と 3.23e-6 Fa) データセットの実験結果は、提案された ILNet が他の SOTA 法よりも優れた性能が得られることを示した。
さらに、ilnetは、データボリュームの増加により、さらに改善することができる。
トレーニングコードはhttps://github.com/li-haoqing/ilnet。
関連論文リスト
- SIRST-5K: Exploring Massive Negatives Synthesis with Self-supervised
Learning for Robust Infrared Small Target Detection [53.19618419772467]
単一フレーム赤外線小ターゲット検出(SIRST)は、乱雑な背景から小さなターゲットを認識することを目的としている。
Transformerの開発に伴い、SIRSTモデルのスケールは常に増大している。
赤外線小ターゲットデータの多彩な多様性により,本アルゴリズムはモデル性能と収束速度を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-08T16:14:54Z) - Improved Dense Nested Attention Network Based on Transformer for
Infrared Small Target Detection [8.388564430699155]
深層学習に基づく赤外線小ターゲット検出は、複雑な背景と動的背景から小さなターゲットを分離する際、独特な利点をもたらす。
畳み込みニューラルネットワーク(CNN)の深さが増加するにつれて、赤外線小ターゲットの特徴は徐々に弱まる。
本稿では,トランスアーキテクチャに基づく高密度ネストアテンションネットワーク (IDNANet) を提案する。
論文 参考訳(メタデータ) (2023-11-15T07:29:24Z) - EFLNet: Enhancing Feature Learning for Infrared Small Target Detection [20.546186772828555]
単一フレームの赤外線小目標検出は難しい課題であると考えられている。
ターゲットと背景の極端に不均衡のため、境界ボックスの回帰は赤外線小ターゲットに対して非常に敏感である。
本稿では,これらの問題に対処する機能学習ネットワーク(EFLNet)を提案する。
論文 参考訳(メタデータ) (2023-07-27T09:23:22Z) - ABC: Attention with Bilinear Correlation for Infrared Small Target
Detection [4.7379300868029395]
CNNに基づく深層学習法は、赤外線小ターゲット(IRST)のセグメンテーションに有効ではない
バイリニア相関(ABC)を用いた注目モデルを提案する。
ABCはトランスアーキテクチャに基づいており、特徴抽出と融合のための新しいアテンション機構を備えた畳み込み線形核融合トランス (CLFT) モジュールを含んでいる。
論文 参考訳(メタデータ) (2023-03-18T03:47:06Z) - UIU-Net: U-Net in U-Net for Infrared Small Object Detection [36.72184013409837]
本稿では,U-NetフレームワークにおけるU-Netの簡易かつ効果的なUIU-Netを提案する。
名前が示すように、UIU-Netは小さなU-Netを大きなU-Netバックボーンに組み込み、オブジェクトのマルチレベルおよびマルチスケールの表現学習を可能にする。
提案したUIU-Netは、ビデオシーケンス赤外線小オブジェクトデータセットの強力な一般化性能も生み出す。
論文 参考訳(メタデータ) (2022-12-02T04:52:26Z) - SAR Despeckling Using Overcomplete Convolutional Networks [53.99620005035804]
スペックルはSAR画像を劣化させるため、リモートセンシングにおいて重要な問題である。
近年の研究では、畳み込みニューラルネットワーク(CNN)が古典的解法よりも優れていることが示されている。
本研究は、受容場を制限することで低レベルの特徴を学習することに集中するために、過剰なCNNアーキテクチャを用いる。
本稿では,合成および実SAR画像の非特定化手法と比較して,提案手法により非特定化性能が向上することを示す。
論文 参考訳(メタデータ) (2022-05-31T15:55:37Z) - Infrared Small-Dim Target Detection with Transformer under Complex
Backgrounds [155.388487263872]
変換器を用いた赤外線小径目標検出手法を提案する。
画像特徴の相互作用情報をより広い範囲で学習するために,変換器の自己認識機構を採用する。
最小限のターゲットの機能を学習するための機能拡張モジュールも設計しています。
論文 参考訳(メタデータ) (2021-09-29T12:23:41Z) - Dense Nested Attention Network for Infrared Small Target Detection [36.654692765557726]
単一フレーム赤外線小ターゲット(SIRST)検出は、小さなターゲットを乱雑な背景から分離することを目的としている。
既存のCNNベースのメソッドは、赤外線小ターゲットに対して直接適用することはできない。
本稿では,高密度ネステッドアテンションネットワーク(DNANet)を提案する。
論文 参考訳(メタデータ) (2021-06-01T13:45:35Z) - MobileSal: Extremely Efficient RGB-D Salient Object Detection [62.04876251927581]
本稿では,効率的なRGB-Dサルエント物体検出(SOD)に焦点を当てた新しいネットワーク,メソッド名を提案する。
RGB-D SODのためのモバイルネットワークの特徴表現能力を強化するために,暗黙的深度復元(IDR)手法を提案する。
IDRとCPRを組み込むことで、7つの挑戦的なRGB-D SODデータセット上のsArtメソッドに対してメソッド名が好ましい。
論文 参考訳(メタデータ) (2020-12-24T04:36:42Z) - Learning Selective Mutual Attention and Contrast for RGB-D Saliency
Detection [145.4919781325014]
クロスモーダル情報を効果的に融合する方法は、RGB-Dの有能な物体検出の鍵となる問題である。
多くのモデルは特徴融合戦略を用いるが、低次点対点融合法によって制限されている。
本研究では,異なるモダリティから注目とコンテキストを融合させることにより,新たな相互注意モデルを提案する。
論文 参考訳(メタデータ) (2020-10-12T08:50:10Z) - Accurate RGB-D Salient Object Detection via Collaborative Learning [101.82654054191443]
RGB-Dサリエンシ検出は、いくつかの課題シナリオにおいて素晴らしい能力を示している。
本稿では,エッジ,深度,塩分濃度をより効率的に活用する新しい協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T04:33:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。