論文の概要: Local Contrast and Global Contextual Information Make Infrared Small
Object Salient Again
- arxiv url: http://arxiv.org/abs/2301.12093v1
- Date: Sat, 28 Jan 2023 05:18:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 19:05:39.598779
- Title: Local Contrast and Global Contextual Information Make Infrared Small
Object Salient Again
- Title(参考訳): 局所コントラストとグローバルコンテクスト情報が赤外線を再び小さくする
- Authors: Chenyi Wang, Huan Wang, Peiwen Pan
- Abstract要約: 赤外線小物体検出(ISOS)は、赤外画像中の乱雑な背景から、いくつかのピクセルでしかカバーされていない小さな物体を分割することを目的としている。
1) 十分な強度、形状、テクスチャ情報がない小さなオブジェクト、2) 深層ニューラルネットワークのような検出モデルが、連続的なダウンサンプリングを通じて高レベルのセマンティック特徴とイメージレベルの受容フィールドを得るプロセスにおいて、小さなオブジェクトは、容易に失われる。
本稿では,この2つの問題をうまく処理できるUCFNetと呼ばれるISOSの信頼性検出モデルを提案する。
いくつかの公開データセットの実験により、我々の手法は現状を大きく上回っていることが示された。
- 参考スコア(独自算出の注目度): 5.324958606516871
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Infrared small object detection (ISOS) aims to segment small objects only
covered with several pixels from clutter background in infrared images. It's of
great challenge due to: 1) small objects lack of sufficient intensity, shape
and texture information; 2) small objects are easily lost in the process where
detection models, say deep neural networks, obtain high-level semantic features
and image-level receptive fields through successive downsampling. This paper
proposes a reliable detection model for ISOS, dubbed UCFNet, which can handle
well the two issues. It builds upon central difference convolution (CDC) and
fast Fourier convolution (FFC). On one hand, CDC can effectively guide the
network to learn the contrast information between small objects and the
background, as the contrast information is very essential in human visual
system dealing with the ISOS task. On the other hand, FFC can gain image-level
receptive fields and extract global information while preventing small objects
from being overwhelmed.Experiments on several public datasets demonstrate that
our method significantly outperforms the state-of-the-art ISOS models, and can
provide useful guidelines for designing better ISOS deep models. Codes will be
available soon.
- Abstract(参考訳): 赤外線小物体検出(英語: infrared small object detection、isos)は、赤外線画像の背景から複数の画素だけで覆われた小物体を分割することを目的としている。
それは、大きな挑戦です。
1) 小物には,十分な強度,形状及びテクスチャ情報がないこと。
2) 検出モデル,例えばディープニューラルネットワーク,高レベルのセマンティック特徴と画像レベルの受容場を連続的なダウンサンプリングによって取得するプロセスにおいて,小さなオブジェクトは容易に失われる。
本稿では,この2つの問題をうまく処理できるUCFNetと呼ばれるISOSの信頼性検出モデルを提案する。
中心差分畳み込み(CDC)と高速フーリエ畳み込み(FFC)を基盤としている。
一方、CDCは、ISOSタスクを扱う人間の視覚システムにおいて、コントラスト情報が非常に重要であるため、小さなオブジェクトと背景の間のコントラスト情報を学習するためにネットワークを効果的にガイドすることができる。
一方、ffcは画像レベルの受容野を得て、小さなオブジェクトが圧倒されるのを防ぎながら、グローバル情報を抽出することができる。いくつかの公開データセットにおける実験では、この手法が最先端のisosモデルを大幅に上回っており、より優れたisos深層モデルを設計するための有用なガイドラインを提供することができる。
コードはもうすぐ入手できる。
関連論文リスト
- SFA-UNet: More Attention to Multi-Scale Contrast and Contextual Information in Infrared Small Object Segmentation [0.0]
赤外線小オブジェクト(ISOS)は、いくつかの課題のために、依然として大きな焦点をあてています。
Scharr Convolution (SC) と Fast Fourier Convolution (FFC) を組み合わせることで,垂直および水平のアテンションゲート (AG) を UNet に組み込むことにより,SFA-UNet という改良されたU-Netアーキテクチャを提案する。
SCは、背景から背景までのコントラスト情報を学ぶのに役立ち、FFCは、小さなオブジェクトが消える問題を緩和しながら、マルチスケールのコンテキスト情報を提供する。
論文 参考訳(メタデータ) (2024-10-30T10:21:23Z) - SIRST-5K: Exploring Massive Negatives Synthesis with Self-supervised
Learning for Robust Infrared Small Target Detection [53.19618419772467]
単一フレーム赤外線小ターゲット検出(SIRST)は、乱雑な背景から小さなターゲットを認識することを目的としている。
Transformerの開発に伴い、SIRSTモデルのスケールは常に増大している。
赤外線小ターゲットデータの多彩な多様性により,本アルゴリズムはモデル性能と収束速度を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-08T16:14:54Z) - ILNet: Low-level Matters for Salient Infrared Small Target Detection [5.248337726304453]
赤外線小目標検出は、赤外クラッタ背景から小目標を検出する技術である。
高レベルセマンティック情報の変形により、CNNの深い層では、小さな赤外線ターゲット特性が弱まる。
我々は、赤外線小ターゲットを意味情報が少ない有能な領域とみなす赤外線低レベルネットワーク(ILNet)を提案する。
論文 参考訳(メタデータ) (2023-09-24T14:09:37Z) - UIU-Net: U-Net in U-Net for Infrared Small Object Detection [36.72184013409837]
本稿では,U-NetフレームワークにおけるU-Netの簡易かつ効果的なUIU-Netを提案する。
名前が示すように、UIU-Netは小さなU-Netを大きなU-Netバックボーンに組み込み、オブジェクトのマルチレベルおよびマルチスケールの表現学習を可能にする。
提案したUIU-Netは、ビデオシーケンス赤外線小オブジェクトデータセットの強力な一般化性能も生み出す。
論文 参考訳(メタデータ) (2022-12-02T04:52:26Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - Infrared Small-Dim Target Detection with Transformer under Complex
Backgrounds [155.388487263872]
変換器を用いた赤外線小径目標検出手法を提案する。
画像特徴の相互作用情報をより広い範囲で学習するために,変換器の自己認識機構を採用する。
最小限のターゲットの機能を学習するための機能拡張モジュールも設計しています。
論文 参考訳(メタデータ) (2021-09-29T12:23:41Z) - You Better Look Twice: a new perspective for designing accurate
detectors with reduced computations [56.34005280792013]
BLT-netは、新しい低計算の2段階オブジェクト検出アーキテクチャである。
非常にエレガントな第1ステージを使用して、オブジェクトをバックグラウンドから分離することで、計算を削減します。
結果のイメージ提案は、高度に正確なモデルによって第2段階で処理される。
論文 参考訳(メタデータ) (2021-07-21T12:39:51Z) - Efficient Classification of Very Large Images with Tiny Objects [15.822654320750054]
Zoom-Inネットワークと呼ばれるエンドツーエンドCNNモデルを用いて,大容量画像を小さなオブジェクトで分類する。
本研究では,2つの大画像データセットと1ギガピクセルデータセットについて評価を行った。
論文 参考訳(メタデータ) (2021-06-04T20:13:04Z) - Dense Multiscale Feature Fusion Pyramid Networks for Object Detection in
UAV-Captured Images [0.09065034043031667]
本研究では,よりリッチな特徴を可能な限り得ることを目的とした,高密度多スケール特徴融合ピラミッドネットワーク(dmffpn)と呼ばれる新しい手法を提案する。
具体的には、密度の高い接続は、異なる畳み込み層からの表現を完全に活用するように設計されている。
VisDrone-DETと呼ばれるドローンベースのデータセットの実験は、我々の方法の競争力を示唆している。
論文 参考訳(メタデータ) (2020-12-19T10:05:31Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。