論文の概要: Infrared Image Super-Resolution via Lightweight Information Split Network
- arxiv url: http://arxiv.org/abs/2405.10561v3
- Date: Mon, 27 May 2024 07:18:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 05:27:58.062900
- Title: Infrared Image Super-Resolution via Lightweight Information Split Network
- Title(参考訳): 軽量情報分割ネットワークによる赤外画像超解像
- Authors: Shijie Liu, Kang Yan, Feiwei Qin, Changmiao Wang, Ruiquan Ge, Kai Zhang, Jie Huang, Yong Peng, Jin Cao,
- Abstract要約: LISN(Lightweight Information Split Network)と呼ばれる,新しい,効率的で高精度な単一赤外線画像SRモデルを提案する。
LISNは、浅部特徴抽出、深部特徴抽出、高密度特徴融合、高分解能赤外線画像再構成の4つの主要成分からなる。
このモデルにおける重要な革新は、深い特徴抽出のための軽量情報分割ブロック(LISB)の導入である。
- 参考スコア(独自算出の注目度): 15.767636844406493
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Single image super-resolution (SR) is an established pixel-level vision task aimed at reconstructing a high-resolution image from its degraded low-resolution counterpart. Despite the notable advancements achieved by leveraging deep neural networks for SR, most existing deep learning architectures feature an extensive number of layers, leading to high computational complexity and substantial memory demands. These issues become particularly pronounced in the context of infrared image SR, where infrared devices often have stringent storage and computational constraints. To mitigate these challenges, we introduce a novel, efficient, and precise single infrared image SR model, termed the Lightweight Information Split Network (LISN). The LISN comprises four main components: shallow feature extraction, deep feature extraction, dense feature fusion, and high-resolution infrared image reconstruction. A key innovation within this model is the introduction of the Lightweight Information Split Block (LISB) for deep feature extraction. The LISB employs a sequential process to extract hierarchical features, which are then aggregated based on the relevance of the features under consideration. By integrating channel splitting and shift operations, the LISB successfully strikes an optimal balance between enhanced SR performance and a lightweight framework. Comprehensive experimental evaluations reveal that the proposed LISN achieves superior performance over contemporary state-of-the-art methods in terms of both SR quality and model complexity, affirming its efficacy for practical deployment in resource-constrained infrared imaging applications.
- Abstract(参考訳): 単一画像超解像(Single Image Super- resolution, SR)は、分解能の低い高解像度画像から高解像度画像を再構成することを目的とした、確立された画素レベルの視覚タスクである。
SRにディープニューラルネットワークを活用することで達成された顕著な進歩にもかかわらず、既存のディープラーニングアーキテクチャの多くは、多数のレイヤを特徴としており、高い計算複雑性と実質的なメモリ要求につながっている。
これらの問題は赤外線画像SRの文脈で特に顕著になり、赤外線デバイスは厳しい記憶と計算の制約があることが多い。
これらの課題を軽減するため,LISN(Lightweight Information Split Network)と呼ばれる,新しい,効率的で高精度な単一赤外線画像SRモデルを導入する。
LISNは、浅部特徴抽出、深部特徴抽出、高密度特徴融合、高分解能赤外線画像再構成の4つの主要成分からなる。
このモデルにおける重要な革新は、深い特徴抽出のための軽量情報分割ブロック(LISB)の導入である。
LISBは、階層的特徴を抽出するシーケンシャルなプロセスを採用し、検討中の特徴の関連性に基づいて集約される。
チャネル分割とシフト操作を統合することで、LISBはSR性能の向上と軽量フレームワークの最適バランスを達成できる。
総合的な実験的評価により,提案したLISNは,SR品質とモデル複雑度の両方の観点から,現代の最先端手法よりも優れた性能を達成し,資源制約赤外線イメージングアプリケーションにおける実用的展開の有効性が確認された。
関連論文リスト
- Efficient Model Agnostic Approach for Implicit Neural Representation
Based Arbitrary-Scale Image Super-Resolution [5.704360536038803]
単一の画像超解像(SISR)は、主に深層畳み込みネットワークによって大きく進歩した。
従来のネットワークは、画像を一定のスケールにスケールアップすることに限定されており、任意のスケールのイメージを生成するために暗黙の神経機能を利用することになる。
我々は,任意のスケールで超解像を実現する,新しい,効率的なフレームワークであるMixture of Experts Implicit Super-Resolution(MoEISR)を導入する。
論文 参考訳(メタデータ) (2023-11-20T05:34:36Z) - RBSR: Efficient and Flexible Recurrent Network for Burst
Super-Resolution [57.98314517861539]
バースト超解像(BurstSR)は、高解像度(HR)画像を低解像度(LR)画像と雑音画像から再構成することを目的としている。
本稿では,効率よくフレキシブルなリカレントネットワークでフレーム単位のキューを融合させることを提案する。
論文 参考訳(メタデータ) (2023-06-30T12:14:13Z) - CiaoSR: Continuous Implicit Attention-in-Attention Network for
Arbitrary-Scale Image Super-Resolution [158.2282163651066]
本稿ではCiaoSRと呼ばれる連続的な暗黙の注意-注意ネットワークを提案する。
我々は、周辺地域の特徴のアンサンブル重みを学習するために、暗黙の注意ネットワークを明示的に設計する。
我々は、この暗黙の注意ネットワークにスケールアウェアの注意を埋め込んで、追加の非ローカル情報を活用する。
論文 参考訳(メタデータ) (2022-12-08T15:57:46Z) - Bridging Component Learning with Degradation Modelling for Blind Image
Super-Resolution [69.11604249813304]
視覚障害者のためのコンポーネント分解・協調最適化ネットワーク(CDCN)を提案する。
CDCNは入力LR画像を特徴空間の構造と詳細成分に分解する。
本稿では,HR画像の細部と構造復元過程を協調的に監督する,劣化駆動型学習戦略を提案する。
論文 参考訳(メタデータ) (2022-12-03T14:53:56Z) - Infrared Image Super-Resolution via Heterogeneous Convolutional WGAN [4.6667021835430145]
我々は、ヘテロジニアスカーネルベースの超解像ワッサースタインGAN(HetSRWGAN)をIR画像の超解像に用いるフレームワークを提案する。
HetSRWGANは定性評価と定量的評価の両方において一貫して優れた性能を発揮する。
論文 参考訳(メタデータ) (2021-09-02T14:01:05Z) - Lightweight Image Super-Resolution with Multi-scale Feature Interaction
Network [15.846394239848959]
軽量マルチスケール機能インタラクションネットワーク(MSFIN)を提案する。
軽量SISRでは、MSFINは受容野を拡張し、低解像度の観測画像の情報的特徴を適切に活用する。
提案したMSFINは,より軽量なモデルで最先端技術に匹敵する性能を達成できる。
論文 参考訳(メタデータ) (2021-03-24T07:25:21Z) - Deep Burst Super-Resolution [165.90445859851448]
バースト超解像タスクのための新しいアーキテクチャを提案する。
我々のネットワークは複数のノイズRAW画像を入力として取り出し、出力として分解された超解像RGB画像を生成する。
実世界のデータのトレーニングと評価を可能にするため,BurstSRデータセットも導入する。
論文 参考訳(メタデータ) (2021-01-26T18:57:21Z) - Lightweight image super-resolution with enhanced CNN [82.36883027158308]
強い表現力を持つ深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像(SISR)において印象的な性能を達成した
情報抽出・拡張ブロック(IEEB)、再構築ブロック(RB)、情報精製ブロック(IRB)の3つの連続したサブブロックを持つ軽量拡張SR CNN(LESRCNN)を提案する。
IEEBは階層的低分解能(LR)特徴を抽出し、SISRの深い層上の浅い層の記憶能力を高めるために、得られた特徴を段階的に集約する。
RBはグローバルに拡散することで低周波特徴を高周波特徴に変換する
論文 参考訳(メタデータ) (2020-07-08T18:03:40Z) - Hyperspectral Image Super-resolution via Deep Progressive Zero-centric
Residual Learning [62.52242684874278]
空間情報とスペクトル情報の相互モダリティ分布が問題となる。
本稿では,PZRes-Netという,新しいテクスライトウェイトなディープニューラルネットワークベースのフレームワークを提案する。
本フレームワークは,高分解能かつテクテッセロ中心の残像を学習し,シーンの空間的詳細を高頻度で表現する。
論文 参考訳(メタデータ) (2020-06-18T06:32:11Z) - Time accelerated image super-resolution using shallow residual feature
representative network [0.0]
高いピーク信号対雑音比(PSNR)と優れた知覚品質を有する高解像度画像の再構成が可能となる。
既存のディープ畳み込みニューラルネットワークに関連する課題は、その計算複雑性と時間である。
両立型補間低分解能画像を入力として用い, 逐次的に積み重ねた残差非線形畳み込みを含む残差代表単位(RFR)を応用した, 革新的な浅部残差特徴代表ネットワーク(SRFRN)を開発した。
論文 参考訳(メタデータ) (2020-04-08T16:17:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。