論文の概要: Cross-receptive Focused Inference Network for Lightweight Image
Super-Resolution
- arxiv url: http://arxiv.org/abs/2207.02796v1
- Date: Wed, 6 Jul 2022 16:32:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-07 13:50:48.522632
- Title: Cross-receptive Focused Inference Network for Lightweight Image
Super-Resolution
- Title(参考訳): 軽量画像超解像のためのクロスレセプティブフォーカス型推論ネットワーク
- Authors: Wenjie Li, Juncheng Li, Guangwei Gao, Jiantao Zhou, Jian Yang, and
Guo-Jun Qi
- Abstract要約: 我々は、軽量なクロスレセプティブ・フォーカスド・推論・ネットワーク(CFIN)を提案する。
ネットワーク重みを適応的に修正するために、新しいCFGT (Cross-Receptive Field Guide Transformer) が設計された。
CNN ベースのクロススケール情報集約モジュール (CIAM) が提案されている。
- 参考スコア(独自算出の注目度): 64.25751738088015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the development of deep learning, single image super-resolution (SISR)
has achieved significant breakthroughs. Recently, methods to enhance the
performance of SISR networks based on global feature interactions have been
proposed. However, the capabilities of neurons that need to adjust their
function in response to the context dynamically are neglected. To address this
issue, we propose a lightweight Cross-receptive Focused Inference Network
(CFIN), a hybrid network composed of a Convolutional Neural Network (CNN) and a
Transformer. Specifically, a novel Cross-receptive Field Guide Transformer
(CFGT) is designed to adaptively modify the network weights by using modulated
convolution kernels combined with local representative semantic information. In
addition, a CNN-based Cross-scale Information Aggregation Module (CIAM) is
proposed to make the model better focused on potentially practical information
and improve the efficiency of the Transformer stage. Extensive experiments show
that our proposed CFIN is a lightweight and efficient SISR model, which can
achieve a good balance between computational cost and model performance.
- Abstract(参考訳): ディープラーニングの開発により、シングルイメージ超解像(SISR)は大きなブレークスルーを達成した。
近年,グローバルな特徴相互作用に基づくSISRネットワークの性能向上手法が提案されている。
しかし、文脈に応じて機能を動的に調整する必要があるニューロンの能力は無視される。
そこで本研究では,畳み込みニューラルネットワーク(cnn)とトランスフォーマによるハイブリッドネットワークであるcfinを提案する。
具体的には、変調畳み込みカーネルと局所代表的意味情報を組み合わせてネットワーク重み付けを適応的に修正する新しいクロスレセプティブ・フィールドガイドトランス(cfgt)を提案する。
また、cnnベースのクロススケール情報集約モジュール(ciam)を提案し、モデルが潜在的に実用的な情報に集中し、トランスフォーマーステージの効率を向上させる。
大規模実験の結果,提案するCFINは軽量かつ効率的なSISRモデルであり,計算コストとモデル性能のバランスが良好であることがわかった。
関連論文リスト
- UTSRMorph: A Unified Transformer and Superresolution Network for Unsupervised Medical Image Registration [4.068692674719378]
複雑な画像登録は、医用画像解析において重要な課題である。
本稿では,UTSRMorphネットワークと統合トランスフォーマー(UTSRMorph)ネットワークという,教師なしの新たな画像登録手法を提案する。
論文 参考訳(メタデータ) (2024-10-27T06:28:43Z) - DRCT: Saving Image Super-resolution away from Information Bottleneck [7.765333471208582]
低レベルのビジョンタスクに対するビジョントランスフォーマーベースのアプローチは、広く成功している。
空間情報の損失を軽減するため,Dense-Residual-Connected Transformer (DRCT)を提案する。
提案手法は,ベンチマークデータセットの最先端手法を超越した手法である。
論文 参考訳(メタデータ) (2024-03-31T15:34:45Z) - How Powerful Potential of Attention on Image Restoration? [97.9777639562205]
FFNを使わずに注意機構の可能性を探るため,実験的検討を行った。
本研究では,FFNを使わずに3段階にわたって注意を連続的に計算する連続スケーリング注意法(textbfCSAttn)を提案する。
我々の設計は、注意機構をよく調べ、いくつかの単純な操作がモデルの性能に大きく影響することを明らかにする。
論文 参考訳(メタデータ) (2024-03-15T14:23:12Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - HAT: Hybrid Attention Transformer for Image Restoration [61.74223315807691]
トランスフォーマーに基づく手法は、画像の超解像や復調といった画像復元タスクにおいて顕著な性能を示している。
本稿では,新たなHAT(Hybrid Attention Transformer)を提案する。
我々のHATは,定量的かつ定性的に,最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-09-11T05:17:55Z) - Cross-Spatial Pixel Integration and Cross-Stage Feature Fusion Based
Transformer Network for Remote Sensing Image Super-Resolution [13.894645293832044]
変換器を用いたモデルでは、リモートセンシング画像超解像(RSISR)の競合性能が示されている。
本稿では,RSISRのための新しいトランスアーキテクチャであるCross-Spatial Pixel IntegrationとCross-Stage Feature Fusion Based Transformer Network (SPIFFNet)を提案する。
提案手法は,画像全体のグローバル認知と理解を効果的に促進し,機能統合の効率化を図っている。
論文 参考訳(メタデータ) (2023-07-06T13:19:06Z) - Activating More Pixels in Image Super-Resolution Transformer [53.87533738125943]
トランスフォーマーベースの手法は、画像超解像のような低レベルの視覚タスクにおいて顕著な性能を示している。
本稿では,新たなHAT(Hybrid Attention Transformer)を提案する。
提案手法は1dB以上で最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2022-05-09T17:36:58Z) - Lightweight Bimodal Network for Single-Image Super-Resolution via
Symmetric CNN and Recursive Transformer [27.51790638626891]
シングルイメージ・スーパーレゾリューション(SISR)は、ディープラーニングの開発において大きなブレークスルーを達成している。
そこで本研究では,SISRのための軽量バイモーダルネットワーク(LBNet)を提案する。
具体的には,局所特徴抽出と粗い画像再構成に有効なシンメトリCNNを設計する。
論文 参考訳(メタデータ) (2022-04-28T04:43:22Z) - CSformer: Bridging Convolution and Transformer for Compressive Sensing [65.22377493627687]
本稿では,CNNからの詳細な空間情報を活用するためのハイブリッドフレームワークと,表現学習の強化を目的としたトランスフォーマーが提供するグローバルコンテキストを統合することを提案する。
提案手法は、適応的なサンプリングとリカバリからなるエンドツーエンドの圧縮画像センシング手法である。
実験により, 圧縮センシングにおける専用トランスアーキテクチャの有効性が示された。
論文 参考訳(メタデータ) (2021-12-31T04:37:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。