論文の概要: Self-Calibrated Efficient Transformer for Lightweight Super-Resolution
- arxiv url: http://arxiv.org/abs/2204.08913v1
- Date: Tue, 19 Apr 2022 14:20:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-20 14:22:13.258263
- Title: Self-Calibrated Efficient Transformer for Lightweight Super-Resolution
- Title(参考訳): 軽量超解像用自己校正効率変圧器
- Authors: Wenbin Zou, Tian Ye, Weixin Zheng, Yunchen Zhang, Liang Chen and Yi Wu
- Abstract要約: 本稿では,この問題を解決するために,SCET(Self-Calibrated Efficient Transformer)ネットワークを提案する。
SCETのアーキテクチャは、主に自己校正モジュールと効率的なトランスフォーマーブロックで構成されている。
ネットワーク全体の異なる設定に関する総合的な結果を提供する。
- 参考スコア(独自算出の注目度): 21.63691922827879
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, deep learning has been successfully applied to the single-image
super-resolution (SISR) with remarkable performance. However, most existing
methods focus on building a more complex network with a large number of layers,
which can entail heavy computational costs and memory storage. To address this
problem, we present a lightweight Self-Calibrated Efficient Transformer (SCET)
network to solve this problem. The architecture of SCET mainly consists of the
self-calibrated module and efficient transformer block, where the
self-calibrated module adopts the pixel attention mechanism to extract image
features effectively. To further exploit the contextual information from
features, we employ an efficient transformer to help the network obtain similar
features over long distances and thus recover sufficient texture details. We
provide comprehensive results on different settings of the overall network. Our
proposed method achieves more remarkable performance than baseline methods. The
source code and pre-trained models are available at
https://github.com/AlexZou14/SCET.
- Abstract(参考訳): 近年,シングルイメージ超解像(SISR)にディープラーニングを応用し,優れた性能を実現している。
しかし、既存のほとんどの手法は、大量の計算コストとメモリストレージを伴って複雑なネットワークを構築することに重点を置いている。
この問題に対処するため,我々はSCET(Self-Calibrated Efficient Transformer)ネットワークを提案する。
SCETのアーキテクチャは、主に自己校正モジュールと効率的なトランスフォーマーブロックで構成され、そこでは、自己校正モジュールが画素アテンション機構を採用して画像の特徴を効果的に抽出する。
特徴からの文脈情報をさらに活用するために,ネットワークが遠隔で類似した特徴を得るのに役立つ効率的なトランスフォーマを用いて,テクスチャの詳細を復元する。
ネットワーク全体の異なる設定に関する総合的な結果を提供する。
提案手法はベースライン法よりも優れた性能を実現する。
ソースコードと事前訓練されたモデルはhttps://github.com/AlexZou14/SCET.comで入手できる。
関連論文リスト
- LKFormer: Large Kernel Transformer for Infrared Image Super-Resolution [5.478440050117844]
本稿では,LKFormer(Large Kernel Transformer)と呼ばれる強力なトランスモデルを提案する。
これは主に、非局所的な特徴モデリングを実行するために、大きなカーネルとの深度的な畳み込みを利用する。
我々は,GPFN(Gated-Pixel Feed-Forward Network)と呼ばれる新しいフィードフォワードネットワーク構造を考案し,ネットワーク内の情報フローを管理するLKFormerの能力を強化した。
論文 参考訳(メタデータ) (2024-01-22T11:28:24Z) - Transforming Image Super-Resolution: A ConvFormer-based Efficient
Approach [63.98380888730723]
本稿では, Convolutional Transformer Layer (ConvFormer) と ConvFormer-based Super-Resolution Network (CFSR) を紹介する。
CFSRは、計算コストの少ない長距離依存と広範囲の受容場を効率的にモデル化する。
これは、x2 SRタスクのUrban100データセットで0.39dB、パラメータが26%、FLOPが31%減少している。
論文 参考訳(メタデータ) (2024-01-11T03:08:00Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Spatially-Adaptive Feature Modulation for Efficient Image
Super-Resolution [90.16462805389943]
視覚変換器(ViT)のようなブロック上に,空間適応型特徴変調(SAFM)機構を開発する。
提案法は最先端のSR法よりも3倍程度小さい。
論文 参考訳(メタデータ) (2023-02-27T14:19:31Z) - DLGSANet: Lightweight Dynamic Local and Global Self-Attention Networks
for Image Super-Resolution [83.47467223117361]
画像の超解像化に有効な軽量な動的局所・大域自己アテンションネットワーク(DLGSANet)を提案する。
トランスフォーマーのネットワーク設計により,ローカル特徴を効率的に抽出するシンプルなマルチヘッド動的自己アテンション(MHDLSA)モジュールを開発した。
この問題を解決するために,最も有用な類似値を選択するために,スパースグローバル自己アテンション(SparseGSA)モジュールを開発した。
論文 参考訳(メタデータ) (2023-01-05T12:06:47Z) - Cross-receptive Focused Inference Network for Lightweight Image
Super-Resolution [64.25751738088015]
トランスフォーマーに基づく手法は、単一画像超解像(SISR)タスクにおいて顕著な性能を示した。
動的に特徴を抽出するために文脈情報を組み込む必要がある変換器は無視される。
我々は,CNNとTransformerを混合したCTブロックのカスケードで構成される,軽量なクロスレセプティブ・フォーカスド・推論・ネットワーク(CFIN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T16:32:29Z) - ShuffleMixer: An Efficient ConvNet for Image Super-Resolution [88.86376017828773]
本稿では、大きな畳み込みとチャネル分割シャッフル操作を探索する軽量画像超解像のためのShuffleMixerを提案する。
具体的には,チャネル分割とシャッフルを基本成分とする2つのプロジェクション層を効率よく混合する。
実験結果から,ShuffleMixerはモデルパラメータやFLOPの手法に比べて約6倍小さいことがわかった。
論文 参考訳(メタデータ) (2022-05-30T15:26:52Z) - Lightweight Bimodal Network for Single-Image Super-Resolution via
Symmetric CNN and Recursive Transformer [27.51790638626891]
シングルイメージ・スーパーレゾリューション(SISR)は、ディープラーニングの開発において大きなブレークスルーを達成している。
そこで本研究では,SISRのための軽量バイモーダルネットワーク(LBNet)を提案する。
具体的には,局所特徴抽出と粗い画像再構成に有効なシンメトリCNNを設計する。
論文 参考訳(メタデータ) (2022-04-28T04:43:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。