論文の概要: Image Super-Resolution using Efficient Striped Window Transformer
- arxiv url: http://arxiv.org/abs/2301.09869v1
- Date: Tue, 24 Jan 2023 09:09:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-25 14:10:26.936514
- Title: Image Super-Resolution using Efficient Striped Window Transformer
- Title(参考訳): 高能率角形ウィンドウ変換器を用いた画像超解像
- Authors: Jinpeng Shi, Hui Li, Tianle Liu, Yulong Liu, Mingjian Zhang, Jinchen
Zhu, Ling Zheng, Shizhuang Weng
- Abstract要約: 本稿では,効率的なストライプウィンドウトランス (ESWT) を提案する。
ESWTは効率的な変換層(ETL)で構成されており、クリーンな構造と冗長な操作を避けることができる。
トランスの可能性をさらに活用するために,新しいフレキシブルウィンドウトレーニング戦略を提案する。
- 参考スコア(独自算出の注目度): 6.815956004383743
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, transformer-based methods have made impressive progress in
single-image super-resolu-tion (SR). However, these methods are difficult to
apply to lightweight SR (LSR) due to the challenge of balancing model
performance and complexity. In this paper, we propose an efficient striped
window transformer (ESWT). ESWT consists of efficient transformation layers
(ETLs), allowing a clean structure and avoiding redundant operations. Moreover,
we designed a striped window mechanism to obtain a more efficient ESWT in
modeling long-term dependencies. To further exploit the potential of the
transformer, we propose a novel flexible window training strategy. Without any
additional cost, this strategy can further improve the performance of ESWT.
Extensive experiments show that the proposed method outperforms
state-of-the-art transformer-based LSR methods with fewer parameters, faster
inference, smaller FLOPs, and less memory consumption, achieving a better
trade-off between model performance and complexity.
- Abstract(参考訳): 近年, 単一像超解離反応 (SR) において, トランスフォーマー法は顕著な進歩を遂げている。
しかし,軽量sr (lsr) では,モデルの性能と複雑さのバランスをとることが困難である。
本稿では,効率のよい窓形変圧器(eswt)を提案する。
ESWTは効率的な変換層(ETL)で構成されており、クリーンな構造と冗長な操作を避けることができる。
さらに,長期依存関係のモデリングにおいて,より効率的なESWTを実現するために,ストライプウィンドウ機構を設計した。
トランスの可能性をさらに活用するために,新しいフレキシブルウィンドウトレーニング戦略を提案する。
追加のコストがなければ、この戦略はESWTの性能をさらに向上させることができる。
拡張実験により,提案手法は,パラメータが小さく,推論が速く,FLOPが小さく,メモリ消費が小さく,モデル性能と複雑性のトレードオフが良好であることを示す。
関連論文リスト
- Re-Parameterization of Lightweight Transformer for On-Device Speech Emotion Recognition [10.302458835329539]
軽量トランスフォーマーモデルの性能向上のための新しい手法であるTransformer Re-パラメータ化を導入する。
実験の結果,提案手法は軽量トランスフォーマーの性能を常に改善し,大規模モデルに匹敵する性能を示した。
論文 参考訳(メタデータ) (2024-11-14T10:36:19Z) - Effective Diffusion Transformer Architecture for Image Super-Resolution [63.254644431016345]
画像超解像のための効果的な拡散変換器(DiT-SR)を設計する。
実際には、DiT-SRは全体のU字型アーキテクチャを活用し、すべての変圧器ブロックに対して均一な等方性設計を採用する。
我々は、広く使われているAdaLNの制限を分析し、周波数適応型時間-ステップ条件付けモジュールを提案する。
論文 参考訳(メタデータ) (2024-09-29T07:14:16Z) - HiT-SR: Hierarchical Transformer for Efficient Image Super-Resolution [70.52256118833583]
変換器ベースSRネットワークを階層変換器(HiT-SR)に変換する戦略を提案する。
具体的には、一般的に使われている固定された小さなウィンドウを階層的なウィンドウに置き換えて、異なるスケールで機能を集約する。
大規模なウィンドウに必要となる計算量を考慮すると、窓の大きさに線形な複雑性を持つ空間チャネル相関法をさらに設計する。
論文 参考訳(メタデータ) (2024-07-08T12:42:10Z) - Linearly-evolved Transformer for Pan-sharpening [34.06189165260206]
ビジョン・トランスフォーマー・ファミリーは、地球規模の空間情報モデリング機構によって駆動される衛星パンシャーピング・フィールドを支配してきた。
これらの有望なパンシャープ法における標準的なモデリング規則は、変圧器の変種を概ねカスケード的に積み重ねることである。
本稿では,効率的な線形進化型変圧器変圧器を提案し,軽量なパンシャーピングフレームワークの構築に利用した。
論文 参考訳(メタデータ) (2024-04-19T11:38:34Z) - Dynamic Tuning Towards Parameter and Inference Efficiency for ViT Adaptation [67.13876021157887]
動的チューニング(DyT)は、ViT適応のためのパラメータと推論効率を改善するための新しいアプローチである。
DyTは既存のPEFT法に比べて性能が優れており、VTAB-1KベンチマークではFLOPの71%しか呼び出されていない。
論文 参考訳(メタデータ) (2024-03-18T14:05:52Z) - Transforming Image Super-Resolution: A ConvFormer-based Efficient Approach [58.57026686186709]
本稿では, Convolutional Transformer Layer (ConvFormer) を導入し, ConvFormer-based Super-Resolution Network (CFSR) を提案する。
CFSRは畳み込みベースのアプローチとトランスフォーマーベースのアプローチの両方の利点を継承する。
CFSRは計算コストと性能のバランスが最適であることを示す実験である。
論文 参考訳(メタデータ) (2024-01-11T03:08:00Z) - Unfolding Once is Enough: A Deployment-Friendly Transformer Unit for
Super-Resolution [16.54421804141835]
SISRモデルの中間機能の高解像度化は、メモリと計算要求を増加させる。
本稿では、SISRタスクのためのデプロイメントフレンドリな内部パッチ変換ネットワーク(DITN)を提案する。
我々のモデルは、質的かつ定量的な性能と高いデプロイメント効率で競合する結果を得ることができる。
論文 参考訳(メタデータ) (2023-08-05T05:42:51Z) - RWKV: Reinventing RNNs for the Transformer Era [54.716108899349614]
本稿では,変換器の効率的な並列化学習とRNNの効率的な推論を組み合わせた新しいモデルアーキテクチャを提案する。
モデルを最大14億のパラメータにスケールし、トレーニングされたRNNの中では最大で、同じサイズのTransformerと同等のRWKVのパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2023-05-22T13:57:41Z) - Rich CNN-Transformer Feature Aggregation Networks for Super-Resolution [50.10987776141901]
近年の視覚変換器と自己注意は,様々なコンピュータビジョンタスクにおいて有望な成果を上げている。
我々は,CNNの局所的特徴とトランスフォーマーが捉えた長距離依存性を活用する,超解像(SR)タスクのための効果的なハイブリッドアーキテクチャを提案する。
提案手法は,多数のベンチマークデータセットから最先端のSR結果を得る。
論文 参考訳(メタデータ) (2022-03-15T06:52:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。