論文の概要: Large Kernel Distillation Network for Efficient Single Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2407.14340v1
- Date: Fri, 19 Jul 2024 14:21:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 17:15:09.223670
- Title: Large Kernel Distillation Network for Efficient Single Image Super-Resolution
- Title(参考訳): 高効率単一画像超解像のための大カーネル蒸留網
- Authors: Chengxing Xie, Xiaoming Zhang, Linze Li, Haiteng Meng, Tianlin Zhang, Tianrui Li, Xiaole Zhao,
- Abstract要約: 近年,シングルイメージ超解像 (SISR) が注目されている。
現在のSOTA(State-of-the-art)モデルは高い計算コストなどの問題に直面している。
本稿では,LKDN(Large Kernel Distillation Network)を提案する。
- 参考スコア(独自算出の注目度): 8.094254341695684
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Efficient and lightweight single-image super-resolution (SISR) has achieved remarkable performance in recent years. One effective approach is the use of large kernel designs, which have been shown to improve the performance of SISR models while reducing their computational requirements. However, current state-of-the-art (SOTA) models still face problems such as high computational costs. To address these issues, we propose the Large Kernel Distillation Network (LKDN) in this paper. Our approach simplifies the model structure and introduces more efficient attention modules to reduce computational costs while also improving performance. Specifically, we employ the reparameterization technique to enhance model performance without adding extra cost. We also introduce a new optimizer from other tasks to SISR, which improves training speed and performance. Our experimental results demonstrate that LKDN outperforms existing lightweight SR methods and achieves SOTA performance.
- Abstract(参考訳): 近年,高効率かつ軽量なシングルイメージ超解像 (SISR) が注目されている。
1つの効果的なアプローチは、大きなカーネル設計を使用することで、SISRモデルの性能を向上し、計算要求を減らした。
しかし、現在のSOTA(State-of-the-art)モデルは高い計算コストなどの問題に直面している。
本稿では,LKDN(Large Kernel Distillation Network)を提案する。
提案手法は, モデル構造を単純化し, 計算コストを低減し, 性能の向上を図るため, より効率的なアテンションモジュールを導入する。
具体的には、余分なコストを伴わずにモデル性能を向上させるために、再パラメータ化手法を用いる。
また、他のタスクからSISRに新しいオプティマイザを導入し、トレーニング速度とパフォーマンスを改善しました。
実験の結果,LKDNは既存の軽量SR法より優れ,SOTA性能が向上していることがわかった。
関連論文リスト
- Degradation-Guided One-Step Image Super-Resolution with Diffusion Priors [75.24313405671433]
拡散に基づく画像超解像法 (SR) は、事前訓練された大規模なテキスト・画像拡散モデルを先行として活用することにより、顕著な成功を収めた。
本稿では,拡散型SR手法の効率問題に対処する新しい一段階SRモデルを提案する。
既存の微調整戦略とは異なり、SR専用の劣化誘導低ランク適応 (LoRA) モジュールを設計した。
論文 参考訳(メタデータ) (2024-09-25T16:15:21Z) - Efficient Single Image Super-Resolution with Entropy Attention and Receptive Field Augmentation [34.50541063621832]
本稿では,新しいエントロピーアテンション(EA)とシフトする大きなカーネルアテンション(SLKA)からなる,効率的な単一画像超解像(SISR)モデルを提案する。
EAはガウス分布で条件付けられた中間特徴のエントロピーを増大させ、その後の推論に対してより情報的な入力を提供する。
SLKAは、チャネルシフトの助けを借りてSRモデルの受容領域を拡張し、階層的特徴の多様性を高めることを好む。
論文 参考訳(メタデータ) (2024-08-08T02:03:10Z) - Transforming Image Super-Resolution: A ConvFormer-based Efficient Approach [58.57026686186709]
本稿では, Convolutional Transformer Layer (ConvFormer) を導入し, ConvFormer-based Super-Resolution Network (CFSR) を提案する。
CFSRは畳み込みベースのアプローチとトランスフォーマーベースのアプローチの両方の利点を継承する。
CFSRは計算コストと性能のバランスが最適であることを示す実験である。
論文 参考訳(メタデータ) (2024-01-11T03:08:00Z) - A-SDM: Accelerating Stable Diffusion through Redundancy Removal and
Performance Optimization [54.113083217869516]
本研究ではまず,ネットワークの計算冗長性について検討する。
次に、モデルの冗長性ブロックをプルークし、ネットワーク性能を維持する。
第3に,計算集約型注意部を高速化するグローバル地域対話型注意(GRI)を提案する。
論文 参考訳(メタデータ) (2023-12-24T15:37:47Z) - Swift Parameter-free Attention Network for Efficient Super-Resolution [8.365929625909509]
シングルイメージ超解像は、低レベルのコンピュータビジョンにおいて重要な課題である。
Swiftを提案します。
パラメータカウント、推論速度、画像品質のバランスをとるパラメータフリーアテンションネットワーク(SPAN)。
複数のベンチマークでSPANを評価し,画像品質と推論速度の両面で既存の高効率超解像モデルより優れていることを示した。
論文 参考訳(メタデータ) (2023-11-21T18:30:40Z) - Incorporating Transformer Designs into Convolutions for Lightweight
Image Super-Resolution [46.32359056424278]
大規模な畳み込みカーネルは畳み込みニューラルネットワークの設計に人気がある。
カーネルのサイズが大きくなるとパラメータの数が2倍に増加し、計算量やメモリの要求も大きくなる。
本稿では,自己注意機構を付加した標準畳み込みを改良した近傍注意モジュールを提案する。
NAモジュールをベースとして,TSRと呼ばれる軽量単一画像超解像(SISR)ネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-25T01:32:18Z) - Residual Local Feature Network for Efficient Super-Resolution [20.62809970985125]
本研究では,Residual Local Feature Network (RLFN)を提案する。
主なアイデアは、3つの畳み込みレイヤを局所的な特徴学習に使用して、機能の集約を単純化することだ。
さらに,NTIRE 2022の高効率超解像問題において,第1位を獲得した。
論文 参考訳(メタデータ) (2022-05-16T08:46:34Z) - Blueprint Separable Residual Network for Efficient Image
Super-Resolution [47.05693747583342]
2つの効率的な設計を含むBSRN(Blueprint Separable Residual Network)を提案する。
ひとつは、冗長な畳み込み操作で発生するブループリント分離畳み込み(BSConv)である。
もう1つは、より効果的なアテンションモジュールを導入することで、モデル能力を高めることである。
論文 参考訳(メタデータ) (2022-05-12T10:11:28Z) - Towards Practical Lipreading with Distilled and Efficient Models [57.41253104365274]
ニューラルネットワークの復活により、リリーディングは多くの進歩を目の当たりにした。
最近の研究は、最適なアーキテクチャを見つけるか、一般化を改善することで、パフォーマンスを改善するといった側面に重点を置いている。
現在の方法論と、実践的なシナリオにおける効果的なリップリーディングのデプロイ要件との間には、依然として大きなギャップがあります。
まず, LRW と LRW-1000 をそれぞれ 88.5% と 46.6% に比例して, 最先端の性能を高めることを提案する。
論文 参考訳(メタデータ) (2020-07-13T16:56:27Z) - Iterative Network for Image Super-Resolution [69.07361550998318]
単一画像超解像(SISR)は、最近の畳み込みニューラルネットワーク(CNN)の発展により、大幅に活性化されている。
本稿では、従来のSISRアルゴリズムに関する新たな知見を提供し、反復最適化に依存するアプローチを提案する。
反復最適化の上に,新しい反復型超解像ネットワーク (ISRN) を提案する。
論文 参考訳(メタデータ) (2020-05-20T11:11:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。