論文の概要: Towards Compact Single Image Super-Resolution via Contrastive
Self-distillation
- arxiv url: http://arxiv.org/abs/2105.11683v1
- Date: Tue, 25 May 2021 05:44:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-27 02:10:02.454800
- Title: Towards Compact Single Image Super-Resolution via Contrastive
Self-distillation
- Title(参考訳): コントラスト自己蒸留による超解像のコンパクト化に向けて
- Authors: Yanbo Wang, Shaohui Lin, Yanyun Qu, Haiyan Wu, Zhizhong Zhang, Yuan
Xie, Angela Yao
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は超解像(SR)に対して高い成功を収めている
本稿では,市販SRモデルの同時圧縮と高速化を目的とした,新しいコントラスト自己蒸留(CSD)フレームワークを提案する。
特に、チャネル分割型超解像ネットワークは、まずターゲットの教師ネットワークからコンパクトな学生ネットワークとして構築することができる。
- 参考スコア(独自算出の注目度): 47.72815893585127
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional neural networks (CNNs) are highly successful for
super-resolution (SR) but often require sophisticated architectures with heavy
memory cost and computational overhead, significantly restricts their practical
deployments on resource-limited devices. In this paper, we proposed a novel
contrastive self-distillation (CSD) framework to simultaneously compress and
accelerate various off-the-shelf SR models. In particular, a channel-splitting
super-resolution network can first be constructed from a target teacher network
as a compact student network. Then, we propose a novel contrastive loss to
improve the quality of SR images and PSNR/SSIM via explicit knowledge transfer.
Extensive experiments demonstrate that the proposed CSD scheme effectively
compresses and accelerates several standard SR models such as EDSR, RCAN and
CARN. Code is available at https://github.com/Booooooooooo/CSD.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は超高解像度(SR)では高い成功を収めるが、しばしばメモリコストと計算オーバーヘッドの重い高度なアーキテクチャを必要とする。
本稿では,srモデルの圧縮と加速を同時に行うためのコントラスト型自己蒸留(csd)フレームワークを提案する。
特に、チャネル分割型超解像ネットワークは、まずターゲットの教師ネットワークからコンパクトな学生ネットワークとして構築することができる。
そこで我々は,SR画像とPSNR/SSIMの品質向上のために,明示的な知識伝達による新たなコントラスト損失を提案する。
大規模な実験により、提案方式はEDSR、RCAN、CARNなどの標準SRモデルを効果的に圧縮・加速することを示した。
コードはhttps://github.com/Booooooooooo/CSDで入手できる。
関連論文リスト
- Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - The Best of Both Worlds: a Framework for Combining Degradation
Prediction with High Performance Super-Resolution Networks [14.804000317612305]
本稿では,ブラインドSR予測機構とディープSRネットワークを組み合わせるためのフレームワークを提案する。
我々は、我々のハイブリッドモデルが、非盲目モデルと盲目モデルの両方よりも強いSR性能を一貫して達成していることを示す。
論文 参考訳(メタデータ) (2022-11-09T16:49:35Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z) - MPRNet: Multi-Path Residual Network for Lightweight Image Super
Resolution [2.3576437999036473]
軽量SRにおけるSOTA性能を向上させる軽量超解像ネットワークを提案する。
提案アーキテクチャには新たなアテンション機構であるTwo-Fold Attention Moduleが含まれており,モデルの表現能力を最大化することができる。
論文 参考訳(メタデータ) (2020-11-09T17:11:15Z) - Accurate and Lightweight Image Super-Resolution with Model-Guided Deep
Unfolding Network [63.69237156340457]
我々は、モデル誘導深部展開ネットワーク(MoG-DUN)と呼ばれるSISRに対する説明可能なアプローチを提示し、提唱する。
MoG-DUNは正確(エイリアスを少なくする)、計算効率(モデルパラメータを減らした)、多用途(多重劣化を処理できる)である。
RCAN, SRDNF, SRFBNを含む既存の最先端画像手法に対するMoG-DUN手法の優位性は、いくつかの一般的なデータセットと様々な劣化シナリオに関する広範な実験によって実証されている。
論文 参考訳(メタデータ) (2020-09-14T08:23:37Z) - OverNet: Lightweight Multi-Scale Super-Resolution with Overscaling
Network [3.6683231417848283]
SISRを任意のスケールで1つのモデルで解くための,深層でも軽量な畳み込みネットワークであるOverNetを紹介した。
我々のネットワークは、従来の手法よりも少ないパラメータを使用しながら、標準ベンチマークにおいて、過去の最先端結果よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-05T22:10:29Z) - Lightweight image super-resolution with enhanced CNN [82.36883027158308]
強い表現力を持つ深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像(SISR)において印象的な性能を達成した
情報抽出・拡張ブロック(IEEB)、再構築ブロック(RB)、情報精製ブロック(IRB)の3つの連続したサブブロックを持つ軽量拡張SR CNN(LESRCNN)を提案する。
IEEBは階層的低分解能(LR)特徴を抽出し、SISRの深い層上の浅い層の記憶能力を高めるために、得られた特徴を段階的に集約する。
RBはグローバルに拡散することで低周波特徴を高周波特徴に変換する
論文 参考訳(メタデータ) (2020-07-08T18:03:40Z) - Deep Adaptive Inference Networks for Single Image Super-Resolution [72.7304455761067]
シングルイメージ超解像(SISR)は、ディープ畳み込みニューラルネットワーク(CNN)の展開により、近年大きく進歩している。
本稿では,深部SISR(AdaDSR)の適応型推論ネットワークを活用することで,この問題に対処する。
我々のAdaDSRは、SISRモデルをバックボーンとし、画像の特徴とリソース制約を入力として取り、ローカルネットワーク深さのマップを予測する軽量アダプタモジュールを備える。
論文 参考訳(メタデータ) (2020-04-08T10:08:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。