論文の概要: Local-Selective Feature Distillation for Single Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2111.10988v1
- Date: Mon, 22 Nov 2021 05:05:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-23 17:24:40.172092
- Title: Local-Selective Feature Distillation for Single Image Super-Resolution
- Title(参考訳): 単一画像超解像のための局所選択的特徴蒸留
- Authors: SeongUk Park, Nojun Kwak
- Abstract要約: 単一画像超解像(SISR)に適した新しい特徴蒸留法(FD)を提案する。
本稿では, SISRタスクに苦しむ既存のFitNetベースのFD手法の限界を示すとともに, ローカルな特徴情報に焦点を合わせるために既存のFDアルゴリズムを変更することを提案する。
提案手法をLSFDと呼び,従来のFD法よりもSISR法の方が優れていることを確認した。
- 参考スコア(独自算出の注目度): 42.83228585332463
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent improvements in convolutional neural network (CNN)-based single image
super-resolution (SISR) methods rely heavily on fabricating network
architectures, rather than finding a suitable training algorithm other than
simply minimizing the regression loss. Adapting knowledge distillation (KD) can
open a way for bringing further improvement for SISR, and it is also beneficial
in terms of model efficiency. KD is a model compression method that improves
the performance of Deep Neural Networks (DNNs) without using additional
parameters for testing. It is getting the limelight recently for its competence
at providing a better capacity-performance tradeoff. In this paper, we propose
a novel feature distillation (FD) method which is suitable for SISR. We show
the limitations of the existing FitNet-based FD method that it suffers in the
SISR task, and propose to modify the existing FD algorithm to focus on local
feature information. In addition, we propose a teacher-student-difference-based
soft feature attention method that selectively focuses on specific pixel
locations to extract feature information. We call our method local-selective
feature distillation (LSFD) and verify that our method outperforms conventional
FD methods in SISR problems.
- Abstract(参考訳): 最近の畳み込みニューラルネットワーク(cnn)ベースのシングルイメージスーパーレゾリューション(sisr)法は、回帰損失の最小化以外の適切なトレーニングアルゴリズムを見つけるのではなく、ネットワークアーキテクチャの構築に大きく依存している。
知識蒸留(KD)への適応は、SISRのさらなる改善をもたらす方法を開くことができ、モデル効率の観点からも有益である。
KDは、テストのための追加パラメータを用いることなく、ディープニューラルネットワーク(DNN)の性能を改善するモデル圧縮手法である。
キャパシティーパフォーマンスのより良いトレードオフを提供する能力によって、最近は軽視されている。
本稿では, SISRに適した新しい特徴蒸留法を提案する。
本稿では, SISRタスクに苦しむ既存のFitNetベースのFD手法の限界を示すとともに, 局所的特徴情報に着目したFDアルゴリズムの修正を提案する。
また,特定の画素位置に着目して特徴情報を抽出し,教師・教師間差異に基づくソフト特徴注目手法を提案する。
提案手法をLSFDと呼び,従来のFD法よりもSISR法の方が優れていることを確認した。
関連論文リスト
- Transforming Image Super-Resolution: A ConvFormer-based Efficient Approach [58.57026686186709]
本稿では, Convolutional Transformer Layer (ConvFormer) を導入し, ConvFormer-based Super-Resolution Network (CFSR) を提案する。
CFSRは畳み込みベースのアプローチとトランスフォーマーベースのアプローチの両方の利点を継承する。
CFSRは計算コストと性能のバランスが最適であることを示す実験である。
論文 参考訳(メタデータ) (2024-01-11T03:08:00Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Feature-domain Adaptive Contrastive Distillation for Efficient Single
Image Super-Resolution [3.2453621806729234]
CNNベースのSISRは、多くのパラメータと高い計算コストを持ち、より良い性能を実現している。
知識蒸留(KD)は教師の有用な知識を学生に伝達する。
本稿では,軽量なSISRネットワークを効率的に訓練するための特徴領域適応型コントラスト蒸留(FACD)手法を提案する。
論文 参考訳(メタデータ) (2022-11-29T06:24:14Z) - Residual Local Feature Network for Efficient Super-Resolution [20.62809970985125]
本研究では,Residual Local Feature Network (RLFN)を提案する。
主なアイデアは、3つの畳み込みレイヤを局所的な特徴学習に使用して、機能の集約を単純化することだ。
さらに,NTIRE 2022の高効率超解像問題において,第1位を獲得した。
論文 参考訳(メタデータ) (2022-05-16T08:46:34Z) - Residual Feature Distillation Network for Lightweight Image
Super-Resolution [40.52635571871426]
残像蒸留ネットワーク(RFDN)と呼ばれる軽量かつ高精度なSISRモデルを提案する。
RFDNは複数の特徴蒸留接続を用いてより識別的な特徴表現を学習する。
また、RFDNの主ビルディングブロックとして浅層残差ブロック(SRB)を提案し、ネットワークが残差学習の恩恵を受けることができるようにした。
論文 参考訳(メタデータ) (2020-09-24T08:46:40Z) - Deep Iterative Residual Convolutional Network for Single Image
Super-Resolution [31.934084942626257]
我々は、ISRResCNet(Deep Iterative Super-Resolution Residual Convolutional Network)を提案する。
残差学習アプローチを用いて、深層ネットワークを反復的に訓練することにより、強力な画像正規化と大規模最適化手法を活用する。
トレーニング可能なパラメータがいくつかある本手法は,最先端の手法と比較して,異なるスケーリング要因に対する結果を改善する。
論文 参考訳(メタデータ) (2020-09-07T12:54:14Z) - Iterative Network for Image Super-Resolution [69.07361550998318]
単一画像超解像(SISR)は、最近の畳み込みニューラルネットワーク(CNN)の発展により、大幅に活性化されている。
本稿では、従来のSISRアルゴリズムに関する新たな知見を提供し、反復最適化に依存するアプローチを提案する。
反復最適化の上に,新しい反復型超解像ネットワーク (ISRN) を提案する。
論文 参考訳(メタデータ) (2020-05-20T11:11:47Z) - Deep Adaptive Inference Networks for Single Image Super-Resolution [72.7304455761067]
シングルイメージ超解像(SISR)は、ディープ畳み込みニューラルネットワーク(CNN)の展開により、近年大きく進歩している。
本稿では,深部SISR(AdaDSR)の適応型推論ネットワークを活用することで,この問題に対処する。
我々のAdaDSRは、SISRモデルをバックボーンとし、画像の特徴とリソース制約を入力として取り、ローカルネットワーク深さのマップを予測する軽量アダプタモジュールを備える。
論文 参考訳(メタデータ) (2020-04-08T10:08:20Z) - Deep Unfolding Network for Image Super-Resolution [159.50726840791697]
本稿では,学習に基づく手法とモデルに基づく手法の両方を活用する,エンドツーエンドのトレーニング可能なアンフォールディングネットワークを提案する。
提案するネットワークは, モデルベース手法の柔軟性を継承し, 一つのモデルを用いて, 異なるスケール要因に対する, 曖昧でノイズの多い画像の超解像化を行う。
論文 参考訳(メタデータ) (2020-03-23T17:55:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。