論文の概要: Residual Sparsity Connection Learning for Efficient Video
Super-Resolution
- arxiv url: http://arxiv.org/abs/2206.07687v1
- Date: Wed, 15 Jun 2022 17:36:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-16 16:04:41.049675
- Title: Residual Sparsity Connection Learning for Efficient Video
Super-Resolution
- Title(参考訳): 効率的なビデオ超解像のための残差接続学習
- Authors: Bin Xia, Jingwen He, Yulun Zhang, Yucheng Hang, Wenming Yang, Luc Van
Gool
- Abstract要約: Residual Sparsity Connection Learning (RSCL) は、畳み込みカーネルの冗長性を低減し、小さな性能低下を伴うコンパクトなVSRネットワークを得るための構造化プルーニング方式である。
残余ブロックのプルーニング制限を軽減するため,特徴チャネルを保存し,重要なチャネルのみを操作するResidual Sparsity Connection (RSC) スキームを設計する。
画素シャッフル演算では、複数のフィルタをプルーニング単位としてグループ化し、プルーニング後の特徴チャネル空間変換の精度を保証する特別なプルーニング方式を設計する。
- 参考スコア(独自算出の注目度): 95.91300531162098
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Lighter and faster models are crucial for the deployment of video
super-resolution (VSR) on resource-limited devices, e.g., smartphones and
wearable devices. In this paper, we develop Residual Sparsity Connection
Learning (RSCL), a structured pruning scheme, to reduce the redundancy of
convolution kernels and obtain a compact VSR network with a minor performance
drop. However, residual blocks require the pruned filter indices of skip and
residual connections to be the same, which is tricky for pruning. Thus, to
mitigate the pruning restrictions of residual blocks, we design a Residual
Sparsity Connection (RSC) scheme by preserving the feature channels and only
operating on the important channels. Moreover, for the pixel-shuffle operation,
we design a special pruning scheme by grouping several filters as pruning units
to guarantee the accuracy of feature channel-space conversion after pruning. In
addition, we introduce Temporal Finetuning (TF) to reduce the pruning error
amplification of hidden states with temporal propagation. Extensive experiments
show that the proposed RSCL significantly outperforms recent methods
quantitatively and qualitatively. Codes and models will be released.
- Abstract(参考訳): 軽量で高速なモデルは、例えばスマートフォンやウェアラブルデバイスのようなリソース制限されたデバイスへのビデオ超解像(VSR)の展開に不可欠である。
本稿では,構造化プルーニング方式であるResidual Sparsity Connection Learning(RSCL)を開発し,畳み込みカーネルの冗長性を低減し,性能低下の少ないコンパクトなVSRネットワークを実現する。
しかし、残差ブロックは、スキップと残差接続のプルーニングされたフィルタインデックスを同一にする必要があるため、プルーニングには難しい。
そこで我々は,残余ブロックのプルーニング制限を軽減するために,特徴チャネルを保存し,重要なチャネルのみを操作するResidual Sparsity Connection (RSC) スキームを設計する。
さらに,画素シャッフル動作では,複数のフィルタをプルーニングユニットとしてグループ化し,プルーニング後の特徴チャネル空間変換の精度を保証する特別なプルーニングスキームを設計する。
さらに,時間的伝播を伴う隠れ状態のプルーニング誤差増幅を低減するため,時間的微細化(TF)を導入する。
広範な実験により, 提案するrsclは, 近年の手法を定量的に, 定性的に上回っていることがわかった。
コードとモデルがリリースされます。
関連論文リスト
- Cascaded Temporal Updating Network for Efficient Video Super-Resolution [47.63267159007611]
リカレントベースのVSRネットワークにおけるキーコンポーネントはモデル効率に大きな影響を及ぼす。
本稿では,効率的なVSRのための時空間更新ネットワーク(CTUN)を提案する。
CTUNは,従来の方法に比べて効率と性能のトレードオフが良好である。
論文 参考訳(メタデータ) (2024-08-26T12:59:32Z) - A Lightweight Recurrent Learning Network for Sustainable Compressed
Sensing [27.964167481909588]
持続可能なCSシステムを実現するために,繰り返し学習に基づく軽量だが効果的な深層ニューラルネットワークを提案する。
提案手法は,既存のCSアルゴリズムよりも再現性が高い。
論文 参考訳(メタデータ) (2023-04-23T14:54:15Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - RDRN: Recursively Defined Residual Network for Image Super-Resolution [58.64907136562178]
深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像において顕著な性能を得た。
本稿では,注目ブロックを効率的に活用する新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-17T11:06:29Z) - Image Superresolution using Scale-Recurrent Dense Network [30.75380029218373]
畳み込みニューラルネットワーク(CNN)の設計の最近の進歩は、画像超解像(SR)の性能を大幅に向上させた。
残差ブロック内の一連の密接な接続を含む単位上に構築されたスケールリカレントSRアーキテクチャを提案する(Residual Dense Blocks (RDBs))。
我々のスケールリカレント設計は、現在の最先端のアプローチに比べてパラメトリックに効率的でありながら、より高いスケール要因の競合性能を提供する。
論文 参考訳(メタデータ) (2022-01-28T09:18:43Z) - Deep Networks for Image and Video Super-Resolution [30.75380029218373]
単一画像超解像(SISR)は、MDCB(Mixed-Dense connection block)と呼ばれる効率的な畳み込みユニットを用いて構築される。
ネットワークの2つのバージョンをトレーニングし、異なる損失構成を用いて相補的な画像品質を向上させる。
ネットワークは複数のフレームから情報を集約し,時間的整合性を維持するために学習する。
論文 参考訳(メタデータ) (2022-01-28T09:15:21Z) - BasicVSR: The Search for Essential Components in Video Super-Resolution
and Beyond [75.62146968824682]
ビデオ超解像(VSR)アプローチは、画像よりも多くのコンポーネントを持つ傾向がある。
高速化と回復性の向上を図った簡潔なパイプライン「BasicVSR」について述べる。
論文 参考訳(メタデータ) (2020-12-03T18:56:14Z) - Lightweight image super-resolution with enhanced CNN [82.36883027158308]
強い表現力を持つ深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像(SISR)において印象的な性能を達成した
情報抽出・拡張ブロック(IEEB)、再構築ブロック(RB)、情報精製ブロック(IRB)の3つの連続したサブブロックを持つ軽量拡張SR CNN(LESRCNN)を提案する。
IEEBは階層的低分解能(LR)特徴を抽出し、SISRの深い層上の浅い層の記憶能力を高めるために、得られた特徴を段階的に集約する。
RBはグローバルに拡散することで低周波特徴を高周波特徴に変換する
論文 参考訳(メタデータ) (2020-07-08T18:03:40Z) - iSeeBetter: Spatio-temporal video super-resolution using recurrent
generative back-projection networks [0.0]
ビデオ超解像(VSR)に対する新しいGANに基づく構造時間的アプローチiSeeBetterを提案する。
iSeeBetterは、リカレントバックプロジェクションネットワークをジェネレータとして使用して、現在のフレームと隣接するフレームから時空間情報を抽出する。
以上の結果から,iSeeBetterはVSRの忠実度に優れ,最先端の性能に勝ることを示した。
論文 参考訳(メタデータ) (2020-06-13T01:36:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。