論文の概要: ClassPruning: Speed Up Image Restoration Networks by Dynamic N:M Pruning
- arxiv url: http://arxiv.org/abs/2211.05488v1
- Date: Thu, 10 Nov 2022 11:14:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 15:22:12.745770
- Title: ClassPruning: Speed Up Image Restoration Networks by Dynamic N:M Pruning
- Title(参考訳): classpruning: dynamic n:m pruningによる画像復元ネットワークの高速化
- Authors: Yang Zhou, Yuda Song, Hui Qian, Xin Du
- Abstract要約: ClassPruningは、パフォーマンスを維持しながら、既存のメソッドが約40%のFLOPを節約するのに役立つ。
本稿では,トレーニングの安定化と性能向上のために,新たなトレーニング戦略と2つの新たな損失条件を提案する。
- 参考スコア(独自算出の注目度): 25.371802581339576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image restoration tasks have achieved tremendous performance improvements
with the rapid advancement of deep neural networks. However, most prevalent
deep learning models perform inference statically, ignoring that different
images have varying restoration difficulties and lightly degraded images can be
well restored by slimmer subnetworks. To this end, we propose a new solution
pipeline dubbed ClassPruning that utilizes networks with different capabilities
to process images with varying restoration difficulties. In particular, we use
a lightweight classifier to identify the image restoration difficulty, and then
the sparse subnetworks with different capabilities can be sampled based on
predicted difficulty by performing dynamic N:M fine-grained structured pruning
on base restoration networks. We further propose a novel training strategy
along with two additional loss terms to stabilize training and improve
performance. Experiments demonstrate that ClassPruning can help existing
methods save approximately 40% FLOPs while maintaining performance.
- Abstract(参考訳): 画像復元タスクは、ディープニューラルネットワークの急速な進歩によって、大幅にパフォーマンスが向上した。
しかし、ほとんどの一般的なディープラーニングモデルは、異なる画像が様々な復元困難を持つことを無視して、静的に推論を行う。
そこで本研究では,様々な機能を有するネットワークを用いて,復元の困難度が異なる画像の処理を行う,classpruningと呼ばれる新しいソリューションパイプラインを提案する。
特に,画像復元の難易度をライトウェイトな分類器を用いて同定し,ベース復元ネットワーク上で動的n:m細粒度構造pruningを行うことで,予測難易度に基づいて,異なる能力を持つスパースサブネットワークをサンプリングすることができる。
さらに,トレーニングの安定化と性能向上のために,新たなトレーニング戦略と2つの損失条件を提案する。
実験によると、ClassPruningはパフォーマンスを維持しながら、既存のメソッドが約40%のFLOPを節約できる。
関連論文リスト
- Multi-Scale Representation Learning for Image Restoration with State-Space Model [13.622411683295686]
効率的な画像復元のためのマルチスケール状態空間モデル(MS-Mamba)を提案する。
提案手法は,計算複雑性を低く保ちながら,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2024-08-19T16:42:58Z) - Unified-Width Adaptive Dynamic Network for All-In-One Image Restoration [50.81374327480445]
本稿では, 複雑な画像劣化を基本劣化の観点で表現できる, という新しい概念を提案する。
We propose the Unified-Width Adaptive Dynamic Network (U-WADN) which consist of two pivotal components: a Width Adaptive Backbone (WAB) and a Width Selector (WS)。
提案したU-WADNは、最大32.3%のFLOPを同時に削減し、約15.7%のリアルタイム加速を実現している。
論文 参考訳(メタデータ) (2024-01-24T04:25:12Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - Wide & deep learning for spatial & intensity adaptive image restoration [16.340992967330603]
本稿では,広義の多フレーム画像復元ネットワーク(DparNet)を提案する。
劣化前のパラメータ行列は、劣化した画像から直接学習される。
DparNetの広範かつ深いアーキテクチャにより、学習したパラメータは最終的な復元結果を直接修正できる。
論文 参考訳(メタデータ) (2023-05-30T03:24:09Z) - Random Weights Networks Work as Loss Prior Constraint for Image
Restoration [50.80507007507757]
「画像復元の優先制約としてランダムウェイトネットワークを機能させることができる」という信念を提示する。」
我々の信念は、計算コストのトレーニングやテストなしに、既存のネットワークに直接挿入することができる。
強調しておきたいのは、損失関数の領域を刺激し、現在無視されている状態を保存することです。
論文 参考訳(メタデータ) (2023-03-29T03:43:51Z) - Variational Deep Image Restoration [20.195082841065947]
本稿では,画像復元のための新しい変分推論フレームワークと,提案フレームワークで記述した復元問題を解決する畳み込みニューラルネットワーク(CNN)構造を提案する。
具体的には,ガウス雑音の除去,実環境雑音の低減,ブラインド画像の超解像,JPEG圧縮アーティファクトの低減について,最先端の性能を提供する。
論文 参考訳(メタデータ) (2022-07-03T16:32:15Z) - Attentive Fine-Grained Structured Sparsity for Image Restoration [63.35887911506264]
N:M 構造化プルーニングは,モデルの精度制約を効率的にするための効果的かつ実用的なプルーニング手法の1つである。
そこで本稿では, 各層におけるN:M構造化空間の刈り取り比を決定する新しい刈り取り法を提案する。
論文 参考訳(メタデータ) (2022-04-26T12:44:55Z) - Is Deep Image Prior in Need of a Good Education? [57.3399060347311]
画像再構成に有効な先行画像として, 奥行き画像が導入された。
その印象的な再建性にもかかわらず、学習技術や伝統的な再建技術と比べてアプローチは遅い。
計算課題に対処する2段階の学習パラダイムを開発する。
論文 参考訳(メタデータ) (2021-11-23T15:08:26Z) - Content-adaptive Representation Learning for Fast Image Super-resolution [6.5468866820512215]
我々は、パッチワイドなローリングネットワークをコンテント順応して画像の難易度に応じて復元することで、画像SRの効率性の問題に対処する。
難易度を無視する既存の研究とは対照的に、ニューラルネットワークの異なる段階を採用して画像復元を行う。
我々のモデルは、重要な加速を示すだけでなく、最先端の性能も維持する。
論文 参考訳(メタデータ) (2021-05-20T10:24:29Z) - Learning degraded image classification with restoration data fidelity [0.0]
広く使用されている4つの分類ネットワークにおける分解型およびレベルの影響について検討する。
本稿では,事前学習したネットワークで得られた画像特徴を忠実度マップを用いて校正する手法を提案する。
その結果,提案手法は画像劣化による影響を緩和する有望な解であることがわかった。
論文 参考訳(メタデータ) (2021-01-23T23:47:03Z) - BP-DIP: A Backprojection based Deep Image Prior [49.375539602228415]
画像復元手法として, (i)Deep Image Prior (DIP) と (ii) バックプロジェクション (BP) の2つの手法を提案する。
提案手法はBP-DIP(BP-DIP)と呼ばれ,高いPSNR値とより優れた推論実行時間を持つ通常のDIPよりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-03-11T17:09:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。