論文の概要: Convolutional Neural Network Pruning with Structural Redundancy
Reduction
- arxiv url: http://arxiv.org/abs/2104.03438v1
- Date: Thu, 8 Apr 2021 00:16:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-10 01:28:32.258590
- Title: Convolutional Neural Network Pruning with Structural Redundancy
Reduction
- Title(参考訳): 構造冗長性を低減した畳み込みニューラルネットワーク
- Authors: Zi Wang, Chengcheng Li, Xiangyang Wang
- Abstract要約: 構造的冗長性は重要でないフィルタを見つけるよりも重要な役割を担っていると我々は主張する。
本研究では,CNNの構造冗長性を同定し,選択層内のプルーンフィルタを最も冗長性の高いネットワークプルーニング手法を提案する。
- 参考スコア(独自算出の注目度): 11.381864384054824
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional neural network (CNN) pruning has become one of the most
successful network compression approaches in recent years. Existing works on
network pruning usually focus on removing the least important filters in the
network to achieve compact architectures. In this study, we claim that
identifying structural redundancy plays a more essential role than finding
unimportant filters, theoretically and empirically. We first statistically
model the network pruning problem in a redundancy reduction perspective and
find that pruning in the layer(s) with the most structural redundancy
outperforms pruning the least important filters across all layers. Based on
this finding, we then propose a network pruning approach that identifies
structural redundancy of a CNN and prunes filters in the selected layer(s) with
the most redundancy. Experiments on various benchmark network architectures and
datasets show that our proposed approach significantly outperforms the previous
state-of-the-art.
- Abstract(参考訳): 畳み込みニューラルネットワーク(cnn)のプルーニングは、近年最も成功したネットワーク圧縮アプローチの1つとなっている。
既存のネットワークプルーニングの作業は通常、コンパクトなアーキテクチャを実現するためにネットワーク内の最も重要でないフィルタを取り除くことに重点を置いている。
本研究では, 構造的冗長性を特定することは, 理論上, 経験上, 重要でないフィルタを見つけるよりも重要な役割を担っていると主張する。
まず,ネットワークプルーニング問題を冗長性低減の観点から統計的にモデル化し,最も構造的冗長性が高い層内のプルーニングが,すべての層で最も重要なフィルタをプルーニングするよりも優れていることを発見した。
そこで本研究では,CNNの構造的冗長性と,選択した層内のプーンフィルタを最も冗長性の高いネットワークプルーニング手法を提案する。
ベンチマークネットワークアーキテクチャとデータセットに関する実験により,提案手法が先行する最先端技術を大きく上回っていることが示された。
関連論文リスト
- Rotation Equivariant Proximal Operator for Deep Unfolding Methods in Image Restoration [62.41329042683779]
本稿では, 回転対称性を組み込んだ高精度な回転同変近位ネットワークを提案する。
本研究は, 回転対称性の先行を深く展開する枠組みに効果的に組み込む, 高精度な回転同変近位ネットワークを提案する。
論文 参考訳(メタデータ) (2023-12-25T11:53:06Z) - Network Pruning Spaces [12.692532576302426]
ウェイトプルーニングやフィルタプルーニングなどのネットワークプルーニング技術により、ほとんどの最先端のニューラルネットワークは、大幅な性能低下なしに加速できることが明らかになった。
この研究は、市販のディープラーニングライブラリやハードウェアで推論を高速化するフィルタプルーニングに焦点を当てている。
論文 参考訳(メタデータ) (2023-04-19T06:52:05Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - RDRN: Recursively Defined Residual Network for Image Super-Resolution [58.64907136562178]
深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像において顕著な性能を得た。
本稿では,注目ブロックを効率的に活用する新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-17T11:06:29Z) - Pushing the Efficiency Limit Using Structured Sparse Convolutions [82.31130122200578]
本稿では,画像の固有構造を利用して畳み込みフィルタのパラメータを削減する構造的スパース畳み込み(SSC)を提案する。
我々は、SSCが効率的なアーキテクチャにおける一般的なレイヤ(奥行き、グループ回り、ポイント回りの畳み込み)の一般化であることを示す。
SSCに基づくアーキテクチャは、CIFAR-10、CIFAR-100、Tiny-ImageNet、ImageNet分類ベンチマークのベースラインと比較して、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-23T18:37:22Z) - Neural Network Compression by Joint Sparsity Promotion and Redundancy
Reduction [4.9613162734482215]
本稿では,冗長なフィルタを創出し,空間性向上によるネットワーク学習に対する効果を最小化する,複合制約に基づく新しい学習手法を提案する。
いくつかのピクセルワイドセグメンテーションベンチマークによるテストでは、テストフェーズにおけるネットワークのニューロン数とメモリフットプリントが、性能に影響を与えずに大幅に減少することが示された。
論文 参考訳(メタデータ) (2022-10-14T01:34:49Z) - Neural Network Compression via Effective Filter Analysis and
Hierarchical Pruning [41.19516938181544]
現在のネットワーク圧縮法には、最大圧縮率を推定する理論的な枠組みが欠如している。
本研究では,ネットワークの最大冗長性を推定するための勾配行列特異点解析に基づく手法を提案する。
この最大速度で導かれ,ネットワーク性能を犠牲にすることなく,ニューロンネットワーク構造を最大化するために,新規で効率的な階層型ネットワークプルーニングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-06-07T21:30:47Z) - Manifold Regularized Dynamic Network Pruning [102.24146031250034]
本稿では,全インスタンスの多様体情報をプルーンドネットワークの空間に埋め込むことにより,冗長フィルタを動的に除去する新しいパラダイムを提案する。
提案手法の有効性をいくつかのベンチマークで検証し,精度と計算コストの両面で優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-10T03:59:03Z) - Grow-Push-Prune: aligning deep discriminants for effective structural
network compression [5.532477732693]
本稿では,タスク依存型コンパクトモデルの深層判別分析の観点から導出を試みる。
本稿では,プッシュステップとプルーニングステップを交互に交互に行う分類タスクに対して,反復的かつ積極的なアプローチを提案する。
MNIST、CIFAR10、ImageNetデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-09-29T01:29:23Z) - A "Network Pruning Network" Approach to Deep Model Compression [62.68120664998911]
マルチタスクネットワークを用いた深部モデル圧縮のためのフィルタプルーニング手法を提案する。
我々のアプローチは、プレナーネットワークを学習して、事前訓練されたターゲットネットワークを訓練することに基づいている。
提案手法によって生成された圧縮モデルは汎用的であり,特別なハードウェア/ソフトウェアのサポートは不要である。
論文 参考訳(メタデータ) (2020-01-15T20:38:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。