論文の概要: Network Pruning Spaces
- arxiv url: http://arxiv.org/abs/2304.09453v1
- Date: Wed, 19 Apr 2023 06:52:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-20 15:19:28.151798
- Title: Network Pruning Spaces
- Title(参考訳): ネットワークプルーニング空間
- Authors: Xuanyu He, Yu-I Yang, Ran Song, Jiachen Pu, Conggang Hu, Feijun Jiang,
Wei Zhang, Huanghao Ding
- Abstract要約: ウェイトプルーニングやフィルタプルーニングなどのネットワークプルーニング技術により、ほとんどの最先端のニューラルネットワークは、大幅な性能低下なしに加速できることが明らかになった。
この研究は、市販のディープラーニングライブラリやハードウェアで推論を高速化するフィルタプルーニングに焦点を当てている。
- 参考スコア(独自算出の注目度): 12.692532576302426
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Network pruning techniques, including weight pruning and filter pruning,
reveal that most state-of-the-art neural networks can be accelerated without a
significant performance drop. This work focuses on filter pruning which enables
accelerated inference with any off-the-shelf deep learning library and
hardware. We propose the concept of \emph{network pruning spaces} that
parametrize populations of subnetwork architectures. Based on this concept, we
explore the structure aspect of subnetworks that result in minimal loss of
accuracy in different pruning regimes and arrive at a series of observations by
comparing subnetwork distributions. We conjecture through empirical studies
that there exists an optimal FLOPs-to-parameter-bucket ratio related to the
design of original network in a pruning regime. Statistically, the structure of
a winning subnetwork guarantees an approximately optimal ratio in this regime.
Upon our conjectures, we further refine the initial pruning space to reduce the
cost of searching a good subnetwork architecture. Our experimental results on
ImageNet show that the subnetwork we found is superior to those from the
state-of-the-art pruning methods under comparable FLOPs.
- Abstract(参考訳): 重み付きプルーニングやフィルタのプルーニングを含むネットワークプルーニング技術は、ほとんどの最先端のニューラルネットワークが大幅なパフォーマンス低下なしに高速化できることを示している。
本研究は,市販のディープラーニングライブラリとハードウェアで推論を高速化するフィルタプルーニングに焦点を当てている。
本稿では,サブネットワークアーキテクチャの個体群をパラメトリズする \emph{network pruning spaces} の概念を提案する。
この概念に基づき、異なるプルーニングレジームにおける精度の損失を最小限に抑えるサブネットワークの構造的側面を探索し、サブネットワーク分布の比較により一連の観察に到達する。
我々は, プルーニング方式において, 元のネットワークの設計に関連する最適フロップ-パラメータ-バケット比が存在することを実験的に予測する。
統計的には、勝利するサブネットワークの構造は、このレジームにおける近似最適比を保証する。
我々の予想では、優れたサブネットワークアーキテクチャを探索するコストを削減するために、初期プルーニング空間をさらに洗練する。
ImageNetにおける実験結果から, FLOP に匹敵する最先端プルーニング法よりも, サブネットワークの方が優れていることがわかった。
関連論文リスト
- Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Pushing the Efficiency Limit Using Structured Sparse Convolutions [82.31130122200578]
本稿では,画像の固有構造を利用して畳み込みフィルタのパラメータを削減する構造的スパース畳み込み(SSC)を提案する。
我々は、SSCが効率的なアーキテクチャにおける一般的なレイヤ(奥行き、グループ回り、ポイント回りの畳み込み)の一般化であることを示す。
SSCに基づくアーキテクチャは、CIFAR-10、CIFAR-100、Tiny-ImageNet、ImageNet分類ベンチマークのベースラインと比較して、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-23T18:37:22Z) - Neural Network Compression by Joint Sparsity Promotion and Redundancy
Reduction [4.9613162734482215]
本稿では,冗長なフィルタを創出し,空間性向上によるネットワーク学習に対する効果を最小化する,複合制約に基づく新しい学習手法を提案する。
いくつかのピクセルワイドセグメンテーションベンチマークによるテストでは、テストフェーズにおけるネットワークのニューロン数とメモリフットプリントが、性能に影響を与えずに大幅に減少することが示された。
論文 参考訳(メタデータ) (2022-10-14T01:34:49Z) - Pruning-as-Search: Efficient Neural Architecture Search via Channel
Pruning and Structural Reparameterization [50.50023451369742]
プルーニング・アズ・サーチ(Pruning-as-Search、PaS)は、必要なサブネットワークを自動的に効率的に検索するエンドツーエンドのプルーニング手法である。
提案したアーキテクチャは,ImageNet-1000分類タスクにおいて,1.0%$ Top-1精度で先行技術より優れていた。
論文 参考訳(メタデータ) (2022-06-02T17:58:54Z) - AdaPruner: Adaptive Channel Pruning and Effective Weights Inheritance [9.3421559369389]
本稿では,各レイヤのチャネル数とサブネットワークのワイツ継承基準を適応的に決定するプルーニングフレームワークを提案する。
AdaPrunerは、切断されたネットワークを素早く、正確に、効率的に得ることができる。
ImageNetでは、MobileNetV2の32.8%のFLOPを削減し、トップ1の精度は0.62%しか低下しない。
論文 参考訳(メタデータ) (2021-09-14T01:52:05Z) - Convolutional Neural Network Pruning with Structural Redundancy
Reduction [11.381864384054824]
構造的冗長性は重要でないフィルタを見つけるよりも重要な役割を担っていると我々は主張する。
本研究では,CNNの構造冗長性を同定し,選択層内のプルーンフィルタを最も冗長性の高いネットワークプルーニング手法を提案する。
論文 参考訳(メタデータ) (2021-04-08T00:16:24Z) - Growing Efficient Deep Networks by Structured Continuous Sparsification [34.7523496790944]
私たちは、トレーニングの過程でディープネットワークアーキテクチャを成長させるアプローチを開発します。
我々の手法は、小さくてシンプルなシードアーキテクチャから始まり、動的に成長し、層とフィルタの両方を熟成することができる。
ImageNetのベースラインであるResNet-50と比較すると、推論FLOPは49.7%、トレーニングFLOPは47.4%である。
論文 参考訳(メタデータ) (2020-07-30T10:03:47Z) - Discretization-Aware Architecture Search [81.35557425784026]
本稿では,離散化対応アーキテクチャサーチ(DAtextsuperscript2S)を提案する。
中心となる考え方は、超ネットワークを所望のトポロジの構成に向けることであり、離散化による精度損失がほとんど軽減される。
標準画像分類ベンチマークの実験は、我々のアプローチの優位性を実証している。
論文 参考訳(メタデータ) (2020-07-07T01:18:58Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。