論文の概要: Towards Optimal Filter Pruning with Balanced Performance and Pruning
Speed
- arxiv url: http://arxiv.org/abs/2010.06821v1
- Date: Wed, 14 Oct 2020 06:17:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 13:38:26.583489
- Title: Towards Optimal Filter Pruning with Balanced Performance and Pruning
Speed
- Title(参考訳): バランス性能とプルーニング速度を考慮した最適フィルタプルーニングに向けて
- Authors: Dong Li, Sitong Chen, Xudong Liu, Yunda Sun and Li Zhang
- Abstract要約: 本稿では,性能とプルーニング速度の両立のために,バランスの取れたフィルタプルーニング法を提案する。
提案手法は, 約層幅の最適プルーニング速度を予め設定した損失変動で再現できる。
提案手法は共通アーキテクチャに適用可能であり,最終微調整以外の追加訓練は行わない。
- 参考スコア(独自算出の注目度): 17.115185960327665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Filter pruning has drawn more attention since resource constrained platform
requires more compact model for deployment. However, current pruning methods
suffer either from the inferior performance of one-shot methods, or the
expensive time cost of iterative training methods. In this paper, we propose a
balanced filter pruning method for both performance and pruning speed. Based on
the filter importance criteria, our method is able to prune a layer with
approximate layer-wise optimal pruning rate at preset loss variation. The
network is pruned in the layer-wise way without the time consuming
prune-retrain iteration. If a pre-defined pruning rate for the entire network
is given, we also introduce a method to find the corresponding loss variation
threshold with fast converging speed. Moreover, we propose the layer group
pruning and channel selection mechanism for channel alignment in network with
short connections. The proposed pruning method is widely applicable to common
architectures and does not involve any additional training except the final
fine-tuning. Comprehensive experiments show that our method outperforms many
state-of-the-art approaches.
- Abstract(参考訳): リソース制約のあるプラットフォームはよりコンパクトな配置モデルを必要とするため、フィルタプルーニングが注目されている。
しかし、現在の刈り取り法は、単発法の劣悪な性能や反復訓練法の高価な時間コストに悩まされている。
本稿では,性能とプルーニング速度の両立のためのバランス付きフィルタプルーニング法を提案する。
本手法は, フィルタ重要度基準に基づき, プリセット損失変動時に, 層別最適プルーニング速度を近似した層をプルーピングすることができる。
ネットワークはプルー・リトラクションのイテレーションに時間を費やすことなく階層的に切断される。
ネットワーク全体に対する事前定義されたプルーニングレートが与えられると、高速な収束速度で対応する損失変動閾値を求める方法も導入する。
さらに,短接続ネットワークにおけるチャネルアライメントのための層群プルーニングとチャネル選択機構を提案する。
提案手法は一般的なアーキテクチャに広く適用でき,最終的な微調整以外は追加訓練を行わない。
総合実験により,本手法が多くの最先端手法より優れていることが示された。
関連論文リスト
- Dynamic Structure Pruning for Compressing CNNs [13.73717878732162]
本研究では, チャネル内プルーニングに最適なプルーニング粒度を特定するため, 動的プルーニングと呼ばれる新しい構造プルーニング法を提案する。
実験結果から, チャネルプルーニングと比較して, 動的構造プルーニングがGPU上での最先端のプルーニング性能, より現実的なアクセラレーションを実現することが示された。
論文 参考訳(メタデータ) (2023-03-17T02:38:53Z) - Revisiting Random Channel Pruning for Neural Network Compression [159.99002793644163]
チャネル(または3Dフィルタ)プルーニングは、ニューラルネットワークの推論を加速する有効な方法である。
本稿では,ランダムな探索により,プルーンドモデルのチャネル構成を決定することを試みる。
この単純な戦略は、他のチャネルプルーニング手法と比較して非常にうまく機能することを示す。
論文 参考訳(メタデータ) (2022-05-11T17:59:04Z) - End-to-End Sensitivity-Based Filter Pruning [49.61707925611295]
本稿では,各層間のフィルタの重要度を学習するための感度に基づくフィルタプルーニングアルゴリズム(SbF-Pruner)を提案する。
提案手法はフィルタ重みからスコアを学習し,各層のフィルタ間の相関を考慮できる。
論文 参考訳(メタデータ) (2022-04-15T10:21:05Z) - Data-Efficient Structured Pruning via Submodular Optimization [32.574190896543705]
部分モジュラ最適化に基づくデータ効率の高い構造化プルーニング手法を提案する。
この選択問題は弱い部分モジュラー問題であり、効率的なグリードアルゴリズムを用いて証明可能な近似が可能であることを示す。
本手法は,限られた数のトレーニングデータのみを使用し,ラベルを含まない文献の中では数少ない手法の一つである。
論文 参考訳(メタデータ) (2022-03-09T18:40:29Z) - Pruning with Compensation: Efficient Channel Pruning for Deep
Convolutional Neural Networks [0.9712140341805068]
刈り込みDCNNのコストを大幅に削減する高効率刈り込み法を提案する。
本手法は,最先端のリトレーニングベースプルーニング法と競合するプルーニング性能を示す。
論文 参考訳(メタデータ) (2021-08-31T10:17:36Z) - Manifold Regularized Dynamic Network Pruning [102.24146031250034]
本稿では,全インスタンスの多様体情報をプルーンドネットワークの空間に埋め込むことにより,冗長フィルタを動的に除去する新しいパラダイムを提案する。
提案手法の有効性をいくつかのベンチマークで検証し,精度と計算コストの両面で優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-10T03:59:03Z) - To Filter Prune, or to Layer Prune, That Is The Question [13.450136532402226]
遅延低減の観点からフィルタプルーニング手法の限界を示す。
同様の精度でフィルタプルーニング法よりも高い遅延低減を実現するための,異なる基準に基づくレイヤプルーニング法を提案する。
LayerPruneはまた、ImageNetデータセットの同様の遅延予算に対して、Shufflenet、MobileNet、MNASNet、ResNet18などの手作りアーキテクチャを7.3%、4.6%、2.8%、0.5%で上回っている。
論文 参考訳(メタデータ) (2020-07-11T02:51:40Z) - Dependency Aware Filter Pruning [74.69495455411987]
重要でないフィルタを割ることは、推論コストを軽減するための効率的な方法である。
以前の作業は、その重み基準やそれに対応するバッチノームスケーリング要因に従ってフィルタをプルークする。
所望の空間性を達成するために,空間性誘導正規化を動的に制御する機構を提案する。
論文 参考訳(メタデータ) (2020-05-06T07:41:22Z) - Group Sparsity: The Hinge Between Filter Pruning and Decomposition for
Network Compression [145.04742985050808]
我々は,フィルタプルーニングと低ランク分解という2つの一般的なネットワーク圧縮手法を統一的に解析する。
スパシティ正規化の実施方法を変えることにより、フィルタプルーニングと低ランク分解を導出することができる。
われわれの手法は、いくつかのベンチマークにおける最先端の手法と比較し、その可能性を証明している。
論文 参考訳(メタデータ) (2020-03-19T17:57:26Z) - Lookahead: A Far-Sighted Alternative of Magnitude-based Pruning [83.99191569112682]
マグニチュードベースのプルーニングは、ニューラルネットワークをプルーニングする最も単純な方法の1つである。
我々は,単一層最適化を多層最適化に拡張することにより,単純なプルーニング法であるルックアヘッドプルーニングを開発した。
実験の結果,提案手法は様々なネットワーク上での大規模プルーニングよりも一貫して優れていた。
論文 参考訳(メタデータ) (2020-02-12T05:38:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。