論文の概要: Dynamic Probabilistic Pruning: A general framework for
hardware-constrained pruning at different granularities
- arxiv url: http://arxiv.org/abs/2105.12686v1
- Date: Wed, 26 May 2021 17:01:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-27 13:38:16.512176
- Title: Dynamic Probabilistic Pruning: A general framework for
hardware-constrained pruning at different granularities
- Title(参考訳): dynamic probabilistic pruning: 異なる粒度でハードウェア制約されたpruningの汎用フレームワーク
- Authors: Lizeth Gonzalez-Carabarin, Iris A.M. Huijben, Bastiaan S. Veeling,
Alexandre Schmid, Ruud J.G. van Sloun
- Abstract要約: 異なる粒度(重み、カーネル、フィルタ/フィーチャーマップ)での刈り取りを容易にするフレキシブルな新しい刈り取り機構を提案する。
このアルゴリズムをDPP(Dynamic Probabilistic Pruning)と呼ぶ。
DPPは、画像分類のための異なるベンチマークデータセットで訓練された一般的なディープラーニングモデルを刈り取る際に、競合圧縮率と分類精度を達成する。
- 参考スコア(独自算出の注目度): 80.06422693778141
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unstructured neural network pruning algorithms have achieved impressive
compression rates. However, the resulting - typically irregular - sparse
matrices hamper efficient hardware implementations, leading to additional
memory usage and complex control logic that diminishes the benefits of
unstructured pruning. This has spurred structured coarse-grained pruning
solutions that prune entire filters or even layers, enabling efficient
implementation at the expense of reduced flexibility. Here we propose a
flexible new pruning mechanism that facilitates pruning at different
granularities (weights, kernels, filters/feature maps), while retaining
efficient memory organization (e.g. pruning exactly k-out-of-n weights for
every output neuron, or pruning exactly k-out-of-n kernels for every feature
map). We refer to this algorithm as Dynamic Probabilistic Pruning (DPP). DPP
leverages the Gumbel-softmax relaxation for differentiable k-out-of-n sampling,
facilitating end-to-end optimization. We show that DPP achieves competitive
compression rates and classification accuracy when pruning common deep learning
models trained on different benchmark datasets for image classification.
Relevantly, the non-magnitude-based nature of DPP allows for joint optimization
of pruning and weight quantization in order to even further compress the
network, which we show as well. Finally, we propose novel information theoretic
metrics that show the confidence and pruning diversity of pruning masks within
a layer.
- Abstract(参考訳): 非構造化ニューラルネットワークプルーニングアルゴリズムは、印象的な圧縮速度を達成した。
しかし、結果として生じる(通常不規則な)スパース行列は効率的なハードウェア実装を阻害し、さらなるメモリ使用量と複雑な制御ロジックをもたらし、非構造化プラニングの利点を減少させる。
これにより、フィルタ全体やレイヤーを汚染する構造的な粗粒のプルーニングソリューションが促進され、柔軟性を犠牲にして効率的な実装が可能になる。
本稿では, 異なる粒度(重み, カーネル, フィルタ, フィーチャーマップ)でのプルーニングを容易にするとともに, 効率的なメモリ構成を維持しつつ, フレキシブルな新しいプルーニング機構を提案する。
出力ニューロンごとに正確にk-out-n重みをプルーニングするか、すべての特徴写像に対して正確にn-out-nカーネルをプルーニングする)。
このアルゴリズムを動的確率プランニング(DPP)と呼ぶ。
DPP は Gumbel-softmax 緩和を利用して k-out-of-n サンプリングを微分可能とし、エンドツーエンドの最適化を容易にする。
DPPは、画像分類のための異なるベンチマークデータセットで訓練された一般的なディープラーニングモデルを刈り取る際に、競合圧縮率と分類精度を達成する。
関連して、DPPの非マグニチュードに基づく性質は、ネットワークをさらに圧縮するために、プルーニングと重み量子化の合同最適化を可能にする。
最後に,層内のプルーニングマスクの信頼性とプルーニング多様性を示す新たな情報理論的指標を提案する。
関連論文リスト
- RL-Pruner: Structured Pruning Using Reinforcement Learning for CNN Compression and Acceleration [0.0]
RL-Prunerを提案する。このRL-Prunerは、強化学習を用いて最適プルーニング分布を学習する。
RL-Prunerは、モデル固有のプルーニング実装を必要とせずに、入力モデル内のフィルタ間の依存関係を自動的に抽出し、プルーニングを実行する。
論文 参考訳(メタデータ) (2024-11-10T13:35:10Z) - MPruner: Optimizing Neural Network Size with CKA-Based Mutual Information Pruning [7.262751938473306]
プルーニング(Pruning)は、ニューラルネットワークのサイズを減らし、数学的に精度の保存を保証している、よく確立されたテクニックである。
我々は,ベクトル類似性により相互情報を活用する新しいプルーニングアルゴリズムMPrunerを開発した。
MPrunerはCNNとトランスフォーマーベースのモデルで最大50%のパラメータとメモリ使用量の削減を実現した。
論文 参考訳(メタデータ) (2024-08-24T05:54:47Z) - Less is KEN: a Universal and Simple Non-Parametric Pruning Algorithm for Large Language Models [1.5807079236265718]
KENはカーネル密度推定(KDE)に基づく単純で普遍的で非構造化プルーニングアルゴリズムである
Kenは、最適化されたトランスフォーマーを構築することを目的としており、最も重要なパラメータを選択的に保存し、他のパラメータをトレーニング前の状態に復元する。
Kenは、元の未実行バージョンと同等かそれ以上のパフォーマンスを達成し、パラメータの最小25%の削減を実現している。
論文 参考訳(メタデータ) (2024-02-05T16:11:43Z) - Dynamic Structure Pruning for Compressing CNNs [13.73717878732162]
本研究では, チャネル内プルーニングに最適なプルーニング粒度を特定するため, 動的プルーニングと呼ばれる新しい構造プルーニング法を提案する。
実験結果から, チャネルプルーニングと比較して, 動的構造プルーニングがGPU上での最先端のプルーニング性能, より現実的なアクセラレーションを実現することが示された。
論文 参考訳(メタデータ) (2023-03-17T02:38:53Z) - Interspace Pruning: Using Adaptive Filter Representations to Improve
Training of Sparse CNNs [69.3939291118954]
非構造プルーニングは畳み込みニューラルネットワーク(CNN)のメモリフットプリントを削減するのに適している
標準非構造化プルーニング(SP)はフィルタ要素をゼロにすることでCNNのメモリフットプリントを削減する。
既存のプルーニング法を改善する汎用ツールであるインタースペースプルーニング(IP)を導入する。
論文 参考訳(メタデータ) (2022-03-15T11:50:45Z) - Unfolding Projection-free SDP Relaxation of Binary Graph Classifier via
GDPA Linearization [59.87663954467815]
アルゴリズムの展開は、モデルベースのアルゴリズムの各イテレーションをニューラルネットワーク層として実装することにより、解釈可能で類似のニューラルネットワークアーキテクチャを生成する。
本稿では、Gershgorin disc perfect alignment (GDPA)と呼ばれる最近の線形代数定理を利用して、二進グラフの半定値プログラミング緩和(SDR)のためのプロジェクションフリーアルゴリズムをアンロールする。
実験結果から,我々の未学習ネットワークは純粋モデルベースグラフ分類器よりも優れ,純粋データ駆動ネットワークに匹敵する性能を示したが,パラメータははるかに少なかった。
論文 参考訳(メタデータ) (2021-09-10T07:01:15Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - MLPruning: A Multilevel Structured Pruning Framework for
Transformer-based Models [78.45898846056303]
プルーニングは、大きな自然言語処理モデルに関連するメモリフットプリントと計算コストを削減する効果的な方法である。
我々は,頭部刈り込み,行刈り,ブロックワイズ刈りという3つの異なるレベルの構造化刈り込みを利用する,新しいマルチレベル構造化刈り込みフレームワークを開発した。
論文 参考訳(メタデータ) (2021-05-30T22:00:44Z) - DHP: Differentiable Meta Pruning via HyperNetworks [158.69345612783198]
本稿では,ネットワークの自動プルーニングのためのハイパーネットによる識別可能なプルーニング手法を提案する。
遅延ベクトルは、バックボーンネットワーク内の畳み込み層の出力チャネルを制御し、レイヤのプルーニングのハンドルとして機能する。
画像分類、単一画像超解像、復調のための様々なネットワークで実験が行われた。
論文 参考訳(メタデータ) (2020-03-30T17:59:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。