論文の概要: Non-Parametric Adaptive Network Pruning
- arxiv url: http://arxiv.org/abs/2101.07985v2
- Date: Mon, 25 Jan 2021 08:44:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 08:51:22.540685
- Title: Non-Parametric Adaptive Network Pruning
- Title(参考訳): 非パラメトリック適応ネットワークプラニング
- Authors: Mingbao Lin, Rongrong Ji, Shaojie Li, Yan Wang, Yongjian Wu, Feiyue
Huang, Qixiang Ye
- Abstract要約: アルゴリズム設計を簡略化するノンパラメトリックモデリングを導入。
顔認識コミュニティに触発されて,メッセージパッシングアルゴリズムを用いて,適応的な例示数を求める。
EPrunerは「重要」フィルタを決定する際にトレーニングデータへの依存を壊します。
- 参考スコア(独自算出の注目度): 125.4414216272874
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Popular network pruning algorithms reduce redundant information by optimizing
hand-crafted parametric models, and may cause suboptimal performance and long
time in selecting filters. We innovatively introduce non-parametric modeling to
simplify the algorithm design, resulting in an automatic and efficient pruning
approach called EPruner. Inspired by the face recognition community, we use a
message passing algorithm Affinity Propagation on the weight matrices to obtain
an adaptive number of exemplars, which then act as the preserved filters.
EPruner breaks the dependency on the training data in determining the
"important" filters and allows the CPU implementation in seconds, an order of
magnitude faster than GPU based SOTAs. Moreover, we show that the weights of
exemplars provide a better initialization for the fine-tuning. On VGGNet-16,
EPruner achieves a 76.34%-FLOPs reduction by removing 88.80% parameters, with
0.06% accuracy improvement on CIFAR-10. In ResNet-152, EPruner achieves a
65.12%-FLOPs reduction by removing 64.18% parameters, with only 0.71% top-5
accuracy loss on ILSVRC-2012. Code can be available at
https://github.com/lmbxmu/EPruner.
- Abstract(参考訳): 人気のあるネットワークプルーニングアルゴリズムは、手作りパラメトリックモデルを最適化することで冗長情報を減らし、フィルタの選択において最適な性能と長時間を生じる可能性がある。
アルゴリズム設計をシンプルにするために,非パラメトリックモデリングを革新的に導入し,EPrunerと呼ばれる自動かつ効率的なプルーニング手法を実現する。
顔認識コミュニティに触発されて,重み行列に対するメッセージパッシングアルゴリズムの親和性伝播を用いて,適応的な例示数を求め,保存フィルタとして機能する。
eprunerは、"重要"フィルタを決定する際のトレーニングデータへの依存性を壊し、gpuベースのsomaよりも1桁早くcpuの実装を可能にする。
さらに, 実例の重みは, 微調整によりよい初期化をもたらすことを示した。
VGGNet-16では、EPrunerは88.80%のパラメータを除去して76.34%のFLOPを削減し、CIFAR-10の精度は0.06%向上した。
resnet-152において、eprunerは64.18%のパラメータを削除することで65.12%のflops削減を達成している。
コードはhttps://github.com/lmbxmu/eprunerで入手できる。
関連論文リスト
- Instant Complexity Reduction in CNNs using Locality-Sensitive Hashing [50.79602839359522]
本稿では,パラメータフリーでデータフリーなモジュールであるHASTE(Hashing for Tractable Efficiency)を提案する。
局所性感応ハッシュ (LSH) を用いることで, 精度を犠牲にすることなく, 遅延特徴写像を劇的に圧縮することができる。
特に、HASTEモジュール用のCIFAR-10上のResNet34で畳み込みモジュールを切り替えるだけで、FLOPの46.72%を即座に落とすことができる。
論文 参考訳(メタデータ) (2023-09-29T13:09:40Z) - Filter Pruning for Efficient CNNs via Knowledge-driven Differential
Filter Sampler [103.97487121678276]
フィルタプルーニングは同時に計算を加速し、CNNのメモリオーバーヘッドを低減する。
本稿では,MFM(Masked Filter Modeling)フレームワークを用いた知識駆動型微分フィルタサンプリング(KDFS)を提案する。
論文 参考訳(メタデータ) (2023-07-01T02:28:41Z) - AUTOSPARSE: Towards Automated Sparse Training of Deep Neural Networks [2.6742343015805083]
本稿では,ニューラルネットワーク内に存在する空間の均一分布を探索するグラディエント・アナリング(GA)を提案する。
GAは、余剰を誘導する正規化を必要とせずに、余剰と正確性の間のエレガントなトレードオフを提供する。
GAと最新の学習可能なプルーニング手法を統合し、AutoSparseと呼ばれる自動スパーストレーニングアルゴリズムを作成する。
論文 参考訳(メタデータ) (2023-04-14T06:19:07Z) - Quantized Neural Networks for Low-Precision Accumulation with Guaranteed
Overflow Avoidance [68.8204255655161]
本稿では,推定時のアキュムレータの精度を下げる際に,数値オーバーフローを回避する量子化学習アルゴリズムを提案する。
本手法は,浮動小数点点ベースラインに対するモデル精度を維持しつつ,アキュムレータの精度を低減できることを示す。
論文 参考訳(メタデータ) (2023-01-31T02:46:57Z) - Input Normalized Stochastic Gradient Descent Training of Deep Neural
Networks [2.1485350418225244]
本稿では,入力正規化勾配 Descent (INSGD) と呼ばれる機械学習モデルを学習するための新しい最適化アルゴリズムを提案する。
我々のアルゴリズムは,NLMSと同様,学習速度に適用した$ell_$および$ell_$ベースの正規化を用いて,勾配勾配を用いてネットワーク重みを更新する。
本稿では,ResNet-18,WResNet-20,ResNet-50,玩具ニューラルネットワークを用いて,ベンチマークデータセット上でのトレーニングアルゴリズムの有効性を評価する。
論文 参考訳(メタデータ) (2022-12-20T00:08:37Z) - Pruning-aware Sparse Regularization for Network Pruning [38.13617051756663]
構造的ニューラルネットワークプルーニングは、深部畳み込みニューラルネットワーク(CNN)の冗長チャネルを取り除くことを目的としている
本稿では,これらの疎性学習に基づく手法を解析し,未処理チャネルの正規化は不要であることを示す。
そこで本研究では,プラニング対応スパース正規化を用いた新しいプルーニング手法であるMaskSparsityを提案する。
論文 参考訳(メタデータ) (2022-01-18T07:19:23Z) - Automatic Neural Network Pruning that Efficiently Preserves the Model
Accuracy [2.538209532048867]
プルーニングフィルタは一般的な解であるが、既存のプルーニング法ではモデルの精度を効率的に保たない。
本研究では,FLOPを予め定義された目標に還元しつつ,モデル精度を維持するためにどのニューロンを保存すべきかを学習する自動プルーニング手法を提案する。
ResNet-50では52.00%のFLOPが減少し,prun処理後のTop-1精度は47.51%,微細加工後のSOTA精度は76.63%であった。
論文 参考訳(メタデータ) (2021-11-18T11:29:35Z) - Training Compact CNNs for Image Classification using Dynamic-coded
Filter Fusion [139.71852076031962]
動的符号化フィルタ融合(DCFF)と呼ばれる新しいフィルタプルーニング法を提案する。
我々は、効率的な画像分類のために、計算経済的および正規化のない方法でコンパクトなCNNを導出する。
我々のDCFFは、72.77MのFLOPと1.06Mのパラメータしか持たないコンパクトなVGGNet-16を導出し、トップ1の精度は93.47%に達した。
論文 参考訳(メタデータ) (2021-07-14T18:07:38Z) - Filter Sketch for Network Pruning [184.41079868885265]
事前学習したネットワーク重み(フィルタ)の情報保存による新しいネットワークプルーニング手法を提案する。
われわれのアプローチは、FilterSketchと呼ばれ、事前訓練された重みの2次情報を符号化する。
CIFAR-10の実験では、FilterSketchはFLOPの63.3%を削減し、ネットワークパラメータの59.9%を無視できる精度で削減している。
論文 参考訳(メタデータ) (2020-01-23T13:57:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。