論文の概要: Holistic Filter Pruning for Efficient Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2009.08169v1
- Date: Thu, 17 Sep 2020 09:23:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 08:17:36.816361
- Title: Holistic Filter Pruning for Efficient Deep Neural Networks
- Title(参考訳): 効率的な深層ニューラルネットワークのための包括的フィルタプルーニング
- Authors: Lukas Enderich and Fabian Timm and Wolfram Burgard
- Abstract要約: HFP(Holistic Filter Pruning)は、実装が容易で正確なプルーニング率の特定が可能な、一般的なDNNトレーニングのための新しいアプローチである。
各種実験において,CIFAR-10 と ImageNet のトレーニングと最先端性能について考察した。
- 参考スコア(独自算出の注目度): 25.328005340524825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are usually over-parameterized to increase the
likelihood of getting adequate initial weights by random initialization.
Consequently, trained DNNs have many redundancies which can be pruned from the
model to reduce complexity and improve the ability to generalize. Structural
sparsity, as achieved by filter pruning, directly reduces the tensor sizes of
weights and activations and is thus particularly effective for reducing
complexity. We propose "Holistic Filter Pruning" (HFP), a novel approach for
common DNN training that is easy to implement and enables to specify accurate
pruning rates for the number of both parameters and multiplications. After each
forward pass, the current model complexity is calculated and compared to the
desired target size. By gradient descent, a global solution can be found that
allocates the pruning budget over the individual layers such that the desired
target size is fulfilled. In various experiments, we give insights into the
training and achieve state-of-the-art performance on CIFAR-10 and ImageNet (HFP
prunes 60% of the multiplications of ResNet-50 on ImageNet with no significant
loss in the accuracy). We believe our simple and powerful pruning approach to
constitute a valuable contribution for users of DNNs in low-cost applications.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は通常、ランダム初期化によって適切な初期重みを得る可能性を高めるために過パラメータ化される。
その結果、訓練されたDNNには多くの冗長性があり、複雑さを減らし、一般化する能力を向上させるためにモデルから切り離すことができる。
フィルタプルーニングによって達成された構造的スパーシティは、重みとアクティベーションのテンソルサイズを直接減少させ、特に複雑さを減らすのに有効である。
本稿では,dnn訓練のための新しい手法であるhfp(holistic filter pruning)を提案し,パラメータ数と乗算数の両方について正確なpruning率を指定することを可能にする。
各フォワードパスの後、現在のモデルの複雑さを計算し、所望のターゲットサイズと比較する。
勾配降下により、所望の目標サイズが満たされるような個別の層にプルーニング予算を割り当てる大域的解を求めることができる。
各種実験において,CIFAR-10 と ImageNet のトレーニングと最先端性能について考察した(HFP は ImageNet 上の ResNet-50 の乗算の60% を精度に有意な損失を伴わずに達成している)。
当社のシンプルで強力なプルーニングアプローチは、低コストアプリケーションにおけるDNNのユーザにとって貴重な貢献になると考えています。
関連論文リスト
- Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Effective Invertible Arbitrary Image Rescaling [77.46732646918936]
Invertible Neural Networks (INN)は、ダウンスケーリングとアップスケーリングのサイクルを共同で最適化することにより、アップスケーリングの精度を大幅に向上させることができる。
本研究の1つのモデルのみをトレーニングすることにより、任意の画像再スケーリングを実現するために、単純で効果的な非可逆的再スケーリングネットワーク(IARN)を提案する。
LR出力の知覚品質を損なうことなく、双方向任意再スケーリングにおいて最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-09-26T22:22:30Z) - FxP-QNet: A Post-Training Quantizer for the Design of Mixed
Low-Precision DNNs with Dynamic Fixed-Point Representation [2.4149105714758545]
我々は、ディープニューラルネットワーク(FxP-QNet)の固定点量子化器(FixP-QNet)と呼ばれる新しいフレームワークを提案する。
FxP-QNetは、ネットワーク精度と低精度要求との間のトレードオフに基づいて、各レイヤのデータ構造ごとに量子化レベルを適用する。
その結果、FxP-QNet量子化されたAlexNet、VGG-16、ResNet-18は、全精度のメモリ要求を0.95%未満の7.16x、10.36x、6.44x、1.99%削減した。
論文 参考訳(メタデータ) (2022-03-22T23:01:43Z) - Effective Model Sparsification by Scheduled Grow-and-Prune Methods [73.03533268740605]
本稿では,高密度モデルの事前学習を伴わない新規なGrow-and-prune(GaP)手法を提案する。
実験により、そのようなモデルは様々なタスクにおいて80%の間隔で高度に最適化された高密度モデルの品質に適合または打ち勝つことができることが示された。
論文 参考訳(メタデータ) (2021-06-18T01:03:13Z) - A Framework For Pruning Deep Neural Networks Using Energy-Based Models [45.4796383952516]
典型的なディープニューラルネットワーク(DNN)は、多数のトレーニング可能なパラメータを持つ。
そこで本研究では,人口統計量に基づく大域的最適化手法に基づくDNNの刈り取りフレームワークを提案する。
ResNets、AlexNet、SqueezeNetの実験では、トレーニング可能なパラメータの50ドル以上のプルーニングレートを示している。
論文 参考訳(メタデータ) (2021-02-25T21:44:19Z) - Filter Pre-Pruning for Improved Fine-tuning of Quantized Deep Neural
Networks [0.0]
本稿では,DNNの微調整を妨害するフィルタを除去するPruning for Quantization (PfQ)と呼ばれる新しいプルーニング手法を提案する。
良く知られたモデルとデータセットを用いた実験により,提案手法が類似したモデルサイズで高い性能を実現することを確認した。
論文 参考訳(メタデータ) (2020-11-13T04:12:54Z) - Learning Sparse Filters in Deep Convolutional Neural Networks with a
l1/l2 Pseudo-Norm [5.3791844634527495]
ディープニューラルネットワーク(DNN)は、多くのタスクで効率的であることが証明されているが、高いメモリと計算コストが伴う。
近年の研究では、それらの構造は性能を損なうことなくよりコンパクトにすることができることが示されている。
フィルタ係数に定義された比 l1/l2 の擬ノルムに基づいて, 疎度誘導正規化項を提案する。
論文 参考訳(メタデータ) (2020-07-20T11:56:12Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。