論文の概要: OrthoReg: Robust Network Pruning Using Orthonormality Regularization
- arxiv url: http://arxiv.org/abs/2009.05014v1
- Date: Thu, 10 Sep 2020 17:21:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 03:01:43.119357
- Title: OrthoReg: Robust Network Pruning Using Orthonormality Regularization
- Title(参考訳): OrthoReg: Orthonormality Regularization を用いたロバストネットワークプルーニング
- Authors: Ekdeep Singh Lubana, Puja Trivedi, Conrad Hougen, Robert P. Dick,
Alfred O. Hero
- Abstract要約: 本稿では,ネットワークフィルタの正則性を強制し,フィルタ間の相関を小さくする原理的正規化戦略を提案する。
VGG-13、MobileNet-V1、ResNet-34の反復的なプルーニングに使用する場合、OrthoRegは5つのベースライン技術より一貫して優れている。
- 参考スコア(独自算出の注目度): 7.754712828900727
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Network pruning in Convolutional Neural Networks (CNNs) has been extensively
investigated in recent years. To determine the impact of pruning a group of
filters on a network's accuracy, state-of-the-art pruning methods consistently
assume filters of a CNN are independent. This allows the importance of a group
of filters to be estimated as the sum of importances of individual filters.
However, overparameterization in modern networks results in highly correlated
filters that invalidate this assumption, thereby resulting in incorrect
importance estimates. To address this issue, we propose OrthoReg, a principled
regularization strategy that enforces orthonormality on a network's filters to
reduce inter-filter correlation, thereby allowing reliable, efficient
determination of group importance estimates, improved trainability of pruned
networks, and efficient, simultaneous pruning of large groups of filters. When
used for iterative pruning on VGG-13, MobileNet-V1, and ResNet-34, OrthoReg
consistently outperforms five baseline techniques, including the
state-of-the-art, on CIFAR-100 and Tiny-ImageNet. For the recently proposed
Early-Bird Ticket hypothesis, which claims networks become amenable to pruning
early-on in training and can be pruned after a few epochs to minimize training
expenditure, we find OrthoReg significantly outperforms prior work. Code
available at https://github.com/EkdeepSLubana/OrthoReg.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)におけるネットワークプルーニングは近年広く研究されている。
ネットワークの精度に及ぼすフィルタ群のプルーニングの影響を判定するために、cnnのフィルタが独立していると常に仮定する最先端のプルーニング法がある。
これにより、フィルタ群の重要性を個々のフィルタの重要性の合計として見積もることができる。
しかし、現代のネットワークにおける過度パラメータ化は、この仮定を無効にする高相関フィルタをもたらすため、誤った重要度推定をもたらす。
そこで本研究では,ネットワークフィルタの正規正規化を強制し,フィルタ間相関を低減し,グループ重要度推定の信頼性,効率良く決定し,プルーニングネットワークのトレーナー性の向上,大規模フィルタ群の効率的な同時プルーニングを実現する正則化戦略であるオルソレグを提案する。
VGG-13、MobileNet-V1、ResNet-34の反復的なプルーニングに使用する場合、OrthoRegはCIFAR-100とTiny-ImageNetの5つのベースライン技術よりも一貫して優れている。
最近提案されたearly-birdチケット仮説は、ネットワークがトレーニングの初期段階を刈り取るのに適しており、トレーニング費用を最小限に抑えるために数エポックの後に刈り取ることができると主張している。
コードはhttps://github.com/ekdeepslubana/orthoreg。
関連論文リスト
- Structured Network Pruning by Measuring Filter-wise Interactions [6.037167142826297]
SNPFI (Structured Network Pruning by Measurement filter-wise Interaction) を用いた構造化ネットワークプルーニング手法を提案する。
刈取中、SNPFIはフィルタ利用強度に基づいて適切な間隔を自動的に割り当てる。
我々はSNPFIの有効性をいくつかの一般的なCNNモデルで実証的に実証した。
論文 参考訳(メタデータ) (2023-07-03T05:26:05Z) - Trainability Preserving Neural Structured Pruning [64.65659982877891]
本稿では,正規化型構造化プルーニング法であるTPP(Traiability Preserving pruning)を提案する。
TPPは線形ネットワーク上での地中動力学的等尺性回復法と競合する。
多くのトップパフォーマンスのフィルタプルーニング手法と比較して、優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2022-07-25T21:15:47Z) - Interspace Pruning: Using Adaptive Filter Representations to Improve
Training of Sparse CNNs [69.3939291118954]
非構造プルーニングは畳み込みニューラルネットワーク(CNN)のメモリフットプリントを削減するのに適している
標準非構造化プルーニング(SP)はフィルタ要素をゼロにすることでCNNのメモリフットプリントを削減する。
既存のプルーニング法を改善する汎用ツールであるインタースペースプルーニング(IP)を導入する。
論文 参考訳(メタデータ) (2022-03-15T11:50:45Z) - Batch Normalization Tells You Which Filter is Important [49.903610684578716]
我々は,事前学習したCNNのBNパラメータに基づいて,各フィルタの重要性を評価することによって,簡易かつ効果的なフィルタ刈取法を提案する。
CIFAR-10とImageNetの実験結果から,提案手法が優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2021-12-02T12:04:59Z) - Filter Pruning using Hierarchical Group Sparse Regularization for Deep
Convolutional Neural Networks [3.5636461829966093]
階層型群スパース正規化を用いたフィルタプルーニング法を提案する。
CIFAR-10ではResNetの50%以上のパラメータを削減できるが、テストサンプルの精度は0.3%しか低下しない。
また、TinyImageNet-200では、ResNetの34%のパラメータがベースラインネットワークよりも高い精度で削減されている。
論文 参考訳(メタデータ) (2020-11-04T16:29:41Z) - Data Agnostic Filter Gating for Efficient Deep Networks [72.4615632234314]
現在のフィルタプルーニング法は主に特徴写像を利用してフィルタの重要なスコアを生成し、より小さなスコアのプルーンを生成する。
本稿では,Daggerモジュールと呼ばれる補助的ネットワークを用いてプルーニングを誘導するデータフィルタプルーニング手法を提案する。
さらに,特定のFLOP制約でプルーネフィルタを支援するために,明示的なFLOPを意識した正規化を活用して,プルーニングフィルタを直接対象のFLOPに向けて推進する。
論文 参考訳(メタデータ) (2020-10-28T15:26:40Z) - Dependency Aware Filter Pruning [74.69495455411987]
重要でないフィルタを割ることは、推論コストを軽減するための効率的な方法である。
以前の作業は、その重み基準やそれに対応するバッチノームスケーリング要因に従ってフィルタをプルークする。
所望の空間性を達成するために,空間性誘導正規化を動的に制御する機構を提案する。
論文 参考訳(メタデータ) (2020-05-06T07:41:22Z) - Filter Grafting for Deep Neural Networks: Reason, Method, and
Cultivation [86.91324735966766]
フィルタは現代の畳み込みニューラルネットワーク(CNN)のキーコンポーネントである
本稿では,この目的を達成するためにフィルタグラフト(textbfMethod)を導入する。
我々は,フィルタの情報を測定するための新しい基準と,グラフトされた情報をネットワーク間でバランスをとるための適応重み付け戦略を開発する。
論文 参考訳(メタデータ) (2020-04-26T08:36:26Z) - Pruning CNN's with linear filter ensembles [0.0]
ネットワークサイズを減らし、(暗黙的に)浮動小数点演算(FLOP)の数を減らすためにプルーニングを使用します。
本稿では,ネットワークアーキテクチャからコンポーネントの存在や削除によって生じる経験的損失の変化に基づく,新しいフィルタ重要基準を開発する。
我々は,CIFAR-10データセットに基づいてトレーニングしたResNetアーキテクチャと同様に,完全に接続されたネットワーク上で本手法を評価する。
論文 参考訳(メタデータ) (2020-01-22T16:52:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。