論文の概要: An Information Theory-inspired Strategy for Automatic Network Pruning
- arxiv url: http://arxiv.org/abs/2108.08532v1
- Date: Thu, 19 Aug 2021 07:03:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-20 14:32:37.682235
- Title: An Information Theory-inspired Strategy for Automatic Network Pruning
- Title(参考訳): 情報理論に基づく自動ネットワーク・プルーニング戦略
- Authors: Xiawu Zheng, Yuexiao Ma, Teng Xi, Gang Zhang, Errui Ding, Yuchao Li,
Jie Chen, Yonghong Tian, Rongrong Ji
- Abstract要約: 深層畳み込みニューラルネットワークは、リソース制約のあるデバイスで圧縮されることがよく知られている。
既存のネットワークプルーニング手法の多くは、人的努力と禁忌な計算資源を必要とする。
本稿では,自動モデル圧縮のための情報理論に基づく戦略を提案する。
- 参考スコア(独自算出の注目度): 88.51235160841377
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite superior performance on many computer vision tasks, deep convolution
neural networks are well known to be compressed on devices that have resource
constraints. Most existing network pruning methods require laborious human
efforts and prohibitive computation resources, especially when the constraints
are changed. This practically limits the application of model compression when
the model needs to be deployed on a wide range of devices. Besides, existing
methods are still challenged by the missing theoretical guidance. In this paper
we propose an information theory-inspired strategy for automatic model
compression. The principle behind our method is the information bottleneck
theory, i.e., the hidden representation should compress information with each
other. We thus introduce the normalized Hilbert-Schmidt Independence Criterion
(nHSIC) on network activations as a stable and generalized indicator of layer
importance. When a certain resource constraint is given, we integrate the HSIC
indicator with the constraint to transform the architecture search problem into
a linear programming problem with quadratic constraints. Such a problem is
easily solved by a convex optimization method with a few seconds. We also
provide a rigorous proof to reveal that optimizing the normalized HSIC
simultaneously minimizes the mutual information between different layers.
Without any search process, our method achieves better compression tradeoffs
comparing to the state-of-the-art compression algorithms. For instance, with
ResNet-50, we achieve a 45.3%-FLOPs reduction, with a 75.75 top-1 accuracy on
ImageNet. Codes are avaliable at
https://github.com/MAC-AutoML/ITPruner/tree/master.
- Abstract(参考訳): 多くのコンピュータビジョンタスクの性能は優れているが、深い畳み込みニューラルネットワークはリソース制約のあるデバイスで圧縮されることがよく知られている。
既存のネットワークプルーニング手法の多くは、特に制約が変更された場合、人的努力と禁忌な計算資源を必要とする。
これにより、モデルが幅広いデバイスにデプロイされる必要がある場合に、モデル圧縮の適用が事実上制限される。
さらに、既存の手法は理論的なガイダンスの欠如によって依然として挑戦されている。
本稿では,自動モデル圧縮のための情報理論に基づく戦略を提案する。
この手法の背後にある原理は情報ボトルネック理論であり、隠れた表現は互いに情報を圧縮すべきである。
そこで本稿では,ネットワークアクティベーションに関する正規化Hilbert-Schmidt Independence Criterion(nHSIC)を,階層の重要性の安定かつ一般化された指標として紹介する。
特定のリソース制約が与えられると、HSICインジケータと制約を統合して、アーキテクチャ探索問題を2次制約付き線形プログラミング問題に変換する。
このような問題は凸最適化法によって数秒で容易に解ける。
また、正規化HSICの最適化は異なる層間の相互情報を同時に最小化することを示す厳密な証明も提供する。
検索処理がなければ,最先端の圧縮アルゴリズムと比較して,圧縮トレードオフが向上する。
例えば、ResNet-50では45.3%のFLOPを削減し、ImageNetで75.75のトップ-1の精度を実現しています。
コードはhttps://github.com/MAC-AutoML/ITPruner/tree/masterで検証可能である。
関連論文リスト
- Compression of Structured Data with Autoencoders: Provable Benefit of
Nonlinearities and Depth [83.15263499262824]
勾配勾配勾配は入力のスパース構造を完全に無視する解に収束することを示す。
浅層構造にデノナイジング関数を付加することにより,スパースデータの圧縮におけるガウス性能の改善方法を示す。
CIFAR-10 や MNIST などの画像データセットに対して,本研究の成果を検証した。
論文 参考訳(メタデータ) (2024-02-07T16:32:29Z) - Practical Network Acceleration with Tiny Sets: Hypothesis, Theory, and
Algorithm [38.742142493108744]
そこで本研究では,小さなトレーニングセットのみを用いてネットワークを高速化するアルゴリズムを提案する。
22%のレイテンシ削減のために、ImageNet-1kでは、平均7パーセントのポイントで、従来の方法を上回っている。
論文 参考訳(メタデータ) (2023-03-02T05:10:31Z) - A Theoretical Understanding of Neural Network Compression from Sparse
Linear Approximation [37.525277809849776]
モデル圧縮の目標は、同等のパフォーマンスを維持しながら、大きなニューラルネットワークのサイズを減らすことだ。
圧縮性を特徴付けるためにスペーサ感度$ell_q$-normを使用し、ネットワーク内の重みの柔らかいスペーサと圧縮度の関係を提供する。
また,ネットワーク上で各ニューロンを切断する適応アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-06-11T20:10:35Z) - Robust Predictable Control [149.71263296079388]
提案手法は,従来の手法よりもはるかに厳密な圧縮を実現し,標準的な情報ボトルネックよりも最大5倍高い報酬が得られることを示す。
また,本手法はより堅牢で,新しいタスクをより一般化したポリシーを学習することを示す。
論文 参考訳(メタデータ) (2021-09-07T17:29:34Z) - Compressing Neural Networks: Towards Determining the Optimal Layer-wise
Decomposition [62.41259783906452]
本稿では,ディープニューラルネットワークのための新しいグローバル圧縮フレームワークを提案する。
各層を自動的に解析し、最適な層間圧縮比を特定する。
我々の結果は、現代のニューラルネットワークのグローバルなパフォーマンス-サイズトレードオフに関する将来の研究のための新たな道を開く。
論文 参考訳(メタデータ) (2021-07-23T20:01:30Z) - Successive Pruning for Model Compression via Rate Distortion Theory [15.598364403631528]
NN圧縮を情報理論的手法を用いて検討し, NN圧縮の理論的限界を達成するために, 速度歪み理論がプルーニングを示唆していることを示す。
我々の導出は、新しいプルーニング戦略を含むエンドツーエンドの圧縮パイプラインも提供する。
本手法は,既存のプルーニング戦略を一貫して上回り,プルーニングモデルのサイズを2.5倍小さくする。
論文 参考訳(メタデータ) (2021-02-16T18:17:57Z) - PowerGossip: Practical Low-Rank Communication Compression in
Decentralized Deep Learning [62.440827696638664]
本稿では,近隣労働者間のモデル差を直接圧縮する簡単なアルゴリズムを提案する。
中央集権的なディープラーニングのためにPowerSGDにインスパイアされたこのアルゴリズムは、パワーステップを使用して、1ビットあたりの転送情報を最大化する。
論文 参考訳(メタデータ) (2020-08-04T09:14:52Z) - ALF: Autoencoder-based Low-rank Filter-sharing for Efficient
Convolutional Neural Networks [63.91384986073851]
オートエンコーダを用いた低ランクフィルタ共有技術(ALF)を提案する。
ALFは、ネットワークパラメータの70%、オペレーションの61%、実行時間の41%を削減し、精度の低下を最小限にしている。
論文 参考訳(メタデータ) (2020-07-27T09:01:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。