論文の概要: Structured Sparsification with Joint Optimization of Group Convolution
and Channel Shuffle
- arxiv url: http://arxiv.org/abs/2002.08127v2
- Date: Fri, 14 May 2021 05:50:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 14:12:45.085068
- Title: Structured Sparsification with Joint Optimization of Group Convolution
and Channel Shuffle
- Title(参考訳): グループ畳み込みとチャネルシャッフルの併用最適化による構造的スパーシフィケーション
- Authors: Xin-Yu Zhang, Kai Zhao, Taihong Xiao, Ming-Ming Cheng, and Ming-Hsuan
Yang
- Abstract要約: 本稿では,効率的なネットワーク圧縮のための新しい構造空間分割法を提案する。
提案手法は, 畳み込み重みに対する構造的疎度を自動的に誘導する。
また,学習可能なチャネルシャッフル機構によるグループ間通信の問題にも対処する。
- 参考スコア(独自算出の注目度): 117.95823660228537
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in convolutional neural networks(CNNs) usually come with the
expense of excessive computational overhead and memory footprint. Network
compression aims to alleviate this issue by training compact models with
comparable performance. However, existing compression techniques either entail
dedicated expert design or compromise with a moderate performance drop. In this
paper, we propose a novel structured sparsification method for efficient
network compression. The proposed method automatically induces structured
sparsity on the convolutional weights, thereby facilitating the implementation
of the compressed model with the highly-optimized group convolution. We further
address the problem of inter-group communication with a learnable channel
shuffle mechanism. The proposed approach can be easily applied to compress many
network architectures with a negligible performance drop. Extensive
experimental results and analysis demonstrate that our approach gives a
competitive performance against the recent network compression counterparts
with a sound accuracy-complexity trade-off.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)の最近の進歩は、通常、過剰な計算オーバーヘッドとメモリフットプリントを犠牲にしている。
ネットワーク圧縮は、同等の性能のコンパクトモデルをトレーニングすることでこの問題を軽減することを目的としている。
しかし、既存の圧縮技術は専門的な設計を必要とするか、適度な性能低下で妥協する。
本稿では,効率的なネットワーク圧縮のための構造化スパーシフィケーション手法を提案する。
提案手法は,畳み込み重みに対する構造的スパーシティを自動的に誘導し,高最適化群畳み込みによる圧縮モデルの実装を容易にする。
さらに,学習可能なチャネルシャッフル機構によるグループ間通信の問題に対処する。
提案手法は,多くのネットワークアーキテクチャを性能低下なく圧縮するために容易に適用できる。
大規模な実験結果と解析結果から,本手法は,最近のネットワーク圧縮技術と高い精度・複雑なトレードオフを持つ競合性能を示すことが示された。
関連論文リスト
- Accelerating Distributed Deep Learning using Lossless Homomorphic
Compression [17.654138014999326]
本稿では,ワーカレベルの圧縮とネットワーク内アグリゲーションを効果的に融合する新しい圧縮アルゴリズムを提案する。
集約のスループットが6.33$times$改善され、イテレーションごとのトレーニング速度が3.74$times$アップします。
論文 参考訳(メタデータ) (2024-02-12T09:57:47Z) - Learning Accurate Performance Predictors for Ultrafast Automated Model
Compression [86.22294249097203]
フレキシブルネットワーク展開のための超高速自動モデル圧縮フレームワークSeerNetを提案する。
本手法は,探索コストを大幅に削減した競合精度・複雑度トレードオフを実現する。
論文 参考訳(メタデータ) (2023-04-13T10:52:49Z) - Towards Optimal Compression: Joint Pruning and Quantization [1.191194620421783]
本稿では,FITCompressについて紹介する。FITCompressは層単位での混合精度の量子化と非構造化プルーニングを組み合わせた新しい手法である。
コンピュータビジョンと自然言語処理ベンチマークの実験により,提案手法が優れた圧縮性能のトレードオフを実現することを示す。
論文 参考訳(メタデータ) (2023-02-15T12:02:30Z) - Low-rank Tensor Decomposition for Compression of Convolutional Neural
Networks Using Funnel Regularization [1.8579693774597708]
低ランクテンソル分解を用いた事前学習ネットワークを圧縮するモデル削減手法を提案する。
圧縮中の重要でない要因を抑えるために, ファンネル関数と呼ばれる新しい正規化法を提案する。
ImageNet2012のResNet18では、GMACの精度は0.7%に過ぎず、Top-1の精度はわずかに低下する。
論文 参考訳(メタデータ) (2021-12-07T13:41:51Z) - Compressing Neural Networks: Towards Determining the Optimal Layer-wise
Decomposition [62.41259783906452]
本稿では,ディープニューラルネットワークのための新しいグローバル圧縮フレームワークを提案する。
各層を自動的に解析し、最適な層間圧縮比を特定する。
我々の結果は、現代のニューラルネットワークのグローバルなパフォーマンス-サイズトレードオフに関する将来の研究のための新たな道を開く。
論文 参考訳(メタデータ) (2021-07-23T20:01:30Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - An Efficient Statistical-based Gradient Compression Technique for
Distributed Training Systems [77.88178159830905]
Sparsity-Inducing Distribution-based Compression (SIDCo) は閾値に基づくスペーシフィケーションスキームであり、DGCと同等のしきい値推定品質を享受する。
SIDCoは,非圧縮ベースライン,Topk,DGC圧縮機と比較して,最大で41:7%,7:6%,1:9%の速度でトレーニングを高速化する。
論文 参考訳(メタデータ) (2021-01-26T13:06:00Z) - Neural Network Compression Via Sparse Optimization [23.184290795230897]
スパース最適化の最近の進歩に基づくモデル圧縮フレームワークを提案する。
我々は、CIFAR10のVGG16とImageNetのResNet50で、同じレベルの精度で、最大7.2倍と2.9倍のFLOPを削減できる。
論文 参考訳(メタデータ) (2020-11-10T03:03:55Z) - PowerGossip: Practical Low-Rank Communication Compression in
Decentralized Deep Learning [62.440827696638664]
本稿では,近隣労働者間のモデル差を直接圧縮する簡単なアルゴリズムを提案する。
中央集権的なディープラーニングのためにPowerSGDにインスパイアされたこのアルゴリズムは、パワーステップを使用して、1ビットあたりの転送情報を最大化する。
論文 参考訳(メタデータ) (2020-08-04T09:14:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。