論文の概要: CHEX: CHannel EXploration for CNN Model Compression
- arxiv url: http://arxiv.org/abs/2203.15794v1
- Date: Tue, 29 Mar 2022 17:52:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 15:35:25.658599
- Title: CHEX: CHannel EXploration for CNN Model Compression
- Title(参考訳): CHEX:CNNモデル圧縮のためのカーネルエクスプロレーション
- Authors: Zejiang Hou, Minghai Qin, Fei Sun, Xiaolong Ma, Kun Yuan, Yi Xu,
Yen-Kuang Chen, Rong Jin, Yuan Xie, Sun-Yuan Kung
- Abstract要約: 本稿では,これらの問題を是正するために,CHEXと呼ばれる新しいチャネル探索手法を提案する。
CheXはトレーニングプロセスを通じてチャネルを繰り返しプーンして再成長させ、重要なチャネルを早期にプルーニングするリスクを低減させる。
CHEXは様々なコンピュータビジョンタスクにおいて,多様なCNNアーキテクチャのFLOPを効果的に削減できることを示す。
- 参考スコア(独自算出の注目度): 47.3520447163165
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Channel pruning has been broadly recognized as an effective technique to
reduce the computation and memory cost of deep convolutional neural networks.
However, conventional pruning methods have limitations in that: they are
restricted to pruning process only, and they require a fully pre-trained large
model. Such limitations may lead to sub-optimal model quality as well as
excessive memory and training cost. In this paper, we propose a novel Channel
Exploration methodology, dubbed as CHEX, to rectify these problems. As opposed
to pruning-only strategy, we propose to repeatedly prune and regrow the
channels throughout the training process, which reduces the risk of pruning
important channels prematurely. More exactly: From intra-layer's aspect, we
tackle the channel pruning problem via a well known column subset selection
(CSS) formulation. From inter-layer's aspect, our regrowing stages open a path
for dynamically re-allocating the number of channels across all the layers
under a global channel sparsity constraint. In addition, all the exploration
process is done in a single training from scratch without the need of a
pre-trained large model. Experimental results demonstrate that CHEX can
effectively reduce the FLOPs of diverse CNN architectures on a variety of
computer vision tasks, including image classification, object detection,
instance segmentation, and 3D vision. For example, our compressed ResNet-50
model on ImageNet dataset achieves 76% top1 accuracy with only 25% FLOPs of the
original ResNet-50 model, outperforming previous state-of-the-art channel
pruning methods. The checkpoints and code are available at here .
- Abstract(参考訳): チャネルプルーニングは、深い畳み込みニューラルネットワークの計算とメモリコストを削減する効果的な手法として広く認識されている。
しかし,従来のプルーニング法には限界があり,プルーニングプロセスのみに限定されており,十分に事前訓練された大規模モデルが必要である。
このような制限は、最適化されたモデル品質と過剰なメモリとトレーニングコストにつながる可能性がある。
本稿では,これらの問題を是正するために,CHEXと呼ばれる新しいチャネル探索手法を提案する。
プルーニングのみの戦略とは対照的に,訓練過程を通じて繰り返しプルーニングを行い,重要なチャネルを早期にプルーニングするリスクを低減することを提案する。
より正確には、層内の側面から、よく知られた列サブセット選択(CSS)の定式化により、チャネルプルーニング問題に取り組む。
層間面から、我々の再成長段階は、グローバルチャネル間隔制約の下で、すべての層にまたがるチャネルの数を動的に再配置する経路を開く。
さらに、すべての探索プロセスは、事前訓練された大きなモデルなしで、ゼロから1つのトレーニングで行われます。
実験の結果,CHEXは画像分類,オブジェクト検出,インスタンス分割,3Dビジョンなど,さまざまなコンピュータビジョンタスクにおいて,多様なCNNアーキテクチャのFLOPを効果的に削減できることがわかった。
例えば、ImageNetデータセット上の圧縮されたResNet-50モデルは、元のResNet-50モデルの25%のFLOPで76%のトップ1の精度を実現し、従来の最先端チャネルプルーニング手法よりも優れています。
チェックポイントとコードはここで入手できる。
関連論文リスト
- Pruning Very Deep Neural Network Channels for Efficient Inference [6.497816402045099]
トレーニングされたCNNモデルを用いて,各層を効果的にプルーする反復的2段階アルゴリズムを提案する。
VGG-16は5倍のスピードアップを実現し、エラーはわずか0.3%増加した。
提案手法は,ResNet,Xceptionなどの現代のネットワークを高速化し,それぞれ2倍のスピードアップで1.4%,1.0%の精度損失を被る。
論文 参考訳(メタデータ) (2022-11-14T06:48:33Z) - Interpretations Steered Network Pruning via Amortized Inferred Saliency
Maps [85.49020931411825]
限られたリソースを持つエッジデバイスにこれらのモデルをデプロイするには、畳み込みニューラルネットワーク(CNN)圧縮が不可欠である。
本稿では,新しい視点からチャネルプルーニング問題に対処するために,モデルの解釈を活用して,プルーニング過程を解析する手法を提案する。
本研究では,実時間スムーズなスムーズなスムーズなスムーズなマスク予測を行うセレクタモデルを導入することで,この問題に対処する。
論文 参考訳(メタデータ) (2022-09-07T01:12:11Z) - Structured Pruning is All You Need for Pruning CNNs at Initialization [38.88730369884401]
プルーニングは畳み込みニューラルネットワーク(CNN)のモデルサイズと計算コストを削減する一般的な手法である
ハードウェア効率の良いモデル圧縮方式であるPreCroppingを提案する。
重み付けと比較して, 提案手法は, 精度を犠牲にすることなく, 記憶と計算の両面において規則的で密度が高い。
論文 参考訳(メタデータ) (2022-03-04T19:54:31Z) - AdaPruner: Adaptive Channel Pruning and Effective Weights Inheritance [9.3421559369389]
本稿では,各レイヤのチャネル数とサブネットワークのワイツ継承基準を適応的に決定するプルーニングフレームワークを提案する。
AdaPrunerは、切断されたネットワークを素早く、正確に、効率的に得ることができる。
ImageNetでは、MobileNetV2の32.8%のFLOPを削減し、トップ1の精度は0.62%しか低下しない。
論文 参考訳(メタデータ) (2021-09-14T01:52:05Z) - GDP: Stabilized Neural Network Pruning via Gates with Differentiable
Polarization [84.57695474130273]
ゲートベースまたは重要度に基づくプルーニング手法は、重要度が最小のチャネルを削除することを目的としている。
GDPは、各チャネルのオン・アンド・オフを制御するために、ベルやホイッスルのない畳み込み層の前に接続することができる。
CIFAR-10とImageNetデータセットを用いて行った実験は、提案したGDPが最先端のパフォーマンスを達成することを示している。
論文 参考訳(メタデータ) (2021-09-06T03:17:10Z) - Group Fisher Pruning for Practical Network Compression [58.25776612812883]
本稿では,様々な複雑な構造に応用可能な汎用チャネルプルーニング手法を提案する。
我々は、単一チャネルと結合チャネルの重要性を評価するために、フィッシャー情報に基づく統一されたメトリクスを導出する。
提案手法は,結合チャネルを含む任意の構造をプルークするために利用できる。
論文 参考訳(メタデータ) (2021-08-02T08:21:44Z) - Channel Scaling: A Scale-and-Select Approach for Transfer Learning [2.6304695993930594]
予め訓練されたニューラルネットワークを用いた転送学習は、医学画像解析における分類器の訓練のための一般的な戦略である。
本稿では,チャネルスケーリング層を導入して,ネットワークを効率的に構築する手法を提案する。
このフレームワークは、L1正規化とスケーリングウェイトに対するしきい値の閾値を付与することにより、事前訓練されたモデルから不要な特徴チャネルを反復的に除去する。
論文 参考訳(メタデータ) (2021-03-22T23:26:57Z) - Network Pruning via Resource Reallocation [75.85066435085595]
rEsource rEalLocation (PEEL) を経由したネットワーク・プルーニングという,シンプルで効果的なチャネル・プルーニング手法を提案する。
PEELは、最初に事前に定義されたバックボーンを構築し、その上でリソースの移動を行い、少ない情報層からより重要な層へ1ラウンドでパラメータをシフトする。
実験結果から,PEELによって発見された構造は,各種プルーニング条件下での最先端のプルーニングアルゴリズムと競合する性能を示した。
論文 参考訳(メタデータ) (2021-03-02T16:28:10Z) - UCP: Uniform Channel Pruning for Deep Convolutional Neural Networks
Compression and Acceleration [24.42067007684169]
深部CNNを創出するための一様チャネルプルーニング(UCP)手法を提案する。
それらに関連する畳み込みカーネルを含む重要でないチャネルは直接プルーニングされる。
CIFAR-10, CIFAR-100, ILSVRC-2012 を用いて画像分類を行った。
論文 参考訳(メタデータ) (2020-10-03T01:51:06Z) - ResRep: Lossless CNN Pruning via Decoupling Remembering and Forgetting [105.97936163854693]
本稿では,畳み込み層の幅(出力チャネル数)を小さくすることで,CNNをスリム化するResRepを提案する。
記憶と忘れの独立性に関する神経生物学の研究から着想を得て,CNNを記憶部分と忘れ部分にパラメータ化することを提案する。
私たちは、記憶と忘れ物を、より狭いレイヤで元のアーキテクチャにマージします。
論文 参考訳(メタデータ) (2020-07-07T07:56:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。