論文の概要: Channel Pruning Guided by Classification Loss and Feature Importance
- arxiv url: http://arxiv.org/abs/2003.06757v1
- Date: Sun, 15 Mar 2020 05:08:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 08:57:26.534765
- Title: Channel Pruning Guided by Classification Loss and Feature Importance
- Title(参考訳): 分類損失と特徴量によるチャンネルプルーニング
- Authors: Jinyang Guo, Wanli Ouyang, Dong Xu
- Abstract要約: 分類損失と特徴重要度(CPLI)によって導かれるチャネル・プルーニングと呼ばれる新しい層間チャネル・プルーニング法を提案する。
CIFAR-10, ImageNet, UCF-101という3つのベンチマークデータセットを用いた実験により, CPLI法の有効性を実証した。
- 参考スコア(独自算出の注目度): 101.93519883542031
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose a new layer-by-layer channel pruning method called
Channel Pruning guided by classification Loss and feature Importance (CPLI). In
contrast to the existing layer-by-layer channel pruning approaches that only
consider how to reconstruct the features from the next layer, our approach
additionally take the classification loss into account in the channel pruning
process. We also observe that some reconstructed features will be removed at
the next pruning stage. So it is unnecessary to reconstruct these features. To
this end, we propose a new strategy to suppress the influence of unimportant
features (i.e., the features will be removed at the next pruning stage). Our
comprehensive experiments on three benchmark datasets, i.e., CIFAR-10,
ImageNet, and UCF-101, demonstrate the effectiveness of our CPLI method.
- Abstract(参考訳): 本研究では,層別チャネルプルーニング法であるチャネルプルーニング法を,分類損失と特徴重要度(cpli)を指標として提案する。
本手法は, チャネル切断プロセスにおいて, 次の層から特徴を再構築する方法のみを考慮した既存の層間チャネル切断法とは対照的に, 分類損失を考慮に入れている。
また,次の刈り上げ段階では,復元された特徴が取り除かれることも観察した。
そのため、これらの機能を再構築する必要はない。
そこで本稿では,重要でない特徴の影響を抑えるための新たな戦略を提案する。
CIFAR-10, ImageNet, UCF-101の3つのベンチマークデータセットに関する総合的な実験により, CPLI法の有効性が示された。
関連論文リスト
- FGP: Feature-Gradient-Prune for Efficient Convolutional Layer Pruning [16.91552023598741]
本稿では,FGP (Feature-Gradient Pruning) と呼ばれる新しいプルーニング手法を提案する。
特徴に基づく情報と勾配に基づく情報を統合し、様々なターゲットクラスにおけるチャネルの重要性をより効果的に評価する。
複数のタスクやデータセットにまたがる実験により、FGPは計算コストを大幅に削減し、精度損失を最小化することが示された。
論文 参考訳(メタデータ) (2024-11-19T08:42:15Z) - Influence Function Based Second-Order Channel Pruning-Evaluating True
Loss Changes For Pruning Is Possible Without Retraining [23.5549895791289]
我々は,再訓練をせずに真の損失変化を評価する手法を開発した。
我々は,全てのチャネルの重要性を同時に評価する方法を示し,新しいグローバルチャネルプルーニングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-08-13T12:23:06Z) - A Fair Loss Function for Network Pruning [70.35230425589592]
本稿では, 刈り込み時のバイアスの抑制に使用できる簡易な改良型クロスエントロピー損失関数である, 性能重み付き損失関数を提案する。
CelebA、Fitzpatrick17k、CIFAR-10データセットを用いた実験は、提案手法が単純で効果的なツールであることを実証している。
論文 参考訳(メタデータ) (2022-11-18T15:17:28Z) - Boosting Pruned Networks with Linear Over-parameterization [8.796518772724955]
構造化プルーニングは、高速な推論のためのチャネル(フィルタ)を減らし、実行時にフットプリントを低くすることで、ニューラルネットワークを圧縮する。
プルーニング後の精度を回復するため、細調整は通常、プルーニングネットワークに適用される。
そこで我々は,まず,細調整パラメータの数を増やすために,刈り込みネットワーク内のコンパクト層を線形に過剰にパラメータ化する手法を提案する。
論文 参考訳(メタデータ) (2022-04-25T05:30:26Z) - CHEX: CHannel EXploration for CNN Model Compression [47.3520447163165]
本稿では,これらの問題を是正するために,CHEXと呼ばれる新しいチャネル探索手法を提案する。
CheXはトレーニングプロセスを通じてチャネルを繰り返しプーンして再成長させ、重要なチャネルを早期にプルーニングするリスクを低減させる。
CHEXは様々なコンピュータビジョンタスクにおいて,多様なCNNアーキテクチャのFLOPを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2022-03-29T17:52:41Z) - AdaPruner: Adaptive Channel Pruning and Effective Weights Inheritance [9.3421559369389]
本稿では,各レイヤのチャネル数とサブネットワークのワイツ継承基準を適応的に決定するプルーニングフレームワークを提案する。
AdaPrunerは、切断されたネットワークを素早く、正確に、効率的に得ることができる。
ImageNetでは、MobileNetV2の32.8%のFLOPを削減し、トップ1の精度は0.62%しか低下しない。
論文 参考訳(メタデータ) (2021-09-14T01:52:05Z) - Adaptive Recursive Circle Framework for Fine-grained Action Recognition [95.51097674917851]
ビデオにおける微粒な空間時間ダイナミクスのモデル化は、アクション認識にとって難しい問題である。
既存のほとんどのメソッドは、純粋なフィードフォワード方式でレイヤの特徴を生成する。
本稿では,純粋なフィードフォワード層のための微細なデコレータであるAdaptive Recursive Circleフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-25T14:24:29Z) - Network Pruning via Resource Reallocation [75.85066435085595]
rEsource rEalLocation (PEEL) を経由したネットワーク・プルーニングという,シンプルで効果的なチャネル・プルーニング手法を提案する。
PEELは、最初に事前に定義されたバックボーンを構築し、その上でリソースの移動を行い、少ない情報層からより重要な層へ1ラウンドでパラメータをシフトする。
実験結果から,PEELによって発見された構造は,各種プルーニング条件下での最先端のプルーニングアルゴリズムと競合する性能を示した。
論文 参考訳(メタデータ) (2021-03-02T16:28:10Z) - ResRep: Lossless CNN Pruning via Decoupling Remembering and Forgetting [105.97936163854693]
本稿では,畳み込み層の幅(出力チャネル数)を小さくすることで,CNNをスリム化するResRepを提案する。
記憶と忘れの独立性に関する神経生物学の研究から着想を得て,CNNを記憶部分と忘れ部分にパラメータ化することを提案する。
私たちは、記憶と忘れ物を、より狭いレイヤで元のアーキテクチャにマージします。
論文 参考訳(メタデータ) (2020-07-07T07:56:45Z) - DMCP: Differentiable Markov Channel Pruning for Neural Networks [67.51334229530273]
DMCP (diffariable Markov Channel Pruning) と命名された新しいチャネルプルーニング法を提案する。
本手法は微分可能であり,標準タスク損失や予算正規化に関して,勾配勾配により直接最適化することができる。
提案手法の有効性を検証するため,ResNet と MobilenetV2 を用いたImagenet 実験を行った。
論文 参考訳(メタデータ) (2020-05-07T09:39:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。