論文の概要: Sub-network Multi-objective Evolutionary Algorithm for Filter Pruning
- arxiv url: http://arxiv.org/abs/2211.01957v1
- Date: Sat, 22 Oct 2022 13:34:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 14:55:07.974466
- Title: Sub-network Multi-objective Evolutionary Algorithm for Filter Pruning
- Title(参考訳): フィルタプルーニングのためのサブネットワーク多目的進化アルゴリズム
- Authors: Xuhua Li, Weize Sun, Lei Huang, Shaowu Chen
- Abstract要約: ディープニューラルネットワーク(DNN)におけるモデル圧縮とアクセラレーションを実現するため,フィルタプルーニングは一般的な方法である
本稿では,フィルタプルーニングのためのサブネットワーク多目的進化アルゴリズム(SMOEA)を提案する。
CIFAR-10のVGG-14モデル実験により,提案したSMOEAの有効性が検証された。
- 参考スコア(独自算出の注目度): 5.998027804346945
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Filter pruning is a common method to achieve model compression and
acceleration in deep neural networks (DNNs).Some research regarded filter
pruning as a combinatorial optimization problem and thus used evolutionary
algorithms (EA) to prune filters of DNNs. However, it is difficult to find a
satisfactory compromise solution in a reasonable time due to the complexity of
solution space searching. To solve this problem, we first formulate a
multi-objective optimization problem based on a sub-network of the full model
and propose a Sub-network Multiobjective Evolutionary Algorithm (SMOEA) for
filter pruning. By progressively pruning the convolutional layers in groups,
SMOEA can obtain a lightweight pruned result with better
performance.Experiments on VGG-14 model for CIFAR-10 verify the effectiveness
of the proposed SMOEA. Specifically, the accuracy of the pruned model with
16.56% parameters decreases by 0.28% only, which is better than the widely used
popular filter pruning criteria.
- Abstract(参考訳): フィルタプルーニングはディープニューラルネットワーク(DNN)におけるモデル圧縮と加速を実現するための一般的な手法である。
フィルタプルーニングを組合せ最適化問題とみなし、進化的アルゴリズム(EA)を用いてDNNのフィルタをプルーする研究もある。
しかし、解空間探索の複雑さのため、妥当な時間内に十分な妥協解を見つけることは困難である。
この問題を解決するために,まず,全モデルのサブネットワークに基づく多目的最適化問題を定式化し,フィルタプルーニングのためのサブネットワーク多目的進化アルゴリズム(smoea)を提案する。
グループ内の畳み込み層を段階的に刈り取ることにより、smoeaはより優れた性能で軽量な刈り取り結果を得ることができ、cifar-10用のvgg-14モデルにおける実験により、提案するsmoeaの有効性を検証することができる。
具体的には、16.56%のパラメータを持つプルーニングモデルの精度は0.28%しか低下せず、広く使われているフィルタプルーニング基準よりも優れている。
関連論文リスト
- A Greedy Hierarchical Approach to Whole-Network Filter-Pruning in CNNs [2.188091591747149]
全体ネットワークフィルタプルーニングアルゴリズムは、各層から異なるフィルタ分を抽出するので、柔軟性が向上する。
本稿では,全ネットワークフィルタプルーニングにおける2段階階層的手法を提案する。
本稿では,ResNext101のRAM要件を7.6GBから1.5GBに削減し,CIFAR-10の精度を損なうことなくFLOPSの94%削減を実現する。
論文 参考訳(メタデータ) (2024-08-22T03:59:57Z) - Efficient Joint Optimization of Layer-Adaptive Weight Pruning in Deep
Neural Networks [48.089501687522954]
ディープニューラルネットワーク(DNN)のための新しい層適応型重み決定手法を提案する。
我々のアプローチは、レイヤ適応型プルーニングスキームを設計するためのすべてのレイヤの集団的影響を考慮に入れている。
我々の実験は、ImageNetとCIFAR-10データセット上の既存の手法よりも、我々のアプローチの方が優れていることを示す。
論文 参考訳(メタデータ) (2023-08-21T03:22:47Z) - Filter Pruning for Efficient CNNs via Knowledge-driven Differential
Filter Sampler [103.97487121678276]
フィルタプルーニングは同時に計算を加速し、CNNのメモリオーバーヘッドを低減する。
本稿では,MFM(Masked Filter Modeling)フレームワークを用いた知識駆動型微分フィルタサンプリング(KDFS)を提案する。
論文 参考訳(メタデータ) (2023-07-01T02:28:41Z) - Asymptotic Soft Cluster Pruning for Deep Neural Networks [5.311178623385279]
フィルタプルーニング法は, 選択したフィルタを除去することにより, 構造的疎結合を導入する。
Asymptotic Soft Cluster Pruning と呼ばれる新しいフィルタプルーニング法を提案する。
提案手法は,多くの最先端アルゴリズムと比較して,競合的な結果が得られる。
論文 参考訳(メタデータ) (2022-06-16T13:58:58Z) - A Passive Similarity based CNN Filter Pruning for Efficient Acoustic
Scene Classification [23.661189257759535]
音響シーン分類(ASC)のための低複雑さ畳み込みニューラルネットワーク(CNN)の開発手法を提案する。
本稿では,CNNからの畳み込みフィルタを除去し,圧縮したCNNを生成するパッシブ・フィルタ・プルーニング・フレームワークを提案する。
提案手法は単純で,パラメータが25%少なく,精度が1%以下で,推論当たりの計算量を27%削減する。
論文 参考訳(メタデータ) (2022-03-29T17:00:06Z) - Improve Convolutional Neural Network Pruning by Maximizing Filter
Variety [0.0]
ニューラルネットワークプルーニングは、モデルストレージと計算要求を減らすために広く利用されている戦略である。
l1ノルムやムーブメントのような一般的なプルーニング基準は、フィルターの個々の効用を考慮しないのが普通である。
本稿では,これらの2つの課題を解決し,どのプルーニング基準にも適用できる手法を提案する。
論文 参考訳(メタデータ) (2022-03-11T09:00:59Z) - Filter-enhanced MLP is All You Need for Sequential Recommendation [89.0974365344997]
オンラインプラットフォームでは、ログされたユーザの行動データはノイズを含まないことは避けられない。
周波数領域の雑音を減衰させる信号処理から,フィルタアルゴリズムのアイデアを借用する。
逐次レコメンデーションタスクのための学習可能なフィルタを備えたオールMLPモデルである textbfFMLP-Rec を提案する。
論文 参考訳(メタデータ) (2022-02-28T05:49:35Z) - Batch Normalization Tells You Which Filter is Important [49.903610684578716]
我々は,事前学習したCNNのBNパラメータに基づいて,各フィルタの重要性を評価することによって,簡易かつ効果的なフィルタ刈取法を提案する。
CIFAR-10とImageNetの実験結果から,提案手法が優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2021-12-02T12:04:59Z) - Dependency Aware Filter Pruning [74.69495455411987]
重要でないフィルタを割ることは、推論コストを軽減するための効率的な方法である。
以前の作業は、その重み基準やそれに対応するバッチノームスケーリング要因に従ってフィルタをプルークする。
所望の空間性を達成するために,空間性誘導正規化を動的に制御する機構を提案する。
論文 参考訳(メタデータ) (2020-05-06T07:41:22Z) - Rethinking Differentiable Search for Mixed-Precision Neural Networks [83.55785779504868]
低ビット幅に量子化された重みとアクティベーションを持つ低精度ネットワークは、エッジデバイスでの推論を加速するために広く利用されている。
現在の解は均一であり、全てのフィルタに同じビット幅を使用する。
これは異なるフィルタの異なる感度を考慮せず、最適以下である。
混合精度ネットワークは、ビット幅を個々のフィルタ要求に調整することでこの問題に対処する。
論文 参考訳(メタデータ) (2020-04-13T07:02:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。