論文の概要: A Multi-objective Complex Network Pruning Framework Based on
Divide-and-conquer and Global Performance Impairment Ranking
- arxiv url: http://arxiv.org/abs/2303.16212v2
- Date: Sat, 30 Dec 2023 05:32:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 02:42:59.691518
- Title: A Multi-objective Complex Network Pruning Framework Based on
Divide-and-conquer and Global Performance Impairment Ranking
- Title(参考訳): 分割・分割とグローバル性能低下ランキングに基づく多目的複雑ネットワークpruningフレームワーク
- Authors: Ronghua Shang, Songling Zhu, Yinan Wu, Weitong Zhang, Licheng Jiao,
Songhua Xu
- Abstract要約: 本稿では,多目的複合ネットワークプルーニングフレームワークを提案する。
提案アルゴリズムは,最先端プルーニング手法と同等の性能を実現する。
- 参考スコア(独自算出の注目度): 40.59001171151929
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model compression plays a vital role in the practical deployment of deep
neural networks (DNNs), and evolutionary multi-objective (EMO) pruning is an
essential tool in balancing the compression rate and performance of the DNNs.
However, due to its population-based nature, EMO pruning suffers from the
complex optimization space and the resource-intensive structure verification
process, especially in complex networks. To this end, a multi-objective complex
network pruning framework based on divide-and-conquer and global performance
impairment ranking (EMO-DIR) is proposed in this paper. Firstly, a
divide-and-conquer EMO network pruning method is proposed, which decomposes the
complex task of EMO pruning on the entire network into easier sub-tasks on
multiple sub-networks. On the one hand, this decomposition narrows the pruning
optimization space and decreases the optimization difficulty; on the other
hand, the smaller network structure converges faster, so the proposed algorithm
consumes lower computational resources. Secondly, a sub-network training method
based on cross-network constraints is designed, which could bridge independent
EMO pruning sub-tasks, allowing them to collaborate better and improving the
overall performance of the pruned network. Finally, a multiple sub-networks
joint pruning method based on EMO is proposed. This method combines the Pareto
Fronts from EMO pruning results on multiple sub-networks through global
performance impairment ranking to design a joint pruning scheme. The rich
experiments on CIFAR-10/100 and ImageNet-100/1k are conducted. The proposed
algorithm achieves a comparable performance with the state-of-the-art pruning
methods.
- Abstract(参考訳): モデル圧縮はディープニューラルネットワーク(DNN)の実践的展開において重要な役割を担い、進化的多目的プルーニング(EMO)はDNNの圧縮速度と性能のバランスをとる上で不可欠なツールである。
しかし、人口ベースの性質から、エモプラニングは複雑な最適化空間と、特に複雑なネットワークにおいて、リソース集約的な構造検証プロセスに苦しむ。
そこで本稿では,emo-dir(division-and-conquer and global performance loss ranking)に基づく多目的複雑なネットワークpruningフレームワークを提案する。
まず,複数のサブネットワーク上でのEMOプルーニングの複雑なタスクを,複数のサブネットワーク上で簡単にサブタスクに分解する分割型EMOネットワークプルーニング手法を提案する。
一方、この分解はプルーニング最適化空間を狭め、最適化の難しさを減らし、一方、より小さなネットワーク構造はより高速に収束するので、提案アルゴリズムはより少ない計算資源を消費する。
次に、クロスネットワーク制約に基づくサブネットワークトレーニング方法を設計し、独立したemoプルーニングサブタスクをブリッジすることで、プルーニングされたネットワーク全体のパフォーマンスを改善する。
最後に,EMOに基づく複数サブネットワーク共同プルーニング手法を提案する。
本手法は,複数のサブネットワーク上でのemoプルーニング結果から,グローバルパフォーマンス障害ランキングを通じてパレートフロントを結合し,共同プルーニングスキームを設計する。
CIFAR-10/100とImageNet-100/1kに関する豊富な実験を行った。
提案アルゴリズムは,最先端プルーニング手法と同等の性能を実現する。
関連論文リスト
- SGLP: A Similarity Guided Fast Layer Partition Pruning for Compressing Large Deep Models [19.479746878680707]
レイヤプルーニングは、ネットワークサイズを削減し、計算効率を向上させるための強力なアプローチである。
大規模深層モデル圧縮のための類似性誘導高速層分割プルーニングを提案する。
本手法は精度と計算効率の両面で最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-10-14T04:01:08Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Multi-Prompt Alignment for Multi-Source Unsupervised Domain Adaptation [86.02485817444216]
マルチプロンプトアライメント(MPA: Multi-Prompt Alignment)は,マルチソースUDAのためのシンプルかつ効率的なフレームワークである。
MPAは、学習したプロンプトを自動エンコードプロセスで認知し、再構築されたプロンプトの合意を最大化することでそれらを調整する。
実験によると、MPAは3つの一般的なデータセットで最先端の結果を達成し、DomainNetの平均精度は54.1%である。
論文 参考訳(メタデータ) (2022-09-30T03:40:10Z) - i-SpaSP: Structured Neural Pruning via Sparse Signal Recovery [11.119895959906085]
ニューラルネットワークのための新しい構造化プルーニングアルゴリズム - i-SpaSPと呼ばれる反復型スパース構造化プルーニングを提案する。
i-SpaSPはネットワーク内の重要なパラメータ群を識別することで動作し、プルーニングされたネットワーク出力と高密度なネットワーク出力の残差に最も寄与する。
高い性能のサブネットワークを発見し, 証明可能なベースライン手法のプルーニング効率を, 数桁の精度で向上させることが示されている。
論文 参考訳(メタデータ) (2021-12-07T05:26:45Z) - SIRe-Networks: Skip Connections over Interlaced Multi-Task Learning and
Residual Connections for Structure Preserving Object Classification [28.02302915971059]
本稿では、オブジェクト分類タスクにおける消失勾配を低減するために、SIReを定義したインターレース型マルチタスク学習戦略を提案する。
提案手法は、自動エンコーダを介して入力画像構造を保存することにより、畳み込みニューラルネットワーク(CNN)を直接改善する。
提案手法を検証するため、SIRe戦略を介して単純なCNNと有名なネットワークの様々な実装を拡張し、CIFAR100データセットで広範囲にテストする。
論文 参考訳(メタデータ) (2021-10-06T13:54:49Z) - Manifold Regularized Dynamic Network Pruning [102.24146031250034]
本稿では,全インスタンスの多様体情報をプルーンドネットワークの空間に埋め込むことにより,冗長フィルタを動的に除去する新しいパラダイムを提案する。
提案手法の有効性をいくつかのベンチマークで検証し,精度と計算コストの両面で優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-10T03:59:03Z) - Iterative Algorithm Induced Deep-Unfolding Neural Networks: Precoding
Design for Multiuser MIMO Systems [59.804810122136345]
本稿では,AIIDNN(ディープ・アンフォールディング・ニューラルネット)を一般化した,ディープ・アンフォールディングのためのフレームワークを提案する。
古典的重み付き最小二乗誤差(WMMSE)反復アルゴリズムの構造に基づく効率的なIAIDNNを提案する。
提案したIAIDNNは,計算複雑性を低減した反復WMMSEアルゴリズムの性能を効率よく向上することを示す。
論文 参考訳(メタデータ) (2020-06-15T02:57:57Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。