論文の概要: DHP: Differentiable Meta Pruning via HyperNetworks
- arxiv url: http://arxiv.org/abs/2003.13683v3
- Date: Sat, 1 Aug 2020 10:59:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 07:27:36.386915
- Title: DHP: Differentiable Meta Pruning via HyperNetworks
- Title(参考訳): DHP: HyperNetworksによる差別化可能なメタプルーニング
- Authors: Yawei Li, Shuhang Gu, Kai Zhang, Luc Van Gool, Radu Timofte
- Abstract要約: 本稿では,ネットワークの自動プルーニングのためのハイパーネットによる識別可能なプルーニング手法を提案する。
遅延ベクトルは、バックボーンネットワーク内の畳み込み層の出力チャネルを制御し、レイヤのプルーニングのハンドルとして機能する。
画像分類、単一画像超解像、復調のための様々なネットワークで実験が行われた。
- 参考スコア(独自算出の注目度): 158.69345612783198
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Network pruning has been the driving force for the acceleration of neural
networks and the alleviation of model storage/transmission burden. With the
advent of AutoML and neural architecture search (NAS), pruning has become
topical with automatic mechanism and searching based architecture optimization.
Yet, current automatic designs rely on either reinforcement learning or
evolutionary algorithm. Due to the non-differentiability of those algorithms,
the pruning algorithm needs a long searching stage before reaching the
convergence.
To circumvent this problem, this paper introduces a differentiable pruning
method via hypernetworks for automatic network pruning. The specifically
designed hypernetworks take latent vectors as input and generate the weight
parameters of the backbone network. The latent vectors control the output
channels of the convolutional layers in the backbone network and act as a
handle for the pruning of the layers. By enforcing $\ell_1$ sparsity
regularization to the latent vectors and utilizing proximal gradient solver,
sparse latent vectors can be obtained. Passing the sparsified latent vectors
through the hypernetworks, the corresponding slices of the generated weight
parameters can be removed, achieving the effect of network pruning. The latent
vectors of all the layers are pruned together, resulting in an automatic layer
configuration. Extensive experiments are conducted on various networks for
image classification, single image super-resolution, and denoising. And the
experimental results validate the proposed method.
- Abstract(参考訳): ネットワークプルーニングは、ニューラルネットワークの加速とモデルストレージ/送信負荷の軽減の原動力となっている。
AutoMLとニューラルアーキテクチャサーチ(NAS)の出現により、プルーニングは自動メカニズムと検索に基づくアーキテクチャ最適化で話題になっている。
しかし、現在の自動設計は強化学習か進化的アルゴリズムに依存している。
これらのアルゴリズムの非微分性のため、プルーニングアルゴリズムは収束に到達する前に長い探索段階を必要とする。
この問題を回避するために,ネットワークの自動刈り出しのためのハイパーネットによる識別可能な刈り出し方式を提案する。
特別に設計されたハイパーネットは遅延ベクトルを入力として、バックボーンネットワークの重みパラメータを生成する。
潜在ベクトルは、バックボーンネットワーク内の畳み込み層の出力チャネルを制御し、レイヤのプルーニングのハンドルとして機能する。
潜ベクトルに$\ell_1$スパーシティ正規化を強制し、近位勾配ソルバを利用することにより、疎潜ベクトルを得ることができる。
スパシファイド潜在ベクトルをハイパーネットワークスに通すと、生成された重みパラメータの対応するスライスを除去し、ネットワーク切断の効果を達成できる。
すべてのレイヤの潜在ベクターがプルーピングされ、自動的にレイヤ構成が生成される。
画像分類、単一画像の超解像、雑音除去など、様々なネットワーク上で広範な実験が行われている。
実験の結果,提案手法が検証された。
関連論文リスト
- SGLP: A Similarity Guided Fast Layer Partition Pruning for Compressing Large Deep Models [19.479746878680707]
レイヤプルーニングは、ネットワークサイズを削減し、計算効率を向上させるための強力なアプローチである。
大規模深層モデル圧縮のための類似性誘導高速層分割プルーニングを提案する。
本手法は精度と計算効率の両面で最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-10-14T04:01:08Z) - Concurrent Training and Layer Pruning of Deep Neural Networks [0.0]
トレーニングの初期段階において、ニューラルネットワークの無関係な層を特定し、排除できるアルゴリズムを提案する。
本研究では,非線形区間を切断した後にネットワークを流れる情報の流れを,非線形ネットワーク区間の周囲の残差接続を用いた構造を用いる。
論文 参考訳(メタデータ) (2024-06-06T23:19:57Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Boosting Pruned Networks with Linear Over-parameterization [8.796518772724955]
構造化プルーニングは、高速な推論のためのチャネル(フィルタ)を減らし、実行時にフットプリントを低くすることで、ニューラルネットワークを圧縮する。
プルーニング後の精度を回復するため、細調整は通常、プルーニングネットワークに適用される。
そこで我々は,まず,細調整パラメータの数を増やすために,刈り込みネットワーク内のコンパクト層を線形に過剰にパラメータ化する手法を提案する。
論文 参考訳(メタデータ) (2022-04-25T05:30:26Z) - Manifold Regularized Dynamic Network Pruning [102.24146031250034]
本稿では,全インスタンスの多様体情報をプルーンドネットワークの空間に埋め込むことにより,冗長フィルタを動的に除去する新しいパラダイムを提案する。
提案手法の有効性をいくつかのベンチマークで検証し,精度と計算コストの両面で優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-10T03:59:03Z) - AutoPruning for Deep Neural Network with Dynamic Channel Masking [28.018077874687343]
深層ニューラルネットワークのための学習に基づくオートプルーニングアルゴリズムを提案する。
まず、各層に対する重みと最良チャネルを目的とする2つの目的の問題を定式化する。
次に、最適なチャネル数と重みを同時に導出するために、別の最適化手法を提案する。
論文 参考訳(メタデータ) (2020-10-22T20:12:46Z) - Layer-adaptive sparsity for the Magnitude-based Pruning [88.37510230946478]
本稿では,LAMP(Layer-Adaptive magnitude-based pruning)スコアを用いたグローバルプルーニングの新たな重要点を提案する。
LAMPは、階層的な空間選択のための一般的なスキームを一貫して上回っている。
論文 参考訳(メタデータ) (2020-10-15T09:14:02Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - A "Network Pruning Network" Approach to Deep Model Compression [62.68120664998911]
マルチタスクネットワークを用いた深部モデル圧縮のためのフィルタプルーニング手法を提案する。
我々のアプローチは、プレナーネットワークを学習して、事前訓練されたターゲットネットワークを訓練することに基づいている。
提案手法によって生成された圧縮モデルは汎用的であり,特別なハードウェア/ソフトウェアのサポートは不要である。
論文 参考訳(メタデータ) (2020-01-15T20:38:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。