論文の概要: A Generalization of Continuous Relaxation in Structured Pruning
- arxiv url: http://arxiv.org/abs/2308.14605v1
- Date: Mon, 28 Aug 2023 14:19:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 13:34:30.625752
- Title: A Generalization of Continuous Relaxation in Structured Pruning
- Title(参考訳): 構造化プルーニングにおける連続緩和の一般化
- Authors: Brad Larson, Bishal Upadhyaya, Luke McDermott, Siddha Ganju
- Abstract要約: トレンドは、パラメータが増加するより深い、より大きなニューラルネットワークが、より小さなニューラルネットワークよりも高い精度を達成することを示している。
ネットワーク拡張, プルーニング, サブネットワーク崩壊, 削除のためのアルゴリズムを用いて, 構造化プルーニングを一般化する。
結果のCNNは計算コストのかかるスパース行列演算を使わずにGPUハードウェア上で効率的に実行される。
- 参考スコア(独自算出の注目度): 0.3277163122167434
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning harnesses massive parallel floating-point processing to train
and evaluate large neural networks. Trends indicate that deeper and larger
neural networks with an increasing number of parameters achieve higher accuracy
than smaller neural networks. This performance improvement, which often
requires heavy compute for both training and evaluation, eventually needs to
translate well to resource-constrained hardware for practical value. Structured
pruning asserts that while large networks enable us to find solutions to
complex computer vision problems, a smaller, computationally efficient
sub-network can be derived from the large neural network that retains model
accuracy but significantly improves computational efficiency.
We generalize structured pruning with algorithms for network augmentation,
pruning, sub-network collapse and removal. In addition, we demonstrate
efficient and stable convergence up to 93% sparsity and 95% FLOPs reduction
without loss of inference accuracy using with continuous relaxation matching or
exceeding the state of the art for all structured pruning methods. The
resulting CNN executes efficiently on GPU hardware without computationally
expensive sparse matrix operations. We achieve this with routine automatable
operations on classification and segmentation problems using CIFAR-10,
ImageNet, and CityScapes datasets with the ResNet and U-NET network
architectures.
- Abstract(参考訳): ディープラーニングは、大規模なニューラルネットワークのトレーニングと評価に、大規模な並列浮動小数点処理を活用する。
トレンドは、パラメータが増加するより深い、より大きなニューラルネットワークが、より小さなニューラルネットワークよりも高い精度を達成することを示している。
この性能改善は、トレーニングと評価の両方に重い計算を必要とすることが多いが、実際的な価値のためにリソース制約のあるハードウェアにうまく翻訳する必要がある。
構造化プルーニングは、大規模ネットワークは複雑なコンピュータビジョン問題の解決策を見つけることができるが、より小さく、計算効率のよいサブネットワークは、モデル精度を維持しながら計算効率を大幅に向上する巨大なニューラルネットワークから派生できると主張する。
ネットワーク拡張, プルーニング, サブネットワーク崩壊, 削除のためのアルゴリズムを用いた構造化プルーニングを一般化する。
さらに, 連続緩和マッチングを用いて推論精度を損なうことなく, 93%の間隔と95%のFLOPを減少させ, あるいはすべての構造化プルーニング法において, 効率よく安定な収束を実証した。
結果としてCNNは計算コストのかかるスパース行列演算なしでGPUハードウェア上で効率的に実行される。
我々は、CIFAR-10、ImageNet、CityScapesのデータセットをResNetおよびU-NETネットワークアーキテクチャを用いて、分類とセグメンテーションに関する定期的な操作で実現している。
関連論文リスト
- Pushing the Efficiency Limit Using Structured Sparse Convolutions [82.31130122200578]
本稿では,画像の固有構造を利用して畳み込みフィルタのパラメータを削減する構造的スパース畳み込み(SSC)を提案する。
我々は、SSCが効率的なアーキテクチャにおける一般的なレイヤ(奥行き、グループ回り、ポイント回りの畳み込み)の一般化であることを示す。
SSCに基づくアーキテクチャは、CIFAR-10、CIFAR-100、Tiny-ImageNet、ImageNet分類ベンチマークのベースラインと比較して、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-23T18:37:22Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - ItNet: iterative neural networks with small graphs for accurate and
efficient anytime prediction [1.52292571922932]
本研究では,計算グラフの観点から,メモリフットプリントが小さいネットワークモデルについて紹介する。
CamVidおよびCityscapesデータセットでセマンティックセグメンテーションの最新の結果を示します。
論文 参考訳(メタデータ) (2021-01-21T15:56:29Z) - Structured Convolutions for Efficient Neural Network Design [65.36569572213027]
畳み込みニューラルネットワーク構築ブロックのテクスト単純構造における冗長性を利用してモデル効率に取り組む。
この分解が2Dカーネルや3Dカーネルだけでなく、完全に接続されたレイヤにも適用可能であることを示す。
論文 参考訳(メタデータ) (2020-08-06T04:38:38Z) - Fully Dynamic Inference with Deep Neural Networks [19.833242253397206]
Layer-Net(L-Net)とChannel-Net(C-Net)と呼ばれる2つのコンパクトネットワークは、どのレイヤやフィルタ/チャネルが冗長であるかをインスタンス毎に予測する。
CIFAR-10データセットでは、LC-Netは11.9$times$ less floating-point Operations (FLOPs) となり、他の動的推論手法と比較して最大3.3%精度が向上する。
ImageNetデータセットでは、LC-Netは最大1.4$times$ FLOPsを減らし、Top-1の精度は他の方法よりも4.6%高い。
論文 参考訳(メタデータ) (2020-07-29T23:17:48Z) - Rapid Structural Pruning of Neural Networks with Set-based Task-Adaptive
Meta-Pruning [83.59005356327103]
既存のプルーニング技術に共通する制限は、プルーニングの前に少なくとも1回はネットワークの事前トレーニングが必要であることである。
本稿では,ターゲットデータセットの関数としてプルーニングマスクを生成することにより,大規模な参照データセット上で事前訓練されたネットワークをタスク適応的にプルークするSTAMPを提案する。
ベンチマークデータセット上での最近の先進的なプルーニング手法に対するSTAMPの有効性を検証する。
論文 参考訳(メタデータ) (2020-06-22T10:57:43Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - Knapsack Pruning with Inner Distillation [11.04321604965426]
そこで本研究では,プルーンドネットワークの最終精度を最適化する新しいプルーニング手法を提案する。
ネットワークの高レベル構造を維持しながら、ネットワークチャネルを熟考する。
提案手法は,ResNetバックボーンを用いたImageNet,CIFAR-10,CIFAR-100における最先端のプルーニング結果をもたらす。
論文 参考訳(メタデータ) (2020-02-19T16:04:48Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。