論文の概要: Fusion-Catalyzed Pruning for Optimizing Deep Learning on Intelligent
Edge Devices
- arxiv url: http://arxiv.org/abs/2010.16165v2
- Date: Sun, 29 Nov 2020 12:50:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 15:52:38.130593
- Title: Fusion-Catalyzed Pruning for Optimizing Deep Learning on Intelligent
Edge Devices
- Title(参考訳): インテリジェントエッジデバイスにおける深層学習の最適化のための融合型プルーニング
- Authors: Guangli Li, Xiu Ma, Xueying Wang, Lei Liu, Jingling Xue and Xiaobing
Feng
- Abstract要約: 本稿では,ニューラルネットワークの高速化を目的とした,FuPrunerと呼ばれる新しい核融合パラメトリックプルーニング手法を提案する。
モデルに等価に変換するアグレッシブ・フュージョン法を導入し、プルーニングの最適化空間を拡張した。
FuPrunerは、フュージョンとプルーニングを制御する最適化オプションを提供する。
- 参考スコア(独自算出の注目度): 9.313154178072049
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing computational cost of deep neural network models limits the
applicability of intelligent applications on resource-constrained edge devices.
While a number of neural network pruning methods have been proposed to compress
the models, prevailing approaches focus only on parametric operators (e.g.,
convolution), which may miss optimization opportunities. In this paper, we
present a novel fusion-catalyzed pruning approach, called FuPruner, which
simultaneously optimizes the parametric and non-parametric operators for
accelerating neural networks. We introduce an aggressive fusion method to
equivalently transform a model, which extends the optimization space of pruning
and enables non-parametric operators to be pruned in a similar manner as
parametric operators, and a dynamic filter pruning method is applied to
decrease the computational cost of models while retaining the accuracy
requirement. Moreover, FuPruner provides configurable optimization options for
controlling fusion and pruning, allowing much more flexible
performance-accuracy trade-offs to be made. Evaluation with state-of-the-art
residual neural networks on five representative intelligent edge platforms,
Jetson TX2, Jetson Nano, Edge TPU, NCS, and NCS2, demonstrates the
effectiveness of our approach, which can accelerate the inference of models on
CIFAR-10 and ImageNet datasets.
- Abstract(参考訳): ディープニューラルネットワークモデルの計算コストの増大は、リソース制約のあるエッジデバイス上でのインテリジェントアプリケーションの適用性を制限する。
モデル圧縮のために多くのニューラルネットワークプルーニング手法が提案されているが、一般的なアプローチはパラメトリック演算子(例えば畳み込み)のみに焦点を当てており、最適化の機会を逃す可能性がある。
本稿では,ニューラルネットの高速化のためのパラメトリック演算子と非パラメトリック演算子を同時に最適化する,FuPrunerと呼ばれる新しい核融合触媒プルーニング手法を提案する。
そこで本研究では,パラメトリック演算子と同様に非パラメトリック演算子をプルーニングできるモデルに等価に変換する攻撃的融合法を提案し,精度を維持しつつモデルの計算コストを削減するために動的フィルタプルーニング法を適用した。
さらにfuprunerは、fusionとpruningを制御するための設定可能な最適化オプションを提供し、より柔軟なパフォーマンスと正確性のトレードオフを実現できる。
5つの代表的なインテリジェントエッジプラットフォームであるJetson TX2,Jetson Nano,Edge TPU, NCS, NCS2上での最先端残差ニューラルネットワークによる評価により,CIFAR-10およびImageNetデータセット上のモデル推定を高速化する手法の有効性が示された。
関連論文リスト
- Adaptive Friction in Deep Learning: Enhancing Optimizers with Sigmoid and Tanh Function [0.0]
我々は適応摩擦係数を統合する2つの新しい勾配であるsigSignGradとtanhSignGradを紹介する。
我々の理論解析は,摩擦係数Sの広帯域調整能力を示す。
ResNet50 と ViT アーキテクチャを用いた CIFAR-10, Mini-Image-Net 実験により,提案手法の優れた性能が確認された。
論文 参考訳(メタデータ) (2024-08-07T03:20:46Z) - Edge-Efficient Deep Learning Models for Automatic Modulation Classification: A Performance Analysis [0.7428236410246183]
無線信号の自動変調分類(AMC)のための最適化畳み込みニューラルネットワーク(CNN)について検討した。
本稿では,これらの手法を組み合わせて最適化モデルを提案する。
実験結果から,提案手法と組み合わせ最適化手法は,複雑度が著しく低いモデルの開発に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-04-11T06:08:23Z) - The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - Towards Hyperparameter-Agnostic DNN Training via Dynamical System
Insights [4.513581513983453]
本稿では,ディープニューラルネットワーク(DNN),ECCO-DNNに特化した一階最適化手法を提案する。
本手法は, 最適変数軌道を動的システムとしてモデル化し, 軌道形状に基づいてステップサイズを適応的に選択する離散化アルゴリズムを開発する。
論文 参考訳(メタデータ) (2023-10-21T03:45:13Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Rewarded meta-pruning: Meta Learning with Rewards for Channel Pruning [19.978542231976636]
本稿では,ディープラーニングモデルにおける計算効率向上のためのパラメータとFLOPの削減手法を提案する。
本稿では,ネットワークの精度と計算効率のトレードオフを制御するために,精度と効率係数を導入する。
論文 参考訳(メタデータ) (2023-01-26T12:32:01Z) - Rate Distortion Characteristic Modeling for Neural Image Compression [59.25700168404325]
エンドツーエンドの最適化機能は、ニューラルイメージ圧縮(NIC)の優れた損失圧縮性能を提供する。
異なるモデルは、R-D空間の異なる点に到達するために訓練される必要がある。
深層ネットワークと統計モデルを用いてNICのR-D挙動を記述するために,本質的な数学的関数の定式化に努めている。
論文 参考訳(メタデータ) (2021-06-24T12:23:05Z) - Adaptive Subcarrier, Parameter, and Power Allocation for Partitioned
Edge Learning Over Broadband Channels [69.18343801164741]
パーティショニングエッジ学習(PARTEL)は、無線ネットワークにおいてよく知られた分散学習手法であるパラメータサーバトレーニングを実装している。
本稿では、いくつかの補助変数を導入してParticleELを用いてトレーニングできるディープニューラルネットワーク(DNN)モデルについて考察する。
論文 参考訳(メタデータ) (2020-10-08T15:27:50Z) - Enhanced data efficiency using deep neural networks and Gaussian
processes for aerodynamic design optimization [0.0]
随伴型最適化法は空気力学的形状設計において魅力的である。
複数の最適化問題が解決されている場合、それらは違法に高価になる可能性がある。
本稿では,高コストな随伴解法に取って代わる機械学習を実現するサロゲートベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-15T15:09:21Z) - A Privacy-Preserving-Oriented DNN Pruning and Mobile Acceleration
Framework [56.57225686288006]
モバイルエッジデバイスの限られたストレージとコンピューティング能力を満たすために、ディープニューラルネットワーク(DNN)の軽量プルーニングが提案されている。
従来のプルーニング手法は主に、ユーザデータのプライバシを考慮せずに、モデルのサイズを減らしたり、パフォーマンスを向上させることに重点を置いていた。
プライベートトレーニングデータセットを必要としないプライバシ保護指向のプルーニングおよびモバイルアクセラレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T23:52:03Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。