論文の概要: Accelerating Sparse Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2104.08378v1
- Date: Fri, 16 Apr 2021 21:27:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:24:30.085315
- Title: Accelerating Sparse Deep Neural Networks
- Title(参考訳): スパースディープニューラルネットワークの高速化
- Authors: Asit Mishra, Jorge Albericio Latorre, Jeff Pool, Darko Stosic, Dusan
Stosic, Ganesh Venkatesh, Chong Yu, Paulius Micikevicius
- Abstract要約: 本研究では,密度行列ユニットの計算スループットを2倍にする2:4 (25%) のスパースパターンを利用したスパースコアの設計と挙動を示す。
また,2:4のスパーシティパターン要件を満たすネットワークをトレーニングし,精度を維持するための簡単なワークフローについても述べる。
- 参考スコア(独自算出の注目度): 20.6942347219753
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As neural network model sizes have dramatically increased, so has the
interest in various techniques to reduce their parameter counts and accelerate
their execution. An active area of research in this field is sparsity -
encouraging zero values in parameters that can then be discarded from storage
or computations. While most research focuses on high levels of sparsity, there
are challenges in universally maintaining model accuracy as well as achieving
significant speedups over modern matrix-math hardware. To make sparsity
adoption practical, the NVIDIA Ampere GPU architecture introduces sparsity
support in its matrix-math units, Tensor Cores. We present the design and
behavior of Sparse Tensor Cores, which exploit a 2:4 (50%) sparsity pattern
that leads to twice the math throughput of dense matrix units. We also describe
a simple workflow for training networks that both satisfy 2:4 sparsity pattern
requirements and maintain accuracy, verifying it on a wide range of common
tasks and model architectures. This workflow makes it easy to prepare accurate
models for efficient deployment on Sparse Tensor Cores.
- Abstract(参考訳): ニューラルネットワークモデルのサイズが劇的に大きくなるにつれて、パラメータの数を減らし、実行を加速する様々な技術への関心が高まっている。
この分野での活発な研究領域は、ストレージや計算から破棄できるパラメータでゼロ値を生成するsparsityである。
ほとんどの研究は、高レベルの空間性に焦点を当てているが、モデル精度を普遍的に維持することや、現代の行列行列行列ハードウェア上での大幅な高速化には課題がある。
sparsityの採用を実用的にするために、nvidia ampere gpuアーキテクチャは、行列数ユニットtensor coresでsparsityをサポートする。
本研究では,密度行列ユニットの計算スループットを2倍にする2:4 (50%) のスパースパターンを利用したスパーステンソルコアの設計と挙動を示す。
また、2:4のスパーシティパターン要件を満たし、精度を維持し、幅広い共通タスクやモデルアーキテクチャで検証するネットワークのトレーニングワークフローについても記述する。
このワークフローにより、スパーステンソルコアへの効率的なデプロイのための正確なモデルを簡単に作成できる。
関連論文リスト
- Speedup deep learning models on GPU by taking advantage of efficient
unstructured pruning and bit-width reduction [0.0]
この研究は、いくつかの畳み込みニューラルネットワーク(CNN)の刈り取りと、グラフィック処理ユニット(GPU)におけるそれらの効率の改善に焦点を当てている。
Nvidia Deep Neural Network(cuDnn)ライブラリは、GPUのためのディープラーニングアルゴリズム(DL)の最も効果的な実装である。
論文 参考訳(メタデータ) (2021-12-28T19:36:41Z) - LCS: Learning Compressible Subspaces for Adaptive Network Compression at
Inference Time [57.52251547365967]
本稿では,ニューラルネットワークの「圧縮可能な部分空間」を訓練する手法を提案する。
構造的・非構造的空間に対する推定時間における微粒な精度・効率のトレードオフを任意に達成するための結果を示す。
我々のアルゴリズムは、可変ビット幅での量子化にまで拡張し、個別に訓練されたネットワークと同等の精度を実現する。
論文 参考訳(メタデータ) (2021-10-08T17:03:34Z) - Powerpropagation: A sparsity inducing weight reparameterisation [65.85142037667065]
我々は、本質的にスパースモデルにつながるニューラルネットワークの新しい重みパラメータ化であるPowerpropagationを紹介した。
この方法で訓練されたモデルは同様の性能を示すが、0で明らかに高い密度の分布を持ち、より多くのパラメータを安全に刈り取ることができる。
ここでは、Powerpropagationと従来のウェイトプルーニング技術と、最近の最先端スパース・トゥ・スパースアルゴリズムを組み合わせることで、ImageNetベンチマークで優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-10-01T10:03:57Z) - Top-KAST: Top-K Always Sparse Training [50.05611544535801]
トレーニングを通して一定間隔を保存するTop-KASTを提案する。
確立したImageNetベンチマークのトレーニングモデルでは,従来の作業と同等かそれ以上に動作可能であることを示す。
ImageNetの結果に加えて、言語モデリングの分野においても、我々のアプローチを実証しています。
論文 参考訳(メタデータ) (2021-06-07T11:13:05Z) - Dual-side Sparse Tensor Core [18.204976918925635]
既存のGPUは、重みからしか利用できないが、アクティベーションではない。
両面間隔(重みとアクティベーション間隔)を効率的に活用する新しいアーキテクチャを提案する。
我々の設計では、両面の間隔を完全に解き、最小限のハードウェアオーバーヘッドで最大1桁の性能を向上させることができる。
論文 参考訳(メタデータ) (2021-05-20T07:36:16Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Accelerating Sparse DNN Models without Hardware-Support via Tile-Wise
Sparsity [12.643043455369297]
本稿では,既存の高密度アーキテクチャ上での遅延高速化を実現するアルゴリズム-ソフトウェア共設計プルーニング手法を提案する。
我々はGPUテンソルコア上でのスパーシティパターンの実装と評価を行い,高密度モデル上での1.95倍の高速化を実現した。
論文 参考訳(メタデータ) (2020-08-29T16:27:41Z) - Computation on Sparse Neural Networks: an Inspiration for Future
Hardware [20.131626638342706]
スパースニューラルネットワークの計算に関する研究の現状について述べる。
本稿では,重みパラメータの数とモデル構造に影響されるモデルの精度について論じる。
実際に複雑な問題に対して、重みが支配する領域において、大小のモデルを探索することはより有益であることを示す。
論文 参考訳(メタデータ) (2020-04-24T19:13:50Z) - An Image Enhancing Pattern-based Sparsity for Real-time Inference on
Mobile Devices [58.62801151916888]
パターンと接続性を組み合わせた新しい空間空間,すなわちパターンベースの空間空間を導入し,高度に正確かつハードウェアに親しみやすいものにした。
新たなパターンベースの空間性に対する我々のアプローチは,モバイルプラットフォーム上での高効率DNN実行のためのコンパイラ最適化に自然に適合する。
論文 参考訳(メタデータ) (2020-01-20T16:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。