論文の概要: HighLight: Efficient and Flexible DNN Acceleration with Hierarchical
Structured Sparsity
- arxiv url: http://arxiv.org/abs/2305.12718v1
- Date: Mon, 22 May 2023 04:54:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 18:17:06.203476
- Title: HighLight: Efficient and Flexible DNN Acceleration with Hierarchical
Structured Sparsity
- Title(参考訳): HighLight: 階層構造スカラーによる効率的かつ柔軟なDNN高速化
- Authors: Yannan Nellie Wu, Po-An Tsai, Saurav Muralidharan, Angshuman Parashar,
Vivienne Sze, Joel S. Emer
- Abstract要約: 本稿では,階層的構造的疎度(HSS)について紹介し,複数の単純疎度パターンから階層的に構成することで,多様な疎度を表現できることを示す。
HSSは、単純なスパーシティパターンのみをサポートする必要があるため、基盤となるハードウェアを単純化する。
我々は,多種多彩度(高密度を含む)のDNNを加速すると同時に,高効率かつフレキシブルなアクセラレータHighLightを提案する。
- 参考スコア(独自算出の注目度): 9.890072008026888
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to complex interactions among various deep neural network (DNN)
optimization techniques, modern DNNs can have weights and activations that are
dense or sparse with diverse sparsity degrees. To offer a good trade-off
between accuracy and hardware performance, an ideal DNN accelerator should have
high flexibility to efficiently translate DNN sparsity into reductions in
energy and/or latency without incurring significant complexity overhead.
This paper introduces hierarchical structured sparsity (HSS), with the key
insight that we can systematically represent diverse sparsity degrees by having
them hierarchically composed from multiple simple sparsity patterns. As a
result, HSS simplifies the underlying hardware since it only needs to support
simple sparsity patterns; this significantly reduces the sparsity acceleration
overhead, which improves efficiency. Motivated by such opportunities, we
propose a simultaneously efficient and flexible accelerator, named HighLight,
to accelerate DNNs that have diverse sparsity degrees (including dense). Due to
the flexibility of HSS, different HSS patterns can be introduced to DNNs to
meet different applications' accuracy requirements. Compared to existing works,
HighLight achieves a geomean of up to 6.4x better energy-delay product (EDP)
across workloads with diverse sparsity degrees, and always sits on the
EDP-accuracy Pareto frontier for representative DNNs.
- Abstract(参考訳): 様々なディープニューラルネットワーク(DNN)最適化技術間の複雑な相互作用のため、現代のDNNは重み付けやアクティベーションを持ち、密度や疎度は様々である。
精度とハードウェア性能の良好なトレードオフを提供するため、理想的なDNNアクセラレータは、大幅な複雑さのオーバーヘッドを招くことなく、DNN間隔を効率よくエネルギーおよび/またはレイテンシの削減に変換する、高い柔軟性を持つ必要がある。
本稿では,階層的構造的疎度 (HSS) を導入し,複数の単純疎度パターンから階層的に構成することで,多様な疎度を体系的に表現できることを示す。
結果として、単純なスパーシティパターンのみをサポートする必要があるため、HSSは基盤となるハードウェアを単純化する。
このような機会に触発された我々は,多種多彩度(高密度を含む)のDNNを加速する,HighLightという,同時に効率的かつ柔軟な加速器を提案する。
HSSの柔軟性のため、異なるアプリケーションの精度要件を満たすために、異なるHSSパターンをDNNに導入することができる。
既存の作業と比較すると、HighLightはワークロード全体で最大6.4倍のエネルギー遅延製品(EDP)を実現しており、常に代表DNNのためのEDP精度のParetoフロンティアに置かれている。
関連論文リスト
- DCP: Learning Accelerator Dataflow for Neural Network via Propagation [52.06154296196845]
この研究は、DNN層の最適なデータフローを人間の努力なしに数秒で自動的に見つけるために、Dataflow Code Propagation (DCP)と呼ばれる効率的なデータ中心のアプローチを提案する。
DCPは、様々な最適化目標を最小化するために、望ましい勾配方向に向けてデータフローコードを効率的に更新する神経予測器を学習する。
例えば、追加のトレーニングデータを使用しないDCPは、数千のサンプルを使用して完全な検索を行うGAMAメソッドを超越している。
論文 参考訳(メタデータ) (2024-10-09T05:16:44Z) - Hardware-Aware DNN Compression via Diverse Pruning and Mixed-Precision
Quantization [1.0235078178220354]
本稿では, プルーニングと量子化を併用してハードウェアに配慮したディープニューラルネットワーク(DNN)の自動圧縮フレームワークを提案する。
われわれのフレームワークはデータセットの平均エネルギー消費量を39%減らし、平均精度損失を1.7%減らし、最先端のアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2023-12-23T18:50:13Z) - MARS: Exploiting Multi-Level Parallelism for DNN Workloads on Adaptive
Multi-Accelerator Systems [27.490645446510033]
本稿では,並列性を最大化するために,計算対応アクセラレータ選択と通信対応シャーディング戦略の適用が可能な新しいマッピングフレームワークを提案する。
その結果,MARS はベースラインと比較して DNN のワークロードの平均で32.2% のレイテンシ削減を達成でき,またヘテロジニアスモデルでは59.4% のレイテンシ削減を実現している。
論文 参考訳(メタデータ) (2023-07-23T05:50:37Z) - Precision-aware Latency and Energy Balancing on Multi-Accelerator
Platforms for DNN Inference [22.9834921448069]
我々は,チップ上で異なるアクセラレーター間で細粒度マッピングを行うハードウェア認識ツールであるODiMOを提案する。
ODiMOは,手動マッピングと比較して,限界精度低下(-0.53%/-0.32%)で,最大33%/31%のエネルギー/遅延を減少させることを示した。
論文 参考訳(メタデータ) (2023-06-08T09:23:46Z) - The Hardware Impact of Quantization and Pruning for Weights in Spiking
Neural Networks [0.368986335765876]
パラメータの量子化とプルーニングは、モデルサイズを圧縮し、メモリフットプリントを削減し、低レイテンシ実行を容易にする。
本研究では,身近な身近なジェスチャー認識システムであるSNNに対して,孤立度,累積的に,そして同時にプルーニングと量子化の様々な組み合わせについて検討する。
本研究では,3次重みまで精度の低下に悩まされることなく,攻撃的パラメータ量子化に対処可能であることを示す。
論文 参考訳(メタデータ) (2023-02-08T16:25:20Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Learning N:M Fine-grained Structured Sparse Neural Networks From Scratch [75.69506249886622]
ディープニューラルネットワーク(DNN)におけるスパーシティは、資源制約された環境でモデルを圧縮し、加速するために広く研究されている。
本稿では,N:M細粒構造スパースネットワークのスクラッチからトレーニングを初めて行う。
論文 参考訳(メタデータ) (2021-02-08T05:55:47Z) - ShiftAddNet: A Hardware-Inspired Deep Network [87.18216601210763]
ShiftAddNetはエネルギー効率のよい乗算レスディープニューラルネットワークである。
エネルギー効率のよい推論とトレーニングの両方につながるが、表現能力は損なわれない。
ShiftAddNetは、DNNのトレーニングと推論において、80%以上のハードウェア量子化されたエネルギーコストを積極的に削減し、同等またはより良い精度を提供する。
論文 参考訳(メタデータ) (2020-10-24T05:09:14Z) - TaxoNN: A Light-Weight Accelerator for Deep Neural Network Training [2.5025363034899732]
本稿では,SGDアルゴリズムを単純な計算要素に分割することで,ベースラインDNNアクセラレータ(推論のみ)にトレーニング能力を付加する手法を提案する。
DNNトレーニングのための軽量加速器であるTaxoNNを提案する。
実験の結果,TaxoNNは実精度よりも平均0.97%,誤分類率が高いことがわかった。
論文 参考訳(メタデータ) (2020-10-11T09:04:19Z) - SmartExchange: Trading Higher-cost Memory Storage/Access for Lower-cost
Computation [97.78417228445883]
We present SmartExchange, a algorithm- hardware co-design framework for energy- efficient inference of Deep Neural Network (DNNs)。
そこで我々は,非零要素がすべてパワー・オブ・ツーである小さな基底行列と大きなスパース係数行列の積として,各重み行列を格納できる,特別に好ましいDNN重み構造を強制する新しいアルゴリズムを開発した。
さらに、SmartExchange強化重量をフル活用し、エネルギー効率と遅延性能の両方を改善するための専用のアクセラレータを設計する。
論文 参考訳(メタデータ) (2020-05-07T12:12:49Z) - An Image Enhancing Pattern-based Sparsity for Real-time Inference on
Mobile Devices [58.62801151916888]
パターンと接続性を組み合わせた新しい空間空間,すなわちパターンベースの空間空間を導入し,高度に正確かつハードウェアに親しみやすいものにした。
新たなパターンベースの空間性に対する我々のアプローチは,モバイルプラットフォーム上での高効率DNN実行のためのコンパイラ最適化に自然に適合する。
論文 参考訳(メタデータ) (2020-01-20T16:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。