論文の概要: QAPPA: Quantization-Aware Power, Performance, and Area Modeling of DNN
Accelerators
- arxiv url: http://arxiv.org/abs/2205.08648v1
- Date: Tue, 17 May 2022 22:08:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-19 14:06:40.643801
- Title: QAPPA: Quantization-Aware Power, Performance, and Area Modeling of DNN
Accelerators
- Title(参考訳): qappa: 量子化認識能力、性能、およびdnn加速器の領域モデリング
- Authors: Ahmet Inci, Siri Garudanagiri Virupaksha, Aman Jain, Venkata Vivek
Thallam, Ruizhou Ding, Diana Marculescu
- Abstract要約: 本稿では,量子化対応処理要素をアクセラレーション設計空間に組み込んだフレームワークを提案する。
提案する軽量処理素子は, 面積あたりの4.9倍の性能向上とエネルギー効率の向上を実現している。
その結果,異なるビット精度と処理要素のタイプが,面積とエネルギーあたりのパフォーマンスに有意な差をもたらすことがわかった。
- 参考スコア(独自算出の注目度): 11.408950820860884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the machine learning and systems community strives to achieve higher
energy-efficiency through custom DNN accelerators and model compression
techniques, there is a need for a design space exploration framework that
incorporates quantization-aware processing elements into the accelerator design
space while having accurate and fast power, performance, and area models. In
this work, we present QAPPA, a highly parameterized quantization-aware power,
performance, and area modeling framework for DNN accelerators. Our framework
can facilitate the future research on design space exploration of DNN
accelerators for various design choices such as bit precision, processing
element type, scratchpad sizes of processing elements, global buffer size,
device bandwidth, number of total processing elements in the the design, and
DNN workloads. Our results show that different bit precisions and processing
element types lead to significant differences in terms of performance per area
and energy. Specifically, our proposed lightweight processing elements achieve
up to 4.9x more performance per area and energy improvement when compared to
INT16 based implementation.
- Abstract(参考訳): 機械学習とシステムコミュニティは、カスタムDNNアクセラレータやモデル圧縮技術を通じて、より高いエネルギー効率を達成するために努力しているため、正確で高速なパワー、パフォーマンス、領域モデルを持ちながら、量子化対応の処理要素をアクセラレータデザイン空間に組み込むデザインスペース探索フレームワークが必要である。
本稿では,DNNアクセラレータのための高パラメータ化量子化対応パワー,性能,領域モデリングフレームワークQAPPAを提案する。
我々のフレームワークは、ビット精度、処理要素タイプ、処理要素のスクラッチパッドサイズ、グローバルバッファサイズ、デバイス帯域幅、設計における全処理要素数、dnnワークロードなど、様々な設計選択のためのdnnアクセラレータの設計スペース探索に関する将来の研究を促進することができる。
その結果,異なるビット精度と処理要素のタイプは,面積とエネルギーあたりの性能に大きな違いをもたらすことがわかった。
特に,提案する軽量処理素子は,INT16による実装と比較して,面積あたり4.9倍の性能向上とエネルギー効率の向上を実現している。
関連論文リスト
- DCP: Learning Accelerator Dataflow for Neural Network via Propagation [52.06154296196845]
この研究は、DNN層の最適なデータフローを人間の努力なしに数秒で自動的に見つけるために、Dataflow Code Propagation (DCP)と呼ばれる効率的なデータ中心のアプローチを提案する。
DCPは、様々な最適化目標を最小化するために、望ましい勾配方向に向けてデータフローコードを効率的に更新する神経予測器を学習する。
例えば、追加のトレーニングデータを使用しないDCPは、数千のサンプルを使用して完全な検索を行うGAMAメソッドを超越している。
論文 参考訳(メタデータ) (2024-10-09T05:16:44Z) - Compositional Generative Inverse Design [69.22782875567547]
入力変数を設計して目的関数を最適化する逆設計は重要な問題である。
拡散モデルにより得られた学習エネルギー関数を最適化することにより、そのような逆例を避けることができることを示す。
N-body 相互作用タスクと2次元多面体設計タスクにおいて,実験時に学習した拡散モデルを構成することにより,初期状態と境界形状を設計できることを示す。
論文 参考訳(メタデータ) (2024-01-24T01:33:39Z) - End-to-end codesign of Hessian-aware quantized neural networks for FPGAs
and ASICs [49.358119307844035]
我々は、共設計ニューラルネットワーク(NN)のトレーニングと実装のためのエンドツーエンドワークフローを開発する。
これにより、ハードウェアにおける効率的なNN実装が、非専門家に、単一のオープンソースワークフローでアクセスできるようになる。
大型ハドロン衝突型加速器(LHC)の40MHz衝突速度で動作しなければならないトリガー決定を含む粒子物理学アプリケーションにおけるワークフローを実演する。
シミュレーションLHC陽子-陽子衝突における高速粒子ジェット用混合精度NNを実装した。
論文 参考訳(メタデータ) (2023-04-13T18:00:01Z) - DeepAxe: A Framework for Exploration of Approximation and Reliability
Trade-offs in DNN Accelerators [0.9556128246747769]
安全クリティカルなアプリケーションにおけるディープニューラルネットワーク(DNN)の役割は拡大している。
DNNは計算能力の面で大きく成長している。
これは、DNNアクセラレーターの信頼性を向上させる必要性を高める。
論文 参考訳(メタデータ) (2023-03-14T20:42:38Z) - The Hardware Impact of Quantization and Pruning for Weights in Spiking
Neural Networks [0.368986335765876]
パラメータの量子化とプルーニングは、モデルサイズを圧縮し、メモリフットプリントを削減し、低レイテンシ実行を容易にする。
本研究では,身近な身近なジェスチャー認識システムであるSNNに対して,孤立度,累積的に,そして同時にプルーニングと量子化の様々な組み合わせについて検討する。
本研究では,3次重みまで精度の低下に悩まされることなく,攻撃的パラメータ量子化に対処可能であることを示す。
論文 参考訳(メタデータ) (2023-02-08T16:25:20Z) - QUIDAM: A Framework for Quantization-Aware DNN Accelerator and Model
Co-Exploration [16.41338353426051]
QUIDAMは量子化対応のディープニューラルネットワーク(DNN)アクセラレータで、モデル共同探索フレームワークである。
その結果,異なるビット精度と処理要素のタイプが,面積とエネルギーあたりのパフォーマンスに有意な差をもたらすことがわかった。
提案フレームワークは, 面積毎の性能が5倍, エネルギー毎の性能が35倍を超える幅広い設計点を同定する。
論文 参考訳(メタデータ) (2022-06-30T17:55:50Z) - QADAM: Quantization-Aware DNN Accelerator Modeling for Pareto-Optimality [11.408950820860884]
本稿では,DNNアクセラレータのための高パラメータ化量子化対応パワー,性能,領域モデリングフレームワークQADAMを提案する。
この結果から,ビット精度とPEタイプの違いが,面積とエネルギーあたりの性能に有意な差をもたらすことが明らかとなった。
提案手法により,LightPEの精度は同等であり,面積当たりの性能は最大5.7倍,エネルギー効率は最大5.7倍に向上した。
論文 参考訳(メタデータ) (2022-05-20T21:05:56Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - SECDA: Efficient Hardware/Software Co-Design of FPGA-based DNN
Accelerators for Edge Inference [0.0]
本稿では,FPGAを用いたエッジデバイス上でのDeep Neural Networks (DNN) 推論アクセラレータの設計時間を短縮するハードウェア/ソフトウェア共同設計手法であるSECDAを提案する。
SECDAを用いて、エッジFPGAを含むプラットフォームであるPYNQ-Z1基板上で、2つの異なるDNNアクセラレータ設計を効率的に開発する。
我々は,4つの一般的なDNNモデルを用いた2つの加速器設計を評価し,CPUのみの推論よりもエネルギー消費を2.9$times$で3.5$times$までのモデルで平均性能を向上した。
論文 参考訳(メタデータ) (2021-10-01T15:20:29Z) - SmartExchange: Trading Higher-cost Memory Storage/Access for Lower-cost
Computation [97.78417228445883]
We present SmartExchange, a algorithm- hardware co-design framework for energy- efficient inference of Deep Neural Network (DNNs)。
そこで我々は,非零要素がすべてパワー・オブ・ツーである小さな基底行列と大きなスパース係数行列の積として,各重み行列を格納できる,特別に好ましいDNN重み構造を強制する新しいアルゴリズムを開発した。
さらに、SmartExchange強化重量をフル活用し、エネルギー効率と遅延性能の両方を改善するための専用のアクセラレータを設計する。
論文 参考訳(メタデータ) (2020-05-07T12:12:49Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。