論文の概要: STONNE: A Detailed Architectural Simulator for Flexible Neural Network
Accelerators
- arxiv url: http://arxiv.org/abs/2006.07137v1
- Date: Wed, 10 Jun 2020 19:20:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 06:43:13.149212
- Title: STONNE: A Detailed Architectural Simulator for Flexible Neural Network
Accelerators
- Title(参考訳): STONNE: フレキシブルニューラルネットワーク加速器のための詳細なアーキテクチャシミュレータ
- Authors: Francisco Mu\~noz-Mart\'inez, Jos\'e L. Abell\'an, Manuel E. Acacio,
Tushar Krishna
- Abstract要約: STONNEはサイクル精度が高く、高度にモジュール化され、高度に拡張可能なシミュレーションフレームワークである。
一般に公開されているBSV符号化MAERIの実装の性能結果にどのように近づくかを示す。
- 参考スコア(独自算出の注目度): 5.326345912766044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The design of specialized architectures for accelerating the inference
procedure of Deep Neural Networks (DNNs) is a booming area of research
nowadays. First-generation rigid proposals have been rapidly replaced by more
advanced flexible accelerator architectures able to efficiently support a
variety of layer types and dimensions. As the complexity of the designs grows,
it is more and more appealing for researchers to have cycle-accurate simulation
tools at their disposal to allow for fast and accurate design-space
exploration, and rapid quantification of the efficacy of architectural
enhancements during the early stages of a design. To this end, we present
STONNE (Simulation TOol of Neural Network Engines), a cycle-accurate,
highly-modular and highly-extensible simulation framework that enables
end-to-end evaluation of flexible accelerator architectures running complete
contemporary DNN models. We use STONNE to model the recently proposed MAERI
architecture and show how it can closely approach the performance results of
the publicly available BSV-coded MAERI implementation. Then, we conduct a
comprehensive evaluation and demonstrate that the folding strategy implemented
for MAERI results in very low compute unit utilization (25% on average across 5
DNN models) which in the end translates into poor performance.
- Abstract(参考訳): 近年,Deep Neural Networks (DNN) の推論手順を高速化する特化アーキテクチャの設計が盛んに行われている。
第一世代の厳密な提案は、様々な層タイプと次元を効率的にサポートできるより高度な柔軟な加速器アーキテクチャに急速に置き換えられた。
設計の複雑さが増大するにつれて、設計の初期段階において、設計空間の迅速かつ正確な探索と、アーキテクチャ拡張の有効性の迅速な定量化を可能にするために、研究者がサイクル精度のシミュレーションツールを組み込むことがますます魅力的になる。
この目的のために,完全同時代のDNNモデルを実行するフレキシブルアクセラレーションアーキテクチャのエンドツーエンド評価を可能にする,サイクル精度,高モジュラー,高拡張性シミュレーションフレームワークSTONNE(Simulation Tool of Neural Network Engines)を提案する。
我々は最近提案されたMAERIアーキテクチャをモデル化するためにSTONNEを使用し、公開されているBSV符号化MAERI実装の性能結果にどのようにアプローチできるかを示す。
そして,MAERI に実装された折り畳み戦略を総合的に評価し,計算単位利用率が非常に低く (平均 5 DNN モデルで25% ) ,最終的に性能が低下することを示す。
関連論文リスト
- A Realistic Simulation Framework for Analog/Digital Neuromorphic Architectures [73.65190161312555]
ARCANAは、混合信号ニューロモルフィック回路の特性を考慮に入れたスパイクニューラルネットワークシミュレータである。
その結果,ソフトウェアでトレーニングしたスパイクニューラルネットワークの挙動を,信頼性の高い推定結果として提示した。
論文 参考訳(メタデータ) (2024-09-23T11:16:46Z) - Automatic Generation of Fast and Accurate Performance Models for Deep Neural Network Accelerators [33.18173790144853]
本稿では,Deep Neural Networks (DNN) のレイテンシを正確に推定する高速性能モデルのための自動生成手法を提案する。
我々は、Gemmini、UltraTrail、Plastinine由来、パラメータ化可能なシストリックアレイなどの代表的DNNアクセラレータをモデル化した。
ループカーネルを154回繰り返して評価し,419億命令のパフォーマンスを推定し,大幅な高速化を実現した。
論文 参考訳(メタデータ) (2024-09-13T07:27:55Z) - GPU-RANC: A CUDA Accelerated Simulation Framework for Neuromorphic Architectures [1.3401966602181168]
ニューロモーフィックコンピューティングのための再構成可能なアーキテクチャ(RANC)のGPUによる実装について紹介する。
512個のニューロモルフィックコアMNIST推論アプリケーションに基づくRANCシミュレータのシリアルバージョンと比較して,最大780倍の高速化を示した。
論文 参考訳(メタデータ) (2024-04-24T21:08:21Z) - Mechanistic Design and Scaling of Hybrid Architectures [114.3129802943915]
我々は、様々な計算プリミティブから構築された新しいハイブリッドアーキテクチャを特定し、テストする。
本研究では,大規模計算最適法則と新しい状態最適スケーリング法則解析を用いて,結果のアーキテクチャを実験的に検証する。
我々は,MAD合成法と計算-最適パープレキシティを相関させ,新しいアーキテクチャの正確な評価を可能にする。
論文 参考訳(メタデータ) (2024-03-26T16:33:12Z) - Neural Architecture Codesign for Fast Bragg Peak Analysis [1.7081438846690533]
我々は,高速かつリアルタイムなブラッグピーク解析のためのニューラルネットワーク符号の合理化のための自動パイプラインを開発した。
我々の手法では、ハードウェアコストを含むこれらのモデルを強化するために、ニューラルアーキテクチャ検索とAutoMLを使用し、よりハードウェア効率の良いニューラルアーキテクチャの発見に繋がる。
論文 参考訳(メタデータ) (2023-12-10T19:42:18Z) - Disentangling Structured Components: Towards Adaptive, Interpretable and
Scalable Time Series Forecasting [52.47493322446537]
本研究では,時空間パターンの各コンポーネントを個別にモデル化する適応的,解釈可能,スケーラブルな予測フレームワークを開発する。
SCNNは、空間時間パターンの潜在構造を算術的に特徴づける、MSSの事前定義された生成プロセスで動作する。
SCNNが3つの実世界のデータセットの最先端モデルよりも優れた性能を達成できることを示すため、大規模な実験が行われた。
論文 参考訳(メタデータ) (2023-05-22T13:39:44Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z) - Dynamically Grown Generative Adversarial Networks [111.43128389995341]
本稿では、ネットワークアーキテクチャとそのパラメータを自動化とともに最適化し、トレーニング中にGANを動的に成長させる手法を提案する。
本手法はアーキテクチャ探索手法を勾配に基づく訓練とインターリーブステップとして組み込んで,ジェネレータと識別器の最適アーキテクチャ成長戦略を定期的に探究する。
論文 参考訳(メタデータ) (2021-06-16T01:25:51Z) - NeuroXplorer 1.0: An Extensible Framework for Architectural Exploration
with Spiking Neural Networks [3.9121275263540087]
本稿では、ニューロモルフィックアーキテクチャをモデル化するための一般化テンプレートに基づくフレームワークであるNeuroXplorerを提案する。
NeuroXplorerは、低レベルのサイクル精度アーキテクチャシミュレーションと、データフローの抽象化による高レベルの解析の両方を実行することができる。
我々は,多くの最先端機械学習モデルを用いたケーススタディを通じて,NeuroXplorerのアーキテクチャ探索能力を実証する。
論文 参考訳(メタデータ) (2021-05-04T23:31:11Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。