論文の概要: Pyxis: An Open-Source Performance Dataset of Sparse Accelerators
- arxiv url: http://arxiv.org/abs/2110.04280v1
- Date: Fri, 8 Oct 2021 17:46:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-11 16:51:13.665148
- Title: Pyxis: An Open-Source Performance Dataset of Sparse Accelerators
- Title(参考訳): pyxis: スパースアクセラレータのオープンソースパフォーマンスデータセット
- Authors: Linghao Song, Yuze Chi, Jason Cong
- Abstract要約: PYXISはスパースデータ上の特別なアクセラレータのパフォーマンスデータセットである。
PYXISはオープンソースであり、新しいアクセラレータ設計とパフォーマンス統計でPYXISを常に成長させています。
- 参考スコア(独自算出の注目度): 10.18035715512647
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Specialized accelerators provide gains of performance and efficiency in
specific domains of applications. Sparse data structures or/and representations
exist in a wide range of applications. However, it is challenging to design
accelerators for sparse applications because no analytic architecture or
performance-level models are able to fully capture the spectrum of the sparse
data. Accelerator researchers rely on real execution to get precise feedback
for their designs. In this work, we present PYXIS, a performance dataset for
specialized accelerators on sparse data. PYXIS collects accelerator designs and
real execution performance statistics. Currently, there are 73.8 K instances in
PYXIS. PYXIS is open-source, and we are constantly growing PYXIS with new
accelerator designs and performance statistics. PYXIS can benefit researchers
in the fields of accelerator, architecture, performance, algorithm, and many
related topics.
- Abstract(参考訳): 特別なアクセラレータは、特定のアプリケーション領域のパフォーマンスと効率性を提供する。
スパースデータ構造や/および表現は広範囲のアプリケーションに存在する。
しかし、分析アーキテクチャや性能レベルのモデルではスパースデータのスペクトルを完全に把握できないため、スパースアプリケーションのアクセラレータを設計することは困難である。
アクセラレーター研究者は、設計の正確なフィードバックを得るために実際の実行に依存している。
本研究では,スパースデータに基づく特別アクセラレータのパフォーマンスデータセットであるPYXISを提案する。
PYXISはアクセル設計と実実行性能統計を収集する。
現在、PYXISには73.8Kのインスタンスがある。
PYXISはオープンソースであり、新しいアクセラレータ設計とパフォーマンス統計でPYXISを常に成長させています。
pyxisは、アクセラレータ、アーキテクチャ、パフォーマンス、アルゴリズム、および多くの関連するトピックの分野の研究者に役立つ。
関連論文リスト
- Automatic Generation of Fast and Accurate Performance Models for Deep Neural Network Accelerators [33.18173790144853]
本稿では,Deep Neural Networks (DNN) のレイテンシを正確に推定する高速性能モデルのための自動生成手法を提案する。
我々は、Gemmini、UltraTrail、Plastinine由来、パラメータ化可能なシストリックアレイなどの代表的DNNアクセラレータをモデル化した。
ループカーネルを154回繰り返して評価し,419億命令のパフォーマンスを推定し,大幅な高速化を実現した。
論文 参考訳(メタデータ) (2024-09-13T07:27:55Z) - HASS: Hardware-Aware Sparsity Search for Dataflow DNN Accelerator [47.66463010685586]
本稿では,ソフトウェアとハードウェアの共同最適化を用いて,非構造的ウェイトとデータフローアクセラレーターの疎結合性を利用した新しい手法を提案する。
我々は既存のスパース設計と比較して1.3$times$から4.2$times$までの効率改善を実現している。
論文 参考訳(メタデータ) (2024-06-05T09:25:18Z) - Efflex: Efficient and Flexible Pipeline for Spatio-Temporal Trajectory Graph Modeling and Representation Learning [8.690298376643959]
グラフモデリングと大規模時間軌道の学習のための包括的パイプラインであるEfflexを紹介する。
Efflexは、グラフ構築のための特徴融合を伴う多体積ケストニア隣人(KNN)アルゴリズムの組み入れを先駆している。
グラウンディンググラフ構築機構と高性能軽量GCNは、埋め込み抽出速度を最大36倍高速化する。
論文 参考訳(メタデータ) (2024-04-15T05:36:27Z) - Using the Abstract Computer Architecture Description Language to Model
AI Hardware Accelerators [77.89070422157178]
AI統合製品の製造者は、製品のパフォーマンス要件に適合するアクセラレータを選択するという、重大な課題に直面します。
抽象コンピュータアーキテクチャ記述言語(ACADL)は、コンピュータアーキテクチャブロック図の簡潔な形式化である。
本稿では,AIハードウェアアクセラレーションのモデル化にACADLを用いること,DNNのマッピングにACADL記述を使用し,タイミングシミュレーションのセマンティクスを解説し,性能評価結果の収集を行う。
論文 参考訳(メタデータ) (2024-01-30T19:27:16Z) - NumS: Scalable Array Programming for the Cloud [82.827921577004]
タスクベース分散システム上でNumPyのような表現を最適化する配列プログラミングライブラリであるNumSを提案する。
これはLoad Simulated Hierarchical Scheduling (LSHS)と呼ばれる新しいスケジューラによって実現される。
LSHSは、ネットワーク負荷を2倍減らし、メモリを4倍減らし、ロジスティック回帰問題において実行時間を10倍減らし、Rayの性能を向上させる。
論文 参考訳(メタデータ) (2022-06-28T20:13:40Z) - Sparseloop: An Analytical Approach To Sparse Tensor Accelerator Modeling [10.610523739702971]
本稿ではまず,多種多様なテンソル型加速器の設計空間を体系的に記述する統合分類法を提案する。
提案された分類に基づいて、最初の高速で正確で柔軟な分析モデリングフレームワークであるSparseloopを導入した。
Sparseloopは、さまざまなデータフローやスパースアクセラレーション機能を含む、大規模なアーキテクチャ仕様を理解している。
論文 参考訳(メタデータ) (2022-05-12T01:28:03Z) - Data-Driven Offline Optimization For Architecting Hardware Accelerators [89.68870139177785]
PRIMEと呼ばれるハードウェアアクセラレータを設計するための,データ駆動型オフライン最適化手法を開発した。
PRIMEは、最先端のシミュレーション駆動方式の性能を約1.54倍と1.20倍に改善し、必要な総シミュレーション時間をそれぞれ93%と99%削減する。
さらにPRIMEは、ゼロショット設定で見えないアプリケーションのための効果的なアクセラレーターを設計し、シミュレーションベースの手法を1.26倍に向上させた。
論文 参考訳(メタデータ) (2021-10-20T17:06:09Z) - Union: A Unified HW-SW Co-Design Ecosystem in MLIR for Evaluating Tensor
Operations on Spatial Accelerators [4.055002321981825]
We present a HW-SW co-design ecosystem for space accelerators called Union。
我々のフレームワークは、いくつかのアクセラレータコストモデル上で、異なるアルゴリズムとそのマッピングを探索することができる。
コミュニティにとってのユニオンの価値をいくつかのケーススタディで実証する。
論文 参考訳(メタデータ) (2021-09-15T16:42:18Z) - Evaluating Spatial Accelerator Architectures with Tiled Matrix-Matrix
Multiplication [4.878665155352402]
我々は,所定の空間加速器とワークロードの組み合わせに対して,階層化されたGEMMに対して最適化されたマッピングを求めるフレームワークを開発する。
5つの空間加速器を用いた評価結果から,本フレームワークが系統的に生成したGEMMマッピングは高い性能を発揮することが示された。
論文 参考訳(メタデータ) (2021-06-19T13:53:58Z) - Providing Meaningful Data Summarizations Using Examplar-based Clustering
in Industry 4.0 [67.80123919697971]
我々は,従来のCPUアルゴリズムと比較して,一精度で最大72倍,半精度で最大452倍の高速化を実現していることを示す。
提案アルゴリズムは射出成形プロセスから得られた実世界のデータに適用し, 得られたサマリーが, コスト削減と不良部品製造の削減のために, この特定のプロセスのステアリングにどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2021-05-25T15:55:14Z) - DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning [135.27931587381596]
DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
論文 参考訳(メタデータ) (2019-05-28T06:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。