論文の概要: NPS: A Framework for Accurate Program Sampling Using Graph Neural
Network
- arxiv url: http://arxiv.org/abs/2304.08880v1
- Date: Tue, 18 Apr 2023 10:13:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 15:18:56.080801
- Title: NPS: A Framework for Accurate Program Sampling Using Graph Neural
Network
- Title(参考訳): NPS: グラフニューラルネットワークを用いたプログラムサンプリングのためのフレームワーク
- Authors: Yuanwei Fang, Zihao Liu, Yanheng Lu, Jiawei Liu, Jiajie Li, Yi Jin,
Jian Chen, Yenkuang Chen, Hongzhong Zheng, Yuan Xie
- Abstract要約: 本稿では,グラフニューラルネットワークの動的スナップショットを用いて,実行の埋め込みを学習する新しいフレームワークであるNeural Program Sampling(NPS)を紹介する。
AssemblyNetはNPSのグラフモデルとニューラルアーキテクチャとして機能し、プログラムの振る舞いをデータ計算、コードパス、データフローといった面でキャプチャする。
NPSは、コードビヘイビア学習における最先端のGNNアプローチよりも精度と汎用性が高く、高品質な実行埋め込みを生成することができる。
- 参考スコア(独自算出の注目度): 23.021249354193305
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the end of Moore's Law, there is a growing demand for rapid
architectural innovations in modern processors, such as RISC-V custom
extensions, to continue performance scaling. Program sampling is a crucial step
in microprocessor design, as it selects representative simulation points for
workload simulation. While SimPoint has been the de-facto approach for decades,
its limited expressiveness with Basic Block Vector (BBV) requires
time-consuming human tuning, often taking months, which impedes fast innovation
and agile hardware development. This paper introduces Neural Program Sampling
(NPS), a novel framework that learns execution embeddings using dynamic
snapshots of a Graph Neural Network. NPS deploys AssemblyNet for embedding
generation, leveraging an application's code structures and runtime states.
AssemblyNet serves as NPS's graph model and neural architecture, capturing a
program's behavior in aspects such as data computation, code path, and data
flow. AssemblyNet is trained with a data prefetch task that predicts
consecutive memory addresses.
In the experiments, NPS outperforms SimPoint by up to 63%, reducing the
average error by 38%. Additionally, NPS demonstrates strong robustness with
increased accuracy, reducing the expensive accuracy tuning overhead.
Furthermore, NPS shows higher accuracy and generality than the state-of-the-art
GNN approach in code behavior learning, enabling the generation of high-quality
execution embeddings.
- Abstract(参考訳): ムーアの法則の終了により、RISC-Vカスタム拡張のような最新のプロセッサの急速なアーキテクチャ革新がパフォーマンスのスケーリングを継続する需要が高まっている。
プログラムサンプリングは、ワークロードシミュレーションの代表的なシミュレーションポイントを選択するため、マイクロプロセッサ設計において重要なステップである。
SimPointは何十年にもわたってデファクトのアプローチだったが、Basic Block Vector(BBV)との限定的な表現力は、数ヶ月を要し、高速なイノベーションとアジャイルなハードウェア開発を妨げる。
本稿では,グラフニューラルネットワークの動的スナップショットを用いて実行埋め込みを学習する新しいフレームワークであるneural program sampling (nps)を提案する。
NPSは、アプリケーションのコード構造とランタイム状態を活用する、アセンブリネットを組み込み生成用にデプロイする。
AssemblyNetはNPSのグラフモデルとニューラルアーキテクチャとして機能し、プログラムの振る舞いをデータ計算、コードパス、データフローといった面でキャプチャする。
AssemblyNetは、連続するメモリアドレスを予測するデータプリフェッチタスクでトレーニングされる。
実験では、NPSはSimPointを最大63%上回り、平均誤差を38%削減した。
さらに、NPSは高い精度で堅牢性を示し、高い精度のチューニングオーバーヘッドを低減する。
さらに、NPSは、コード振る舞い学習における最先端のGNNアプローチよりも精度と汎用性が高く、高品質な実行埋め込みを生成することができる。
関連論文リスト
- Spatiotemporal Forecasting Meets Efficiency: Causal Graph Process Neural Networks [5.703629317205571]
Causal Graph Graph Processs (CGP) は、リレーショナルフィールド層の代わりにグラフフィルタを使用してパラメータを削減し、メモリ消費を最小限にする代替手段を提供する。
本稿では,CGPとGNNを組み合わせて時間予測を行う非線形モデルを提案する。CGProNetは高階グラフフィルタを採用し,パラメータの少ないモデルに最適化し,メモリ使用量を削減し,実行効率を向上させる。
論文 参考訳(メタデータ) (2024-05-29T08:37:48Z) - YFlows: Systematic Dataflow Exploration and Code Generation for
Efficient Neural Network Inference using SIMD Architectures on CPUs [3.1445034800095413]
CPU上にニューラルネットワークをデプロイする際の課題に対処する。
我々の新しいアプローチは、ニューラルネットワークのデータフローを使用して、データ再利用の機会を探ることです。
その結果,SIMDレジスタに出力を保持するデータフローが常に最高の性能を示すことがわかった。
論文 参考訳(メタデータ) (2023-10-01T05:11:54Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Fluid Batching: Exit-Aware Preemptive Serving of Early-Exit Neural
Networks on Edge NPUs [74.83613252825754]
スマートエコシステム(smart ecosystems)"は、スタンドアロンではなく、センセーションが同時に行われるように形成されています。
これはデバイス上の推論パラダイムを、エッジにニューラル処理ユニット(NPU)をデプロイする方向にシフトしている。
そこで本研究では,実行時のプリエンプションが到着・終了プロセスによってもたらされる動的性を考慮に入れた,新しい早期終了スケジューリングを提案する。
論文 参考訳(メタデータ) (2022-09-27T15:04:01Z) - Sparse Periodic Systolic Dataflow for Lowering Latency and Power
Dissipation of Convolutional Neural Network Accelerators [3.043665249713003]
本稿では,SPS(Sparse periodic systolic)データフローについて紹介する。
PPSの規則性を活用することで、スパシティ対応コンパイラは重みを最適に並べ替え、ハードウェアの単純なインデックス化ユニットを使用して重みとアクティベーションの一致を生成する。
論文 参考訳(メタデータ) (2022-06-30T19:16:46Z) - AEGNN: Asynchronous Event-based Graph Neural Networks [54.528926463775946]
イベントベースのグラフニューラルネットワークは、標準のGNNを一般化して、イベントを"進化的"時間グラフとして処理する。
AEGNNは同期入力で容易に訓練でき、テスト時に効率的な「非同期」ネットワークに変換できる。
論文 参考訳(メタデータ) (2022-03-31T16:21:12Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Learning to Execute Programs with Instruction Pointer Attention Graph
Neural Networks [55.98291376393561]
グラフニューラルネットワーク(GNN)は、ソフトウェアエンジニアリングタスクを学習するための強力なツールとして登場した。
リカレントニューラルネットワーク(RNN)は、長いシーケンシャルな推論の連鎖に適しているが、プログラム構造を自然に組み込んでいるわけではない。
本稿では,新しいGNNアーキテクチャ,IPA-GNN(Instruction Pointer Attention Graph Neural Networks)を導入する。
論文 参考訳(メタデータ) (2020-10-23T19:12:30Z) - CSM-NN: Current Source Model Based Logic Circuit Simulation -- A Neural
Network Approach [5.365198933008246]
CSM-NNは、最適化されたニューラルネットワーク構造と処理アルゴリズムを備えたスケーラブルなシミュレーションフレームワークである。
実験によると、CSM-NNはCPU上で動作する最先端のソースモデルベースのシミュレータと比較して、シミュレーション時間を最大6倍に短縮する。
CSM-NNはまた、HSPICEと比較して2%以下の誤差で高い精度のレベルを提供する。
論文 参考訳(メタデータ) (2020-02-13T00:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。