論文の概要: High-Level Synthesis Performance Prediction using GNNs: Benchmarking,
Modeling, and Advancing
- arxiv url: http://arxiv.org/abs/2201.06848v1
- Date: Tue, 18 Jan 2022 09:53:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 18:30:59.035052
- Title: High-Level Synthesis Performance Prediction using GNNs: Benchmarking,
Modeling, and Advancing
- Title(参考訳): GNNを用いた高レベル合成性能予測:ベンチマーク、モデリング、改善
- Authors: Nan Wu, Hang Yang, Yuan Xie, Pan Li, Cong Hao
- Abstract要約: アジャイルハードウェア開発には、初期の設計段階から高速で正確な回路品質の評価が必要である。
本稿では,C/C++プログラムをグラフとして表現することで,グラフニューラルネットワーク(GNN)の表現力を生かした高速かつ正確な性能モデリングを提案する。
提案する予測器はHLSを最大40倍に上回り,既存の予測器を2倍から5倍に上回っている。
- 参考スコア(独自算出の注目度): 21.8349113634555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Agile hardware development requires fast and accurate circuit quality
evaluation from early design stages. Existing work of high-level synthesis
(HLS) performance prediction usually needs extensive feature engineering after
the synthesis process. To expedite circuit evaluation from as earlier design
stage as possible, we propose a rapid and accurate performance modeling,
exploiting the representation power of graph neural networks (GNNs) by
representing C/C++ programs as graphs. The contribution of this work is
three-fold. First, we build a standard benchmark containing 40k C synthesizable
programs, which includes both synthetic programs and three sets of real-world
HLS benchmarks. Each program is implemented on FPGA to generate ground-truth
performance metrics. Second, we formally formulate the HLS performance
prediction problem on graphs, and propose multiple modeling strategies with
GNNs that leverage different trade-offs between prediction timeliness
(early/late prediction) and accuracy. Third, we further propose a novel
hierarchical GNN that does not sacrifice timeliness but largely improves
prediction accuracy, significantly outperforming HLS tools. We apply extensive
evaluations for both synthetic and unseen real-case programs; our proposed
predictor largely outperforms HLS by up to 40X and excels existing predictors
by 2X to 5X in terms of resource usage and timing prediction.
- Abstract(参考訳): アジャイルハードウェア開発には、初期の設計段階から高速で正確な回路品質の評価が必要である。
高レベル合成(HLS)性能予測の既存の作業は通常、合成プロセス後に広範な特徴工学を必要とする。
そこで本研究では,c/c++プログラムをグラフとして表現することで,グラフニューラルネットワーク(gnns)の表現能力を活用し,回路評価をできるだけ早く行うための高速かつ高精度な性能モデリング手法を提案する。
この作品の貢献は3倍である。
まず、40kCの合成可能プログラムを含む標準ベンチマークを構築し、合成プログラムと実世界の3つのHLSベンチマークを含む。
各プログラムはFPGA上に実装され、基調性能メトリクスを生成する。
第2に,グラフ上でのHLS性能予測問題を公式化し,予測スケジュール(早期/後期予測)と精度の異なるトレードオフを利用するGNNを用いた複数のモデリング戦略を提案する。
第3に, 時系列を犠牲にせず, 予測精度が大幅に向上し, hlsツールを大きく上回る階層型gnnを提案する。
提案する予測器はhlsを最大40倍に上回り,既存の予測器の2倍から5倍の資源使用率とタイミング予測に優れている。
関連論文リスト
- rule4ml: An Open-Source Tool for Resource Utilization and Latency Estimation for ML Models on FPGA [0.0]
本稿では、FPGA上での合成と実装に先立って、ニューラルネットワーク(NN)のリソース利用と推論遅延を予測する新しい手法を提案する。
NNを高レベル合成(HLS)コードに変換するツールフローであるHLS4MLを活用している。
本手法では, 即時前合成予測に適応した回帰モデルを用いる。
論文 参考訳(メタデータ) (2024-08-09T19:35:10Z) - PerfSAGE: Generalized Inference Performance Predictor for Arbitrary Deep
Learning Models on Edge Devices [8.272409756443539]
本稿では、任意のDNNliteグラフ上の推論遅延、エネルギー、メモリフットプリントを予測する新しいグラフニューラルネットワークであるPerfSAGEについて述べる。
このデータセットを用いて、PerfSAGEをトレーニングし、すべてのターゲットとモデル検索空間にわたって平均絶対パーセンテージ誤差の5%で最先端の予測精度を示す実験結果を提供する。
論文 参考訳(メタデータ) (2023-01-26T08:59:15Z) - Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - TEP-GNN: Accurate Execution Time Prediction of Functional Tests using
Graph Neural Networks [5.899031548148629]
我々は,TEP-GNNと呼ばれる予測モデルを提案し,精度の高い性能予測が可能であることを実証した。
TEP-GNNは、グラフベースのコード表現アプローチとしてFA-ASTまたはフロー拡張ASTを使用する。
プロジェクト公開リポジトリから抽出した922のテストファイルに基づいて,4つのJavaオープンソースプログラムを用いてTEP-GNNを評価した。
論文 参考訳(メタデータ) (2022-08-25T09:08:32Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - Hybrid Graph Models for Logic Optimization via Spatio-Temporal
Information [15.850413267830522]
EDAにおけるプロダクション対応MLアプリケーションを妨げるおもな懸念点は、正確性要件と一般化能力である。
本稿では,高精度なQoR推定に対するハイブリッドグラフニューラルネットワーク(GNN)に基づくアプローチを提案する。
3.3百万のデータポイントの評価によると、トレーニング中に見つからないデザインの絶対パーセンテージエラー(MAPE)は1.2%と3.1%に満たない。
論文 参考訳(メタデータ) (2022-01-20T21:12:22Z) - A Graph Deep Learning Framework for High-Level Synthesis Design Space
Exploration [11.154086943903696]
High-Level Synthesisは、アプリケーション固有の高速プロトタイピングのためのソリューションである。
本稿では,加速性能とハードウェアコストを共同で予測するグラフニューラルネットワークHLSを提案する。
提案手法は,一般的なシミュレータと同等の精度で予測できることを示す。
論文 参考訳(メタデータ) (2021-11-29T18:17:45Z) - Towards More Fine-grained and Reliable NLP Performance Prediction [85.78131503006193]
NLPタスクのパフォーマンス予測の改善に2つの貢献をしている。
まず,F1やBLEUのような総合的な精度測定のための性能予測器について検討する。
次に,信頼区間とキャリブレーションの2つの角度から性能予測モデルの信頼性を理解する手法を提案する。
論文 参考訳(メタデータ) (2021-02-10T15:23:20Z) - Learning to Execute Programs with Instruction Pointer Attention Graph
Neural Networks [55.98291376393561]
グラフニューラルネットワーク(GNN)は、ソフトウェアエンジニアリングタスクを学習するための強力なツールとして登場した。
リカレントニューラルネットワーク(RNN)は、長いシーケンシャルな推論の連鎖に適しているが、プログラム構造を自然に組み込んでいるわけではない。
本稿では,新しいGNNアーキテクチャ,IPA-GNN(Instruction Pointer Attention Graph Neural Networks)を導入する。
論文 参考訳(メタデータ) (2020-10-23T19:12:30Z) - FBNetV3: Joint Architecture-Recipe Search using Predictor Pretraining [65.39532971991778]
サンプル選択とランキングの両方を導くことで、アーキテクチャとトレーニングのレシピを共同でスコアする精度予測器を提案する。
高速な進化的検索をCPU分で実行し、さまざまなリソース制約に対するアーキテクチャと準備のペアを生成します。
FBNetV3は最先端のコンパクトニューラルネットワークのファミリーを構成しており、自動と手動で設計された競合より優れている。
論文 参考訳(メタデータ) (2020-06-03T05:20:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。