論文の概要: Hierarchical Source-to-Post-Route QoR Prediction in High-Level Synthesis
with GNNs
- arxiv url: http://arxiv.org/abs/2401.08696v1
- Date: Sun, 14 Jan 2024 07:24:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 18:25:54.189356
- Title: Hierarchical Source-to-Post-Route QoR Prediction in High-Level Synthesis
with GNNs
- Title(参考訳): GNNを用いた高レベル合成における階層的ソース・ツー・ルートQoR予測
- Authors: Mingzhe Gao, Jieru Zhao, Zhe Lin, Minyi Guo
- Abstract要約: FPGA HLSのための階層的ポストルートQoR予測手法を提案する。
提案手法を採用することにより,HLSにおける設計空間探索のランタイムは,数十分に短縮される。
- 参考スコア(独自算出の注目度): 25.920672727699984
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High-level synthesis (HLS) notably speeds up the hardware design process by
avoiding RTL programming. However, the turnaround time of HLS increases
significantly when post-route quality of results (QoR) are considered during
optimization. To tackle this issue, we propose a hierarchical post-route QoR
prediction approach for FPGA HLS, which features: (1) a modeling flow that
directly estimates latency and post-route resource usage from C/C++ programs;
(2) a graph construction method that effectively represents the control and
data flow graph of source code and effects of HLS pragmas; and (3) a
hierarchical GNN training and prediction method capable of capturing the impact
of loop hierarchies. Experimental results show that our method presents a
prediction error of less than 10% for different types of QoR metrics, which
gains tremendous improvement compared with the state-of-the-art GNN methods. By
adopting our proposed methodology, the runtime for design space exploration in
HLS is shortened to tens of minutes and the achieved ADRS is reduced to 6.91%
on average.
- Abstract(参考訳): 高レベル合成(HLS)は、RTLプログラミングを避けてハードウェア設計プロセスを高速化する。
しかし,時間経過後の品質(QoR)を考慮した場合,HLSのターンアラウンド時間は有意に増加する。
この問題に対処するため,FPGA HLS の階層的後 QoR 予測手法を提案する。(1) C/C++ プログラムから直接遅延と後資源使用量を推定するモデリングフロー,(2) ソースコードの制御とデータフローグラフと HLS プラグマの効果を効果的に表現するグラフ構築手法,(3) ループ階層の影響を捉えることができる階層的 GNN トレーニングと予測手法である。
実験結果から,本手法は様々な種類のQoR指標に対して10%未満の予測誤差を示し,最先端のGNN手法と比較して大幅に改善された。
提案手法を採用することにより,HLSにおける設計空間探索のランタイムは数十分短縮され,得られたADRSは平均6.91%に短縮される。
関連論文リスト
- High-Performance and Scalable Fault-Tolerant Quantum Computation with Lattice Surgery on a 2.5D Architecture [0.5779598097190628]
表面符号(SC)を用いた格子手術(LS)に基づく高性能・低オーバヘッドFTQCアーキテクチャを提案する。
提案したBypassアーキテクチャは、密度と粗いキュービット層からなる2.5次元アーキテクチャである。
その結果、BypassアーキテクチャはFTQCの忠実度を改善し、1.73倍のスピードアップと17%のハードウェアリソース削減を実現している。
論文 参考訳(メタデータ) (2024-11-26T15:27:59Z) - Quantum Algorithm Exploration using Application-Oriented Performance
Benchmarks [0.0]
Application-Oriented BenchmarksのQED-Cスイートは、量子コンピュータの性能特性を測定する機能を提供する。
我々は,このベンチマーク手法がより複雑なアプリケーションに適用される可能性を広げる上での課題について検討する。
論文 参考訳(メタデータ) (2024-02-14T06:55:50Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - ST-MLP: A Cascaded Spatio-Temporal Linear Framework with
Channel-Independence Strategy for Traffic Forecasting [47.74479442786052]
時空間グラフニューラルネットワーク(STGNN)に関する現在の研究は、しばしば複雑な設計を優先し、精度をわずかに向上させるだけで計算負荷を発生させる。
マルチ層パーセプトロン(MLP)モジュールと線形層のみをベースとした,簡潔な時空間モデルST-MLPを提案する。
実験の結果,ST-MLPは最先端STGNNと他のモデルよりも精度と計算効率の点で優れていた。
論文 参考訳(メタデータ) (2023-08-14T23:34:59Z) - Algorithm and System Co-design for Efficient Subgraph-based Graph
Representation Learning [16.170895692951]
グラフ表現学習(SGRL)は、最近、標準グラフニューラルネットワーク(GNN)が直面するいくつかの根本的な課題に対処するために提案されている。
本稿では,学習アルゴリズムとそのシステムサポートを共同設計し,スケーラブルなSGRLのための新しいフレームワークSURELを提案する。
論文 参考訳(メタデータ) (2022-02-28T04:29:22Z) - High-Level Synthesis Performance Prediction using GNNs: Benchmarking,
Modeling, and Advancing [21.8349113634555]
アジャイルハードウェア開発には、初期の設計段階から高速で正確な回路品質の評価が必要である。
本稿では,C/C++プログラムをグラフとして表現することで,グラフニューラルネットワーク(GNN)の表現力を生かした高速かつ正確な性能モデリングを提案する。
提案する予測器はHLSを最大40倍に上回り,既存の予測器を2倍から5倍に上回っている。
論文 参考訳(メタデータ) (2022-01-18T09:53:48Z) - Automatic Mapping of the Best-Suited DNN Pruning Schemes for Real-Time
Mobile Acceleration [71.80326738527734]
本稿では,汎用的,きめ細かな構造化プルーニング手法とコンパイラの最適化を提案する。
提案手法は,より微細な構造化プルーニング手法とともに,最先端のDNN最適化フレームワークよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-22T23:53:14Z) - CATRO: Channel Pruning via Class-Aware Trace Ratio Optimization [61.71504948770445]
本稿では,CATRO (Class-Aware Trace Ratio Optimization) を用いた新しいチャネルプルーニング手法を提案する。
CATROは、他の最先端チャネルプルーニングアルゴリズムと同等の精度で、同様のコストまたは低コストで高い精度を達成できることを示す。
CATROは、クラス認識の特性のため、様々な分類サブタスクに適応的に効率の良いネットワークを創り出すのに適している。
論文 参考訳(メタデータ) (2021-10-21T06:26:31Z) - ZARTS: On Zero-order Optimization for Neural Architecture Search [94.41017048659664]
微分可能なアーキテクチャサーチ (DARTS) は、NASの高効率性のため、一般的なワンショットパラダイムである。
この作業はゼロオーダーの最適化に変わり、上記の近似を強制せずに探索するための新しいNASスキームであるZARTSを提案する。
特に、12ベンチマークの結果は、DARTSの性能が低下するZARTSの顕著な堅牢性を検証する。
論文 参考訳(メタデータ) (2021-10-10T09:35:15Z) - Millimeter Wave Communications with an Intelligent Reflector:
Performance Optimization and Distributional Reinforcement Learning [119.97450366894718]
ミリ波基地局のダウンリンクマルチユーザ通信を最適化するための新しいフレームワークを提案する。
チャネル状態情報(CSI)をリアルタイムで計測するために,チャネル推定手法を開発した。
最適赤外反射を学習し、ダウンリンク能力の期待を最大化するために、分布強化学習(DRL)手法を提案する。
論文 参考訳(メタデータ) (2020-02-24T22:18:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。