論文の概要: A Benchmark on Directed Graph Representation Learning in Hardware Designs
- arxiv url: http://arxiv.org/abs/2410.06460v1
- Date: Wed, 9 Oct 2024 01:32:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 05:38:53.413647
- Title: A Benchmark on Directed Graph Representation Learning in Hardware Designs
- Title(参考訳): ハードウェア設計における直接グラフ表現学習のベンチマーク
- Authors: Haoyu Wang, Yinan Huang, Nan Wu, Pan Li,
- Abstract要約: 有向グラフ表現学習(DGRL)は、回路網リスト、計算グラフを符号化し、ハードウェア性能予測のための代理モデルを開発する上で重要である。
本研究では,5つのハードウェア設計データセットと,回路抽象化のレベルにまたがる13の予測タスクからなる新しいベンチマークを提案する。
トップパフォーマンスモデルには、BI-MPNN層にインターリーブされたPE強化GTとBI-グラフ同型ネットワークがある。
- 参考スコア(独自算出の注目度): 18.69695581399691
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: To keep pace with the rapid advancements in design complexity within modern computing systems, directed graph representation learning (DGRL) has become crucial, particularly for encoding circuit netlists, computational graphs, and developing surrogate models for hardware performance prediction. However, DGRL remains relatively unexplored, especially in the hardware domain, mainly due to the lack of comprehensive and user-friendly benchmarks. This study presents a novel benchmark comprising five hardware design datasets and 13 prediction tasks spanning various levels of circuit abstraction. We evaluate 21 DGRL models, employing diverse graph neural networks and graph transformers (GTs) as backbones, enhanced by positional encodings (PEs) tailored for directed graphs. Our results highlight that bidirected (BI) message passing neural networks (MPNNs) and robust PEs significantly enhance model performance. Notably, the top-performing models include PE-enhanced GTs interleaved with BI-MPNN layers and BI-Graph Isomorphism Network, both surpassing baselines across the 13 tasks. Additionally, our investigation into out-of-distribution (OOD) performance emphasizes the urgent need to improve OOD generalization in DGRL models. This benchmark, implemented with a modular codebase, streamlines the evaluation of DGRL models for both hardware and ML practitioners
- Abstract(参考訳): 現代のコンピューティングシステムにおける設計複雑性の急速な進歩に追従するため、特に回路網リストの符号化や計算グラフ、ハードウェア性能予測のための代理モデルの開発において、有向グラフ表現学習(DGRL)が重要になっている。
しかし、DGRLは、特にハードウェア領域では、包括的でユーザフレンドリーなベンチマークが欠如していることから、比較的探索されていないままである。
本研究では,5つのハードウェア設計データセットと,回路抽象化のレベルにまたがる13の予測タスクからなる新しいベンチマークを提案する。
我々は21のDGRLモデルを評価し、多種多様なグラフニューラルネットワークとグラフトランスフォーマー(GT)をバックボーンとして使用し、有向グラフに適した位置符号化(PE)により強化した。
その結果、双方向(BI)メッセージパッシングニューラルネットワーク(MPNN)とロバストPEはモデル性能を大幅に向上させることがわかった。
特に、トップパフォーマンスモデルには、BI-MPNN層にインターリーブされたPE強化GTと、BI-Graphアイソモーフィックネットワークがあり、どちらも13タスクのベースラインを超えている。
さらに,本研究は,DGRLモデルにおけるOOD一般化の急激な改善の必要性を強調した。
このベンチマークは、モジュールコードベースで実装され、ハードウェアとMLの実践者の両方に対するDGRLモデルの評価を合理化している。
関連論文リスト
- LayerDAG: A Layerwise Autoregressive Diffusion Model for Directed Acyclic Graph Generation [17.94316378710172]
本稿では,自己回帰拡散モデルであるLayerDAGを導入し,リアル指向非巡回グラフ(DAG)を生成する。
ノードの部分順序を二部グラフのシーケンスとして解釈することにより、LayerDAGは、強いノード依存を順次処理可能な管理可能なユニットに分離する。
様々なコンピューティングプラットフォームからの合成および実世界のフローグラフに関する実験により、LayerDAGはより優れた統計特性とベンチマーク性能を持つ有効なDAGを生成することが示された。
論文 参考訳(メタデータ) (2024-11-04T17:47:15Z) - Scalable Weibull Graph Attention Autoencoder for Modeling Document Networks [50.42343781348247]
解析条件後部を解析し,推論精度を向上させるグラフポアソン因子分析法(GPFA)を開発した。
また,GPFAを多層構造に拡張したグラフPoisson gamma belief Network (GPGBN) を用いて,階層的な文書関係を複数の意味レベルで捉える。
本モデルでは,高品質な階層型文書表現を抽出し,様々なグラフ解析タスクにおいて有望な性能を実現する。
論文 参考訳(メタデータ) (2024-10-13T02:22:14Z) - Analysing the Behaviour of Tree-Based Neural Networks in Regression Tasks [3.912345988363511]
本稿では、回帰課題の文脈において、木に基づくニューラルネットワークモデルの振る舞いを復号化するための取り組みを行う。
我々は,ツリーベースのCNN,Code2Vec,Transformerベースのメソッドといった確立されたモデルの応用を拡張し,ASTに解析することでソースコードの実行時間を予測する。
提案するデュアルトランスは,多様なデータセットにまたがる顕著な適応性とロバストな性能を示す。
論文 参考訳(メタデータ) (2024-06-17T11:47:14Z) - Learning Topological Representations with Bidirectional Graph Attention Network for Solving Job Shop Scheduling Problem [27.904195034688257]
既存の学習に基づくジョブショップスケジューリング問題の解法(JSSP)は、通常、非方向性グラフに適した既製のGNNモデルを使用し、解離グラフ(DG)のリッチで有意義な位相構造を無視する。
本稿では,JSSP を解決するための DG を局所検索フレームワークに組み込むためのトポロジ対応双方向グラフアテンションネットワーク (TBGAT) を提案する。
論文 参考訳(メタデータ) (2024-02-27T15:33:20Z) - Harnessing FPGA Technology for Enhanced Biomedical Computation [0.0]
この研究は、CNN、Recurrent Neural Networks (RNN)、Long Short-Term Memory Networks (LSTMs)、Deep Belief Networks (DBNs)のような洗練されたニューラルネットワークフレームワークを掘り下げる。
レイテンシやスループットなどの性能指標を評価することにより,高度なバイオメディカルコンピューティングにおけるFPGAの有効性を示す。
論文 参考訳(メタデータ) (2023-11-21T08:51:58Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - Long Range Graph Benchmark [32.317725340138104]
単にワンホップメッセージパッシングに頼るMP-GNNは、既存のグラフベンチマークでよく使われる。
ベースラインのGNNとGraph Transformerネットワークの両方をベンチマークし、長距離依存をキャプチャするモデルがこれらのタスクにおいて著しく優れていることを検証した。
論文 参考訳(メタデータ) (2022-06-16T13:33:22Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。