論文の概要: Imbalanced Large Graph Learning Framework for FPGA Logic Elements
Packing Prediction
- arxiv url: http://arxiv.org/abs/2308.03231v1
- Date: Mon, 7 Aug 2023 00:30:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 15:53:17.923449
- Title: Imbalanced Large Graph Learning Framework for FPGA Logic Elements
Packing Prediction
- Title(参考訳): FPGA論理要素パッケージング予測のための不均衡大規模グラフ学習フレームワーク
- Authors: Zhixiong Di, Runzhe Tao, Lin Chen, Qiang Wu, Yibo Lin
- Abstract要約: 配置後に論理要素が充填されるかどうかを予測するため,不均衡な大規模グラフ学習フレームワークImLGを提案する。
我々のフレームワークは、最新のガウスベースの予測手法と比較してF1スコアを42.82%向上させることができる。
- 参考スコア(独自算出の注目度): 13.407247552893462
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Packing is a required step in a typical FPGA CAD flow. It has high impacts to
the performance of FPGA placement and routing. Early prediction of packing
results can guide design optimization and expedite design closure. In this
work, we propose an imbalanced large graph learning framework, ImLG, for
prediction of whether logic elements will be packed after placement.
Specifically, we propose dedicated feature extraction and feature aggregation
methods to enhance the node representation learning of circuit graphs. With
imbalanced distribution of packed and unpacked logic elements, we further
propose techniques such as graph oversampling and mini-batch training for this
imbalanced learning task in large circuit graphs. Experimental results
demonstrate that our framework can improve the F1 score by 42.82% compared to
the most recent Gaussian-based prediction method. Physical design results show
that the proposed method can assist the placer in improving routed wirelength
by 0.93% and SLICE occupation by 0.89%.
- Abstract(参考訳): 典型的なFPGA CADフローにおいて、パッケージングは必要なステップである。
FPGAの配置とルーティングのパフォーマンスに大きな影響を与える。
パッキング結果の早期予測は、設計最適化と迅速な設計閉鎖を導くことができる。
本研究では,論理要素が配置後に充填されるかどうかを予測するため,不均衡なグラフ学習フレームワークImLGを提案する。
具体的には,回路グラフのノード表現学習を強化するための特徴抽出と特徴集約手法を提案する。
満載・未充填論理要素の不均衡分布により,この不均衡学習タスクに対するグラフオーバーサンプリングやミニバッチトレーニングなどの手法を大規模回路グラフで提案する。
実験の結果,最新のガウス型予測法と比較して,f1スコアを42.82%向上できることがわかった。
物理設計の結果, 提案手法は配線幅を0.93%, スライス占有率を0.89%向上させる。
関連論文リスト
- Graph Sparsification for Enhanced Conformal Prediction in Graph Neural Networks [5.896352342095999]
Conformal Predictionは、マシンラーニングタスク間の信頼性の高いカバレッジを保証する、堅牢なフレームワークである。
SparGCPはグラフスペーシフィケーションと共形予測固有の目的をGNNトレーニングに組み込んでいる。
実世界のグラフデータセットの実験では、SparGCPが既存のメソッドより優れていることが示されている。
論文 参考訳(メタデータ) (2024-10-28T23:53:51Z) - Towards Faster Graph Partitioning via Pre-training and Inductive Inference [7.962080448174845]
本稿では, PR-GPT (Pre-trained and Refined Graph ParTitioning) を提案する。
PR-GPTは、スクラッチから精錬法を実行する場合と比較して、大幅な品質劣化を伴わずに、大規模グラフ上でGPを高速化することができる。
論文 参考訳(メタデータ) (2024-09-01T09:11:34Z) - Amplify Graph Learning for Recommendation via Sparsity Completion [16.32861024767423]
グラフ学習モデルは、協調フィルタリング(CF)ベースのレコメンデーションシステムに広くデプロイされている。
データ疎度の問題により、元の入力のグラフ構造は潜在的な肯定的な嗜好エッジを欠いている。
AGL-SC(Amplify Graph Learning framework)を提案する。
論文 参考訳(メタデータ) (2024-06-27T08:26:20Z) - Unifews: Unified Entry-Wise Sparsification for Efficient Graph Neural Network [10.556366638048384]
グラフニューラルネットワーク(GNN)は、様々なグラフ学習タスクにおいて有望な性能を示すが、リソース集約型計算のコストがかかる。
従来の研究では,グラフレベルやネットワークレベルのスペーシフィケーション技術を活用して,計算予算の削減を試みた。
個々の行列要素を考慮したエントリワイズ方式で2つの演算を統一するUnifewsを提案する。
論文 参考訳(メタデータ) (2024-03-20T03:07:30Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Graph Transformers for Large Graphs [57.19338459218758]
この研究は、モデルの特徴と重要な設計制約を識別することに焦点を当てた、単一の大規模グラフでの表現学習を前進させる。
この研究の重要な革新は、局所的な注意機構と組み合わされた高速な近傍サンプリング技術の作成である。
ogbn-products と snap-patents の3倍の高速化と16.8%の性能向上を報告し、ogbn-100M で LargeGT を5.9% の性能改善で拡張した。
論文 参考訳(メタデータ) (2023-12-18T11:19:23Z) - Learning Regularized Graphon Mean-Field Games with Unknown Graphons [155.38727464526923]
グラフィック平均フィールドゲーム(GMFG)のための強化学習アルゴリズムを設計する。
我々は、正規化されたGMFGのナッシュ平衡(NE)を、グラフンが未知のときに学習することを目指している。
これらのアルゴリズムは、サンプルエージェントからグラモンを学習するために設計された最初のものである。
論文 参考訳(メタデータ) (2023-10-26T16:19:24Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z) - Graph Ordering: Towards the Optimal by Learning [69.72656588714155]
グラフ表現学習は、ノード分類、予測、コミュニティ検出など、多くのグラフベースのアプリケーションで顕著な成功を収めている。
しかし,グラフ圧縮やエッジ分割などのグラフアプリケーションでは,グラフ表現学習タスクに還元することは極めて困難である。
本稿では,このようなアプリケーションの背後にあるグラフ順序付け問題に対して,新しい学習手法を用いて対処することを提案する。
論文 参考訳(メタデータ) (2020-01-18T09:14:16Z) - GraphACT: Accelerating GCN Training on CPU-FPGA Heterogeneous Platforms [1.2183405753834562]
グラフ畳み込みネットワーク(GCN)は、グラフ上での表現学習のための最先端のディープラーニングモデルとして登場した。
実質的かつ不規則なデータ通信のため、GCNの訓練を加速することは困難である。
我々はCPU-FPGAヘテロジニアスシステム上でGCNをトレーニングするための新しいアクセラレータを設計する。
論文 参考訳(メタデータ) (2019-12-31T21:19:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。