論文の概要: Intelligent4DSE: Optimizing High-Level Synthesis Design Space Exploration with Graph Neural Networks and Large Language Models
- arxiv url: http://arxiv.org/abs/2504.19649v1
- Date: Mon, 28 Apr 2025 10:08:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.396395
- Title: Intelligent4DSE: Optimizing High-Level Synthesis Design Space Exploration with Graph Neural Networks and Large Language Models
- Title(参考訳): Intelligent4DSE: グラフニューラルネットワークと大規模言語モデルを用いた高レベル合成設計空間探索の最適化
- Authors: Lei Xu, Shanshan Wang, Emmanuel Casseau, Chenglong Xiao,
- Abstract要約: 我々は,タスク適応型メッセージパッシングと大規模言語モデル拡張進化アルゴリズムをグラフニューラルネットワークに統合するフレームワークであるCoGNNs-LLMEAを提案する。
予測モデルとして、CoGNNはコンパイラフロントエンド処理後にソースコードから生成された中間表現を直接利用し、HLSツールを起動することなく結果の品質(QoR)の予測を可能にする。
CoGNNは、HLS後のQoR予測における最先端予測精度を実現し、平均予測誤差を2.8$times$と3.4$times$で削減する。
- 参考スコア(独自算出の注目度): 3.8429489584622156
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-level synthesis (HLS) design space exploration (DSE) is an optimization process in electronic design automation (EDA) that systematically explores high-level design configurations to achieve Pareto-optimal hardware implementations balancing performance, area, and power (PPA). To optimize this process, HLS prediction tasks often employ message-passing neural networks (MPNNs), leveraging complex architectures to achieve high accuracy. These predictors serve as evaluators in the DSE process, effectively bypassing the time-consuming estimations traditionally required by HLS tools. However, existing models often prioritize structural complexity and minimization of training loss, overlooking task-specific characteristics. Additionally, while evolutionary algorithms are widely used in DSE, they typically require extensive domain-specific knowledge to design effective crossover and mutation operators. To address these limitations, we propose CoGNNs-LLMEA, a framework that integrates a graph neural network with task-adaptive message passing and a large language model-enhanced evolutionary algorithm. As a predictive model, CoGNNs directly leverages intermediate representations generated from source code after compiler front-end processing, enabling prediction of quality of results (QoR) without invoking HLS tools. Due to its strong adaptability to tasks, CoGNNs can be tuned to predict post-HLS and post-implementation outcomes, effectively bridging the gap between high-level abstractions and physical implementation characteristics. CoGNNs achieves state-of-the-art prediction accuracy in post-HLS QoR prediction, reducing mean prediction errors by 2.8$\times$ for latency and 3.4$\times$ for resource utilization compared to baseline models.
- Abstract(参考訳): HLS (High-level synthesis, HLS) 設計空間探索 (DSE) は電子設計自動化 (EDA) における最適化プロセスである。
このプロセスを最適化するために、HLS予測タスクは、しばしばメッセージパッシングニューラルネットワーク(MPNN)を使用し、複雑なアーキテクチャを活用して高い精度を達成する。
これらの予測器はDSEプロセスにおける評価器として機能し、従来のHLSツールで必要とされる時間消費推定を効果的に回避する。
しかし、既存のモデルは、しばしば、タスク固有の特徴を見越して、構造的な複雑さとトレーニング損失の最小化を優先する。
さらに、進化的アルゴリズムはDSEで広く使われているが、一般的には、効果的なクロスオーバーと突然変異演算子を設計するために、広範なドメイン固有の知識を必要とする。
これらの制約に対処するために,タスク適応型メッセージパッシングと大規模言語モデル拡張進化アルゴリズムをグラフニューラルネットワークに統合するフレームワークであるCoGNNs-LLMEAを提案する。
予測モデルとして、CoGNNはコンパイラフロントエンド処理後にソースコードから生成された中間表現を直接利用し、HLSツールを起動することなく結果の品質(QoR)の予測を可能にする。
タスクへの強い適応性のため、CoGNNはHLS後と実装後の結果を予測するように調整することができ、高レベルの抽象化と物理実装特性のギャップを効果的に埋めることができる。
CoGNNは、HLS後のQoR予測において最先端の予測精度を実現し、平均予測誤差を2.8$\times$と3.4$\times$で減らした。
関連論文リスト
- MPM-LLM4DSE: Reaching the Pareto Frontier in HLS with Multimodal Learning and LLM-Driven Exploration [7.33202262448994]
本稿では,マルチモーダル予測モデル(MPM)を組み込んだMPM-LLM4DSEフレームワークを提案する。
実験の結果,我々のマルチモーダル予測モデルは最先端のProgSGを最大10.25$times$で大幅に上回ることがわかった。
論文 参考訳(メタデータ) (2026-01-08T10:32:49Z) - Exploring Spiking Neural Networks for Binary Classification in Multivariate Time Series at the Edge [0.9282545044546486]
多変量時系列のバイナリ分類を行うために、スパイキングニューラルネットワーク(SNN)を訓練するための一般的なフレームワークを提案する。
ガンマ線スペクトルデータにおける低信号-雑音比放射源の検出に応用する。
その結果、49個の神経細胞と66個のシナプスを持つSNNは、51.8%の真の正の速度(TPR)を1/hrの誤報率で達成した。
マイクロカスピアンニューロモルフィックプラットフォーム上のハードウェア展開は、2mWの消費電力と20.2msのレイテンシを示す。
論文 参考訳(メタデータ) (2025-10-23T20:52:11Z) - Optimization of DNN-based HSI Segmentation FPGA-based SoC for ADS: A Practical Approach [1.474723404975345]
本研究では,FPGA ベースの SOC 上にデプロイされた DNN ベースの HSI セグメンテーションプロセッサの実用的共同設計のための最適化手法を提案する。
応用圧縮技術により設計されたDNNの複雑さは、元の操作の24.34%、元のパラメータの1.02%に大幅に減少し、セグメンテーション精度を著しく低下させることなく、推論タスクの2.86倍のスピードアップを達成した。
論文 参考訳(メタデータ) (2025-07-22T13:09:04Z) - Efficient Traffic Classification using HW-NAS: Advanced Analysis and Optimization for Cybersecurity on Resource-Constrained Devices [1.3124513975412255]
本稿ではハードウェア認識型ニューラルアーキテクチャサーチ(HW-NAS)により最適化されたハードウェア効率の高いディープニューラルネットワーク(DNN)を提案する。
リソース制約のあるIoT(Internet of Things)とエッジデバイス上でのセッションレベルの暗号化トラフィックの分類をサポートする。
最適化されたモデルは96.59%の精度で88.26Kのパラメータ、10.08MのFLOP、最大テンソルサイズは20.12Kである。
論文 参考訳(メタデータ) (2025-06-12T21:37:45Z) - Performance Analysis of Convolutional Neural Network By Applying Unconstrained Binary Quadratic Programming [0.0]
畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンとビッグデータ分析において重要であるが、大規模なデータセットでトレーニングされた場合には、かなりの計算リソースを必要とする。
CNNトレーニングを高速化するために,Unconstrained Binary Quadratic Programming (UBQP) と Gradient Descent (SGD) を組み合わせたハイブリッド最適化手法を提案する。
提案手法は, BP-CNNベースラインの10-15%の精度向上を実現し, 同様の実行時間を維持する。
論文 参考訳(メタデータ) (2025-05-30T21:25:31Z) - Efficient training for large-scale optical neural network using an evolutionary strategy and attention pruning [14.20309603187239]
MZIベースのブロック光ニューラルネットワーク(BONN)は大規模ネットワークモデルを実現することができる。
大規模BONNのための注意型プルーニング(CAP)アルゴリズムを提案する。
提案するCAPアルゴリズムは,大規模ネットワークモデルや複雑なタスクに優れた可能性を示す。
論文 参考訳(メタデータ) (2025-05-19T09:41:11Z) - Application-oriented automatic hyperparameter optimization for spiking neural network prototyping [0.0]
この文書は、ニューラルネットワークインテリジェンス(NNI)ツールキットを参照フレームワークとして使用して、そのようなソリューションを1つ提示する。
SNNプロトタイピングのためのアプリケーション指向HPO実験に関する洞察の源泉として,提案パイプラインを用いた論文の要約が報告されている。
論文 参考訳(メタデータ) (2025-02-13T14:49:44Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Joint Pruning and Channel-wise Mixed-Precision Quantization for Efficient Deep Neural Networks [10.229120811024162]
ディープニューラルネットワーク(DNN)は、エッジデバイスへのデプロイメントに重大な課題をもたらす。
この問題に対処する一般的なアプローチは、プルーニングと混合精度量子化である。
そこで本研究では,軽量な勾配探索を用いて共同で適用するための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-07-01T08:07:02Z) - Hybrid-Task Meta-Learning: A GNN Approach for Scalable and Transferable Bandwidth Allocation [50.96751567777229]
ユーザ数に応じてスケーラブルで,異なる通信シナリオに転送可能な,ディープラーニングベースの帯域割り当てポリシを開発する。
スケーラビリティをサポートするために、帯域割り当てポリシーはグラフニューラルネットワーク(GNN)によって表現される。
我々は,GNNの初期パラメータを異なる通信シナリオで学習するハイブリッドタスクメタ学習(HML)アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-12-23T04:25:12Z) - Set-based Neural Network Encoding Without Weight Tying [91.37161634310819]
本稿では,ネットワーク特性予測のためのニューラルネットワーク重み符号化手法を提案する。
我々のアプローチは、混合アーキテクチャのモデル動物園でニューラルネットワークを符号化することができる。
ニューラルネットワークのプロパティ予測には,クロスデータセットとクロスアーキテクチャという,2つの新しいタスクを導入する。
論文 参考訳(メタデータ) (2023-05-26T04:34:28Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - Bayesian Neural Network Language Modeling for Speech Recognition [59.681758762712754]
長期記憶リカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端のニューラルネットワーク言語モデル(NNLM)は非常に複雑になりつつある。
本稿では,LSTM-RNN と Transformer LM の基盤となる不確実性を考慮するために,ベイズ学習フレームワークの全体構造を提案する。
論文 参考訳(メタデータ) (2022-08-28T17:50:19Z) - Hybrid Graph Models for Logic Optimization via Spatio-Temporal
Information [15.850413267830522]
EDAにおけるプロダクション対応MLアプリケーションを妨げるおもな懸念点は、正確性要件と一般化能力である。
本稿では,高精度なQoR推定に対するハイブリッドグラフニューラルネットワーク(GNN)に基づくアプローチを提案する。
3.3百万のデータポイントの評価によると、トレーニング中に見つからないデザインの絶対パーセンテージエラー(MAPE)は1.2%と3.1%に満たない。
論文 参考訳(メタデータ) (2022-01-20T21:12:22Z) - High-Level Synthesis Performance Prediction using GNNs: Benchmarking,
Modeling, and Advancing [21.8349113634555]
アジャイルハードウェア開発には、初期の設計段階から高速で正確な回路品質の評価が必要である。
本稿では,C/C++プログラムをグラフとして表現することで,グラフニューラルネットワーク(GNN)の表現力を生かした高速かつ正確な性能モデリングを提案する。
提案する予測器はHLSを最大40倍に上回り,既存の予測器を2倍から5倍に上回っている。
論文 参考訳(メタデータ) (2022-01-18T09:53:48Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - A Graph Deep Learning Framework for High-Level Synthesis Design Space
Exploration [11.154086943903696]
High-Level Synthesisは、アプリケーション固有の高速プロトタイピングのためのソリューションである。
本稿では,加速性能とハードウェアコストを共同で予測するグラフニューラルネットワークHLSを提案する。
提案手法は,一般的なシミュレータと同等の精度で予測できることを示す。
論文 参考訳(メタデータ) (2021-11-29T18:17:45Z) - Adaptive Anomaly Detection for Internet of Things in Hierarchical Edge
Computing: A Contextual-Bandit Approach [81.5261621619557]
階層エッジコンピューティング(HEC)を用いた適応型異常検出手法を提案する。
まず,複雑性を増した複数のDNNモデルを構築し,それぞれを対応するHEC層に関連付ける。
そこで我々は、文脈帯域問題として定式化され、強化学習ポリシーネットワークを用いて解決される適応モデル選択スキームを設計する。
論文 参考訳(メタデータ) (2021-08-09T08:45:47Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - A Meta-Learning Approach to the Optimal Power Flow Problem Under
Topology Reconfigurations [69.73803123972297]
メタラーニング(MTL)アプローチを用いて訓練されたDNNベースのOPF予測器を提案する。
開発したOPF予測器はベンチマークIEEEバスシステムを用いてシミュレーションにより検証される。
論文 参考訳(メタデータ) (2020-12-21T17:39:51Z) - Neural Architecture Search For LF-MMI Trained Time Delay Neural Networks [61.76338096980383]
TDNN(State-of-the-the-art Factored Time delay Neural Network)の2種類のハイパーパラメータを自動的に学習するために、さまざまなニューラルネットワークサーチ(NAS)技術が使用されている。
DARTSメソッドはアーキテクチャ選択とLF-MMI(格子のないMMI)TDNNトレーニングを統合する。
300時間のSwitchboardコーパスで行われた実験では、自動構成システムはベースラインLF-MMI TDNNシステムより一貫して優れていることが示唆された。
論文 参考訳(メタデータ) (2020-07-17T08:32:11Z) - FBNetV3: Joint Architecture-Recipe Search using Predictor Pretraining [65.39532971991778]
サンプル選択とランキングの両方を導くことで、アーキテクチャとトレーニングのレシピを共同でスコアする精度予測器を提案する。
高速な進化的検索をCPU分で実行し、さまざまなリソース制約に対するアーキテクチャと準備のペアを生成します。
FBNetV3は最先端のコンパクトニューラルネットワークのファミリーを構成しており、自動と手動で設計された競合より優れている。
論文 参考訳(メタデータ) (2020-06-03T05:20:21Z) - Error-feedback stochastic modeling strategy for time series forecasting
with convolutional neural networks [11.162185201961174]
本稿では,ランダム畳み込みネットワーク(ESM-CNN)ニューラル時系列予測タスクを構築するための新しいError-feedback Modeling (ESM)戦略を提案する。
提案したESM-CNNは、最先端のランダムニューラルネットワークを上回るだけでなく、トレーニングされた最先端のディープニューラルネットワークモデルと比較して、予測能力と計算オーバーヘッドの低減も実現している。
論文 参考訳(メタデータ) (2020-02-03T13:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。