論文の概要: Intelligent4DSE: Optimizing High-Level Synthesis Design Space Exploration with Graph Neural Networks and Large Language Models
- arxiv url: http://arxiv.org/abs/2504.19649v3
- Date: Wed, 15 Oct 2025 11:24:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 15:32:13.413466
- Title: Intelligent4DSE: Optimizing High-Level Synthesis Design Space Exploration with Graph Neural Networks and Large Language Models
- Title(参考訳): Intelligent4DSE: グラフニューラルネットワークと大規模言語モデルを用いた高レベル合成設計空間探索の最適化
- Authors: Lei Xu, Shanshan Wang, Emmanuel Casseau, Chenglong Xiao,
- Abstract要約: 本稿では,タスク適応型メッセージパッシングと大規模言語モデル強化メタヒューリスティックアルゴリズムをグラフニューラルネットワークに統合するフレームワークであるECoGNNs-LLMMHsを提案する。
最先端の作業と比較すると、ECoGNNはHLS後の予測タスクにおいて低い予測誤差を示し、エラーは57.27%減少した。
実装後の予測タスクでは、ECoGNNが最も低い予測エラーを示し、フリップフロップ(FF)では平均17.6%、クリティカルパス(CP)では33.7%である。
- 参考スコア(独自算出の注目度): 6.711674863088882
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-Level Synthesis (HLS) Design Space Exploration (DSE) is essential for generating hardware designs that balance performance, power, and area (PPA). To optimize this process, existing works often employs message-passing neural networks (MPNNs) to predict quality of results (QoR). These predictors serve as evaluators in the DSE process, effectively bypassing the time-consuming estimations traditionally required by HLS tools. However, existing models based on MPNNs struggle with over-smoothing and limited expressiveness. Additionally, while meta-heuristic algorithms are widely used in DSE, they typically require extensive domain-specific knowledge to design operators and time-consuming tuning. To address these limitations, we propose ECoGNNs-LLMMHs, a framework that integrates graph neural networks with task-adaptive message passing and large language model-enhanced meta-heuristic algorithms. Compared with state-of-the-art works, ECoGNN exhibits lower prediction error in the post-HLS prediction task, with the error reduced by 57.27\%. For post-implementation prediction tasks, ECoGNN demonstrates the lowest prediction errors, with average reductions of 17.6\% for flip-flop (FF) usage, 33.7\% for critical path (CP) delay, 26.3\% for power consumption, 38.3\% for digital signal processor (DSP) utilization, and 40.8\% for BRAM usage. LLMMH variants can generate superior Pareto fronts compared to meta-heuristic algorithms in terms of average distance from the reference set (ADRS) with average improvements of 87.47\%, respectively. Compared with the SOTA DSE approaches GNN-DSE and IRONMAN-PRO, LLMMH can reduce the ADRS by 68.17\% and 63.07\% respectively.
- Abstract(参考訳): 高レベル合成(HLS)設計空間探索(DSE)は、性能、電力、面積のバランスをとるハードウェア設計を作成するのに不可欠である。
このプロセスを最適化するために、既存の作業では、結果の品質(QoR)を予測するために、しばしばメッセージパッシングニューラルネットワーク(MPNN)を使用している。
これらの予測器はDSEプロセスにおける評価器として機能し、従来のHLSツールで必要とされる時間消費推定を効果的に回避する。
しかし、MPNNをベースとした既存のモデルは、過度に滑らかで限定的な表現性に苦しむ。
さらに、メタヒューリスティックアルゴリズムはDSEで広く使われているが、設計演算子や時間を要するチューニングにはドメイン固有の知識を必要とするのが一般的である。
これらの制約に対処するため,タスク適応型メッセージパッシングと大規模言語モデル強化メタヒューリスティックアルゴリズムをグラフニューラルネットワークに統合するフレームワークであるECoGNNs-LLMMHsを提案する。
最先端の作業と比較すると、ECoGNNはHLS後の予測タスクにおいて低い予測誤差を示し、エラーは57.27\%削減された。
実装後の予測タスクでは、平均17.6\%のフリップフロップ(FF)使用率、33.7\%のクリティカルパス(CP)遅延率、26.3\%の電力消費率、38.3\%のデジタル信号プロセッサ(DSP)使用率、40.8\%のBRAM使用率がある。
LLMMHの変種は、基準セット(ADRS)からの平均距離が87.47\%のメタヒューリスティックアルゴリズムよりも優れたパレートフロントを生成することができる。
SOTA DSEアプローチのGNN-DSEとIRONMAN-PROと比較して、LLMMHはADRSを68.17\%、63.07\%減少させることができる。
関連論文リスト
- MPM-LLM4DSE: Reaching the Pareto Frontier in HLS with Multimodal Learning and LLM-Driven Exploration [7.33202262448994]
本稿では,マルチモーダル予測モデル(MPM)を組み込んだMPM-LLM4DSEフレームワークを提案する。
実験の結果,我々のマルチモーダル予測モデルは最先端のProgSGを最大10.25$times$で大幅に上回ることがわかった。
論文 参考訳(メタデータ) (2026-01-08T10:32:49Z) - Exploring Spiking Neural Networks for Binary Classification in Multivariate Time Series at the Edge [0.9282545044546486]
多変量時系列のバイナリ分類を行うために、スパイキングニューラルネットワーク(SNN)を訓練するための一般的なフレームワークを提案する。
ガンマ線スペクトルデータにおける低信号-雑音比放射源の検出に応用する。
その結果、49個の神経細胞と66個のシナプスを持つSNNは、51.8%の真の正の速度(TPR)を1/hrの誤報率で達成した。
マイクロカスピアンニューロモルフィックプラットフォーム上のハードウェア展開は、2mWの消費電力と20.2msのレイテンシを示す。
論文 参考訳(メタデータ) (2025-10-23T20:52:11Z) - Optimization of DNN-based HSI Segmentation FPGA-based SoC for ADS: A Practical Approach [1.474723404975345]
本研究では,FPGA ベースの SOC 上にデプロイされた DNN ベースの HSI セグメンテーションプロセッサの実用的共同設計のための最適化手法を提案する。
応用圧縮技術により設計されたDNNの複雑さは、元の操作の24.34%、元のパラメータの1.02%に大幅に減少し、セグメンテーション精度を著しく低下させることなく、推論タスクの2.86倍のスピードアップを達成した。
論文 参考訳(メタデータ) (2025-07-22T13:09:04Z) - Efficient Traffic Classification using HW-NAS: Advanced Analysis and Optimization for Cybersecurity on Resource-Constrained Devices [1.3124513975412255]
本稿ではハードウェア認識型ニューラルアーキテクチャサーチ(HW-NAS)により最適化されたハードウェア効率の高いディープニューラルネットワーク(DNN)を提案する。
リソース制約のあるIoT(Internet of Things)とエッジデバイス上でのセッションレベルの暗号化トラフィックの分類をサポートする。
最適化されたモデルは96.59%の精度で88.26Kのパラメータ、10.08MのFLOP、最大テンソルサイズは20.12Kである。
論文 参考訳(メタデータ) (2025-06-12T21:37:45Z) - Performance Analysis of Convolutional Neural Network By Applying Unconstrained Binary Quadratic Programming [0.0]
畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンとビッグデータ分析において重要であるが、大規模なデータセットでトレーニングされた場合には、かなりの計算リソースを必要とする。
CNNトレーニングを高速化するために,Unconstrained Binary Quadratic Programming (UBQP) と Gradient Descent (SGD) を組み合わせたハイブリッド最適化手法を提案する。
提案手法は, BP-CNNベースラインの10-15%の精度向上を実現し, 同様の実行時間を維持する。
論文 参考訳(メタデータ) (2025-05-30T21:25:31Z) - Efficient training for large-scale optical neural network using an evolutionary strategy and attention pruning [14.20309603187239]
MZIベースのブロック光ニューラルネットワーク(BONN)は大規模ネットワークモデルを実現することができる。
大規模BONNのための注意型プルーニング(CAP)アルゴリズムを提案する。
提案するCAPアルゴリズムは,大規模ネットワークモデルや複雑なタスクに優れた可能性を示す。
論文 参考訳(メタデータ) (2025-05-19T09:41:11Z) - Application-oriented automatic hyperparameter optimization for spiking neural network prototyping [0.0]
この文書は、ニューラルネットワークインテリジェンス(NNI)ツールキットを参照フレームワークとして使用して、そのようなソリューションを1つ提示する。
SNNプロトタイピングのためのアプリケーション指向HPO実験に関する洞察の源泉として,提案パイプラインを用いた論文の要約が報告されている。
論文 参考訳(メタデータ) (2025-02-13T14:49:44Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Joint Pruning and Channel-wise Mixed-Precision Quantization for Efficient Deep Neural Networks [10.229120811024162]
ディープニューラルネットワーク(DNN)は、エッジデバイスへのデプロイメントに重大な課題をもたらす。
この問題に対処する一般的なアプローチは、プルーニングと混合精度量子化である。
そこで本研究では,軽量な勾配探索を用いて共同で適用するための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-07-01T08:07:02Z) - Hybrid-Task Meta-Learning: A GNN Approach for Scalable and Transferable Bandwidth Allocation [50.96751567777229]
ユーザ数に応じてスケーラブルで,異なる通信シナリオに転送可能な,ディープラーニングベースの帯域割り当てポリシを開発する。
スケーラビリティをサポートするために、帯域割り当てポリシーはグラフニューラルネットワーク(GNN)によって表現される。
我々は,GNNの初期パラメータを異なる通信シナリオで学習するハイブリッドタスクメタ学習(HML)アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-12-23T04:25:12Z) - Set-based Neural Network Encoding Without Weight Tying [91.37161634310819]
本稿では,ネットワーク特性予測のためのニューラルネットワーク重み符号化手法を提案する。
我々のアプローチは、混合アーキテクチャのモデル動物園でニューラルネットワークを符号化することができる。
ニューラルネットワークのプロパティ予測には,クロスデータセットとクロスアーキテクチャという,2つの新しいタスクを導入する。
論文 参考訳(メタデータ) (2023-05-26T04:34:28Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - Bayesian Neural Network Language Modeling for Speech Recognition [59.681758762712754]
長期記憶リカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端のニューラルネットワーク言語モデル(NNLM)は非常に複雑になりつつある。
本稿では,LSTM-RNN と Transformer LM の基盤となる不確実性を考慮するために,ベイズ学習フレームワークの全体構造を提案する。
論文 参考訳(メタデータ) (2022-08-28T17:50:19Z) - Hybrid Graph Models for Logic Optimization via Spatio-Temporal
Information [15.850413267830522]
EDAにおけるプロダクション対応MLアプリケーションを妨げるおもな懸念点は、正確性要件と一般化能力である。
本稿では,高精度なQoR推定に対するハイブリッドグラフニューラルネットワーク(GNN)に基づくアプローチを提案する。
3.3百万のデータポイントの評価によると、トレーニング中に見つからないデザインの絶対パーセンテージエラー(MAPE)は1.2%と3.1%に満たない。
論文 参考訳(メタデータ) (2022-01-20T21:12:22Z) - High-Level Synthesis Performance Prediction using GNNs: Benchmarking,
Modeling, and Advancing [21.8349113634555]
アジャイルハードウェア開発には、初期の設計段階から高速で正確な回路品質の評価が必要である。
本稿では,C/C++プログラムをグラフとして表現することで,グラフニューラルネットワーク(GNN)の表現力を生かした高速かつ正確な性能モデリングを提案する。
提案する予測器はHLSを最大40倍に上回り,既存の予測器を2倍から5倍に上回っている。
論文 参考訳(メタデータ) (2022-01-18T09:53:48Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - A Graph Deep Learning Framework for High-Level Synthesis Design Space
Exploration [11.154086943903696]
High-Level Synthesisは、アプリケーション固有の高速プロトタイピングのためのソリューションである。
本稿では,加速性能とハードウェアコストを共同で予測するグラフニューラルネットワークHLSを提案する。
提案手法は,一般的なシミュレータと同等の精度で予測できることを示す。
論文 参考訳(メタデータ) (2021-11-29T18:17:45Z) - Adaptive Anomaly Detection for Internet of Things in Hierarchical Edge
Computing: A Contextual-Bandit Approach [81.5261621619557]
階層エッジコンピューティング(HEC)を用いた適応型異常検出手法を提案する。
まず,複雑性を増した複数のDNNモデルを構築し,それぞれを対応するHEC層に関連付ける。
そこで我々は、文脈帯域問題として定式化され、強化学習ポリシーネットワークを用いて解決される適応モデル選択スキームを設計する。
論文 参考訳(メタデータ) (2021-08-09T08:45:47Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - A Meta-Learning Approach to the Optimal Power Flow Problem Under
Topology Reconfigurations [69.73803123972297]
メタラーニング(MTL)アプローチを用いて訓練されたDNNベースのOPF予測器を提案する。
開発したOPF予測器はベンチマークIEEEバスシステムを用いてシミュレーションにより検証される。
論文 参考訳(メタデータ) (2020-12-21T17:39:51Z) - Neural Architecture Search For LF-MMI Trained Time Delay Neural Networks [61.76338096980383]
TDNN(State-of-the-the-art Factored Time delay Neural Network)の2種類のハイパーパラメータを自動的に学習するために、さまざまなニューラルネットワークサーチ(NAS)技術が使用されている。
DARTSメソッドはアーキテクチャ選択とLF-MMI(格子のないMMI)TDNNトレーニングを統合する。
300時間のSwitchboardコーパスで行われた実験では、自動構成システムはベースラインLF-MMI TDNNシステムより一貫して優れていることが示唆された。
論文 参考訳(メタデータ) (2020-07-17T08:32:11Z) - FBNetV3: Joint Architecture-Recipe Search using Predictor Pretraining [65.39532971991778]
サンプル選択とランキングの両方を導くことで、アーキテクチャとトレーニングのレシピを共同でスコアする精度予測器を提案する。
高速な進化的検索をCPU分で実行し、さまざまなリソース制約に対するアーキテクチャと準備のペアを生成します。
FBNetV3は最先端のコンパクトニューラルネットワークのファミリーを構成しており、自動と手動で設計された競合より優れている。
論文 参考訳(メタデータ) (2020-06-03T05:20:21Z) - Error-feedback stochastic modeling strategy for time series forecasting
with convolutional neural networks [11.162185201961174]
本稿では,ランダム畳み込みネットワーク(ESM-CNN)ニューラル時系列予測タスクを構築するための新しいError-feedback Modeling (ESM)戦略を提案する。
提案したESM-CNNは、最先端のランダムニューラルネットワークを上回るだけでなく、トレーニングされた最先端のディープニューラルネットワークモデルと比較して、予測能力と計算オーバーヘッドの低減も実現している。
論文 参考訳(メタデータ) (2020-02-03T13:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。