論文の概要: DAPO: Design Structure-Aware Pass Ordering in High-Level Synthesis with Graph Contrastive and Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2512.11342v1
- Date: Fri, 12 Dec 2025 07:35:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.6919
- Title: DAPO: Design Structure-Aware Pass Ordering in High-Level Synthesis with Graph Contrastive and Reinforcement Learning
- Title(参考訳): DAPO:グラフコントラストと強化学習を用いた高レベル合成における設計構造を考慮したパス順序付け
- Authors: Jinming Ge, Linfeng Du, Likith Anaparty, Shangkun Li, Tingyuan Liang, Afzal Ahmad, Vivek Chaturvedi, Sharad Sinha, Zhiyao Xie, Jiang Xu, Wei Zhang,
- Abstract要約: DAPOは、制御およびデータフローグラフからプログラムセマンティクスを抽出する、設計構造対応のパス順序付けフレームワークである。
制御とデータフローグラフからプログラムセマンティクスを抽出する設計構造対応パスオーダリングフレームワークであるDAPOを提案する。
- 参考スコア(独自算出の注目度): 6.413712321723625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-Level Synthesis (HLS) tools are widely adopted in FPGA-based domain-specific accelerator design. However, existing tools rely on fixed optimization strategies inherited from software compilations, limiting their effectiveness. Tailoring optimization strategies to specific designs requires deep semantic understanding, accurate hardware metric estimation, and advanced search algorithms -- capabilities that current approaches lack. We propose DAPO, a design structure-aware pass ordering framework that extracts program semantics from control and data flow graphs, employs contrastive learning to generate rich embeddings, and leverages an analytical model for accurate hardware metric estimation. These components jointly guide a reinforcement learning agent to discover design-specific optimization strategies. Evaluations on classic HLS designs demonstrate that our end-to-end flow delivers a 2.36 speedup over Vitis HLS on average.
- Abstract(参考訳): 高レベル合成(HLS)ツールはFPGAベースのドメイン固有加速器設計において広く採用されている。
しかし、既存のツールはソフトウェアコンパイルから受け継いだ固定最適化戦略に依存しており、その効果を制限している。
特定の設計に最適化戦略を配置するには、深いセマンティック理解、正確なハードウェアメトリック推定、そして現在のアプローチに欠けている高度な検索アルゴリズムが必要です。
制御やデータフローグラフからプログラムセマンティクスを抽出する設計構造対応パス順序付けフレームワークであるDAPOを提案する。
これらのコンポーネントは、強化学習エージェントを共同でガイドし、設計固有の最適化戦略を発見する。
古典的HLS設計の評価は、私たちのエンドツーエンドフローが平均でVitis HLSよりも2.36速くなることを示している。
関連論文リスト
- Deep Unfolding: Recent Developments, Theory, and Design Guidelines [99.63555420898554]
この記事では、最適化アルゴリズムを構造化されたトレーニング可能なMLアーキテクチャに変換するフレームワークであるDeep Unfoldingのチュートリアルスタイルの概要を提供する。
推論と学習のための最適化の基礎を概観し、深層展開のための4つの代表的な設計パラダイムを導入し、その反復的な性質から生じる特有なトレーニングスキームについて議論する。
論文 参考訳(メタデータ) (2025-12-03T13:16:35Z) - Unlocking Symbol-Level Precoding Efficiency Through Tensor Equivariant Neural Network [84.22115118596741]
シンボルレベルのプリコーディングにおいて,推論の複雑さの低いエンドツーエンドディープラーニング(DL)フレームワークを提案する。
提案手法は,従来の手法よりも約80倍の高速化を実現しつつ,SLPの大幅な性能向上を達成できることを示す。
論文 参考訳(メタデータ) (2025-10-02T15:15:50Z) - Intelligent4DSE: Optimizing High-Level Synthesis Design Space Exploration with Graph Neural Networks and Large Language Models [6.711674863088882]
本稿では,タスク適応型メッセージパッシングと大規模言語モデル強化メタヒューリスティックアルゴリズムをグラフニューラルネットワークに統合するフレームワークであるECoGNNs-LLMMHsを提案する。
最先端の作業と比較すると、ECoGNNはHLS後の予測タスクにおいて低い予測誤差を示し、エラーは57.27%減少した。
実装後の予測タスクでは、ECoGNNが最も低い予測エラーを示し、フリップフロップ(FF)では平均17.6%、クリティカルパス(CP)では33.7%である。
論文 参考訳(メタデータ) (2025-04-28T10:08:56Z) - A Survey on Inference Optimization Techniques for Mixture of Experts Models [50.40325411764262]
大規模Mixture of Experts(MoE)モデルは、条件計算によるモデル容量と計算効率の向上を提供する。
これらのモデル上で推論をデプロイし実行することは、計算資源、レイテンシ、エネルギー効率において大きな課題を示す。
本調査では,システムスタック全体にわたるMoEモデルの最適化手法について分析する。
論文 参考訳(メタデータ) (2024-12-18T14:11:15Z) - Logic Synthesis Optimization with Predictive Self-Supervision via Causal Transformers [19.13500546022262]
LSOformerは、自動回帰トランスフォーマーモデルと予測SSLを利用して、結果の質の軌道(QoR)を予測する新しいアプローチである。
LSOformerは、クロスアテンションモジュールを統合して、回路グラフと最適化シーケンスからの洞察をマージし、QoRメトリクスの予測精度を向上させる。
論文 参考訳(メタデータ) (2024-09-16T18:45:07Z) - Unleashing the Potential of Large Language Models as Prompt Optimizers: Analogical Analysis with Gradient-based Model Optimizers [108.72225067368592]
本稿では,大規模言語モデル(LLM)に基づくプロンプトの設計について検討する。
モデルパラメータ学習における2つの重要な要素を同定する。
グラディエントにインスパイアされた Prompt ベースの GPO を開発した。
論文 参考訳(メタデータ) (2024-02-27T15:05:32Z) - A Graph Deep Learning Framework for High-Level Synthesis Design Space
Exploration [11.154086943903696]
High-Level Synthesisは、アプリケーション固有の高速プロトタイピングのためのソリューションである。
本稿では,加速性能とハードウェアコストを共同で予測するグラフニューラルネットワークHLSを提案する。
提案手法は,一般的なシミュレータと同等の精度で予測できることを示す。
論文 参考訳(メタデータ) (2021-11-29T18:17:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。