論文の概要: MPM-LLM4DSE: Reaching the Pareto Frontier in HLS with Multimodal Learning and LLM-Driven Exploration
- arxiv url: http://arxiv.org/abs/2601.04801v1
- Date: Thu, 08 Jan 2026 10:32:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.161349
- Title: MPM-LLM4DSE: Reaching the Pareto Frontier in HLS with Multimodal Learning and LLM-Driven Exploration
- Title(参考訳): MPM-LLM4DSE:マルチモーダル学習とLLM駆動探索によるHLSにおけるパレートフロンティアの到達
- Authors: Lei Xu, Shanshan Wang, Chenglong Xiao,
- Abstract要約: 本稿では,マルチモーダル予測モデル(MPM)を組み込んだMPM-LLM4DSEフレームワークを提案する。
実験の結果,我々のマルチモーダル予測モデルは最先端のProgSGを最大10.25$times$で大幅に上回ることがわかった。
- 参考スコア(独自算出の注目度): 7.33202262448994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-Level Synthesis (HLS) design space exploration (DSE) seeks Pareto-optimal designs within expansive pragma configuration spaces. To accelerate HLS DSE, graph neural networks (GNNs) are commonly employed as surrogates for HLS tools to predict quality of results (QoR) metrics, while multi-objective optimization algorithms expedite the exploration. However, GNN-based prediction methods may not fully capture the rich semantic features inherent in behavioral descriptions, and conventional multi-objective optimization algorithms often do not explicitly account for the domain-specific knowledge regarding how pragma directives influence QoR. To address these limitations, this paper proposes the MPM-LLM4DSE framework, which incorporates a multimodal prediction model (MPM) that simultaneously fuses features from behavioral descriptions and control and data flow graphs. Furthermore, the framework employs a large language model (LLM) as an optimizer, accompanied by a tailored prompt engineering methodology. This methodology incorporates pragma impact analysis on QoR to guide the LLM in generating high-quality configurations (LLM4DSE). Experimental results demonstrate that our multimodal predictive model significantly outperforms state-of-the-art work ProgSG by up to 10.25$\times$. Furthermore, in DSE tasks, the proposed LLM4DSE achieves an average performance gain of 39.90\% over prior methods, validating the effectiveness of our prompting methodology. Code and models are available at https://github.com/wslcccc/MPM-LLM4DSE.
- Abstract(参考訳): 高レベル合成(HLS)設計空間探索(DSE)は、拡張プラグマ構成空間内でパレート最適設計を求める。
HLS DSEを加速するために、HLSツールのサロゲートとしてグラフニューラルネットワーク(GNN)がよく使われ、多目的最適化アルゴリズムが探索を高速化する。
しかし, 従来の多目的最適化アルゴリズムでは, プラグマディレクティブがQoRに与える影響について, ドメイン固有の知識を明示的に考慮していないことが多い。
これらの制約に対処するために,マルチモーダル予測モデル(MPM)を組み込んだMPM-LLM4DSEフレームワークを提案する。
さらに、このフレームワークは最適化ツールとして大きな言語モデル(LLM)を採用しており、カスタマイズされたプロンプトエンジニアリング手法を伴っている。
この手法はQoR上のプラグマ影響解析を取り入れ、高品質な構成(LLM4DSE)の生成においてLCMを導く。
実験の結果,我々のマルチモーダル予測モデルは最先端のProgSGを最大10.25$\times$で大幅に上回ることがわかった。
さらに、DSEタスクにおいて、提案したLLM4DSEは、従来の手法よりも平均39.90倍の性能向上を実現し、提案手法の有効性を検証した。
コードとモデルはhttps://github.com/wslcccc/MPM-LLM4DSEで公開されている。
関連論文リスト
- Large Language Model enabled Mathematical Modeling [2.132096006921049]
本研究では,Large Language Models (LLMs) の自然言語理解とコード生成による定式化ギャップを埋める可能性について検討する。
DeepSeek-R1は、強化学習で訓練された費用効率で高性能なモデルである。
本手法は,基礎的評価,幻覚分類の発達,緩和戦略の適用を含む。
論文 参考訳(メタデータ) (2025-10-22T17:41:42Z) - MM-HELIX: Boosting Multimodal Long-Chain Reflective Reasoning with Holistic Platform and Adaptive Hybrid Policy Optimization [103.74675519953898]
ロングチェーンのリフレクティブ推論は、複雑な現実世界の問題を解決するための前提条件である。
我々は42の難解な合成タスクの1,260のサンプルからなるベンチマークを構築した。
トレーニング後のデータを生成し、そのようなデータを活用するための学習パラダイムを探索する。
論文 参考訳(メタデータ) (2025-10-09T17:53:58Z) - Large Language Model Assisted Automated Algorithm Generation and Evolution via Meta-black-box optimization [9.184788298623062]
AwesomeDEは大規模言語モデル(LLM)をメタ最適化の戦略として活用し、人間の介入なしに制約付き進化アルゴリズムの更新ルールを生成する。
素早い設計と反復的な改良を含む重要なコンポーネントは、設計品質への影響を判断するために体系的に分析される。
実験の結果,提案手法は計算効率と解の精度で既存手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-09-16T17:02:24Z) - Quantization Meets dLLMs: A Systematic Study of Post-training Quantization for Diffusion LLMs [78.09559830840595]
本稿では拡散に基づく言語モデルの定量化に関する最初の体系的研究について述べる。
異常に大きなアクティベーション値によって特徴付けられるアクティベーションアウトリーチの存在を同定する。
我々は最先端のPTQ手法を実装し、包括的な評価を行う。
論文 参考訳(メタデータ) (2025-08-20T17:59:51Z) - LLM4CMO: Large Language Model-aided Algorithm Design for Constrained Multiobjective Optimization [54.35609820607923]
大規模言語モデル(LLM)は、アルゴリズム設計を支援する新しい機会を提供する。
LLM4CMOは,2つの人口構成をもつ2段階のフレームワークをベースとした新しいCMOEAである。
LLMは複雑な進化最適化アルゴリズムの開発において効率的な共同設計者として機能する。
論文 参考訳(メタデータ) (2025-08-16T02:00:57Z) - Domain-Generalization to Improve Learning in Meta-Learning Algorithms [0.0]
ドメイン一般化シャープネスを考慮した最小化モデル-非依存メタラーニング(DGS-MAML)
本稿では,学習データに制限のあるタスクを対象とするメタ学習アルゴリズムであるDGS-MAML(Domain Generalization Sharpness-Aware Minimization Model-Agnostic Meta-Learning)を提案する。
ベンチマークデータセット実験の結果,DGS-MAMLは精度と一般化の点で既存手法よりも優れていた。
論文 参考訳(メタデータ) (2025-08-13T01:30:11Z) - Intelligent4DSE: Optimizing High-Level Synthesis Design Space Exploration with Graph Neural Networks and Large Language Models [6.711674863088882]
本稿では,タスク適応型メッセージパッシングと大規模言語モデル強化メタヒューリスティックアルゴリズムをグラフニューラルネットワークに統合するフレームワークであるECoGNNs-LLMMHsを提案する。
最先端の作業と比較すると、ECoGNNはHLS後の予測タスクにおいて低い予測誤差を示し、エラーは57.27%減少した。
実装後の予測タスクでは、ECoGNNが最も低い予測エラーを示し、フリップフロップ(FF)では平均17.6%、クリティカルパス(CP)では33.7%である。
論文 参考訳(メタデータ) (2025-04-28T10:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。