論文の概要: Deep Inverse Design for High-Level Synthesis
- arxiv url: http://arxiv.org/abs/2407.08797v1
- Date: Thu, 11 Jul 2024 18:13:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 01:46:09.614441
- Title: Deep Inverse Design for High-Level Synthesis
- Title(参考訳): 高レベル合成のための深部インバース設計
- Authors: Ping Chang, Tosiron Adegbija, Yuchao Liao, Claudio Talarico, Ao Li, Janet Roveda,
- Abstract要約: 我々は,グラフニューラルネットワークと生成モデルを統合する新しいアプローチとして,HLSのためのDeep Inverse Design(DID4HLS)を提案する。
DID4HLSは、HLS後のデータから設計特徴の条件分布を学習することにより、計算集約アルゴリズムを目的としたハードウェア設計を反復的に最適化する。
提案手法は,4つの最先端DSEベースラインと比較して,基準セットまでの平均距離で平均42.5%向上した。
- 参考スコア(独自算出の注目度): 1.9029532975354944
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High-level synthesis (HLS) has significantly advanced the automation of digital circuits design, yet the need for expertise and time in pragma tuning remains challenging. Existing solutions for the design space exploration (DSE) adopt either heuristic methods, lacking essential information for further optimization potential, or predictive models, missing sufficient generalization due to the time-consuming nature of HLS and the exponential growth of the design space. To address these challenges, we propose Deep Inverse Design for HLS (DID4HLS), a novel approach that integrates graph neural networks and generative models. DID4HLS iteratively optimizes hardware designs aimed at compute-intensive algorithms by learning conditional distributions of design features from post-HLS data. Compared to four state-of-the-art DSE baselines, our method achieved an average improvement of 42.5% on average distance to reference set (ADRS) compared to the best-performing baselines across six benchmarks, while demonstrating high robustness and efficiency.
- Abstract(参考訳): 高レベル合成(HLS)は、デジタル回路設計の自動化を大幅に進歩させたが、プラグマチューニングにおける専門知識と時間の必要性は依然として困難である。
既存の設計空間探索(DSE)のソリューションは、ヒューリスティックな手法を採用し、さらなる最適化ポテンシャルや予測モデルに不可欠な情報が欠如し、HLSの時間的消費の性質と設計空間の指数的成長のために十分な一般化が欠如している。
これらの課題に対処するために、グラフニューラルネットワークと生成モデルを統合する新しいアプローチである、HLSのためのDeep Inverse Design(DID4HLS)を提案する。
DID4HLSは、HLS後のデータから設計機能の条件分布を学習することで、計算集約アルゴリズムを目的としたハードウェア設計を反復的に最適化する。
提案手法は4つの最先端DSEベースラインと比較して平均基準セット(ADRS)平均距離42.5%の改善を達成し,高いロバスト性および効率性を示した。
関連論文リスト
- Automatically Learning Hybrid Digital Twins of Dynamical Systems [56.69628749813084]
Digital Twins (DT)は、現実世界のシステムの状態と時間力学をシミュレートする。
DTは、しばしばデータスカース設定で目に見えない条件に一般化するのに苦労します。
本稿では,HDTwinsを自律的に提案し,評価し,最適化するための進化的アルゴリズム(textbfHDTwinGen$)を提案する。
論文 参考訳(メタデータ) (2024-10-31T07:28:22Z) - Learning to Compare Hardware Designs for High-Level Synthesis [44.408523725466374]
高レベル合成(HLS)は、高レベルコードをハードウェア設計に変換する自動設計プロセスである。
HLSは、ソースコードに挿入されたディレクティブであるプラグマに依存して合成プロセスを導く。
ハードウェア設計を比較して効率的なHLS最適化を行う新しい手法であるComparXploreを提案する。
論文 参考訳(メタデータ) (2024-09-20T00:47:29Z) - Logic Synthesis Optimization with Predictive Self-Supervision via Causal Transformers [19.13500546022262]
LSOformerは、自動回帰トランスフォーマーモデルと予測SSLを利用して、結果の質の軌道(QoR)を予測する新しいアプローチである。
LSOformerは、クロスアテンションモジュールを統合して、回路グラフと最適化シーケンスからの洞察をマージし、QoRメトリクスの予測精度を向上させる。
論文 参考訳(メタデータ) (2024-09-16T18:45:07Z) - Hyperdimensional Computing Empowered Federated Foundation Model over Wireless Networks for Metaverse [56.384390765357004]
本稿では,新しい基礎モデルのための統合型分割学習と超次元計算フレームワークを提案する。
この新しいアプローチは通信コスト、計算負荷、プライバシーリスクを低減し、Metaverseのリソース制約されたエッジデバイスに適している。
論文 参考訳(メタデータ) (2024-08-26T17:03:14Z) - From English to ASIC: Hardware Implementation with Large Language Model [0.210674772139335]
本稿では,最先端の自然言語モデルの微調整とHDLコードデータセットの再シャッフルについて述べる。
この微調整は、正確で効率的なASIC設計を生成するモデルの習熟度を高めることを目的としている。
データセットのリシャッフルは、トレーニング材料の範囲を広げ、品質を向上させることを意図している。
論文 参考訳(メタデータ) (2024-03-11T09:57:16Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z) - Deep Latent State Space Models for Time-Series Generation [68.45746489575032]
状態空間ODEに従って進化する潜伏変数を持つ列の生成モデルLS4を提案する。
近年の深層状態空間モデル(S4)に着想を得て,LS4の畳み込み表現を利用して高速化を実現する。
LS4は, 実世界のデータセット上での限界分布, 分類, 予測スコアにおいて, 従来の連続時間生成モデルよりも有意に優れていた。
論文 参考訳(メタデータ) (2022-12-24T15:17:42Z) - HDNet: High-resolution Dual-domain Learning for Spectral Compressive
Imaging [138.04956118993934]
HSI再構成のための高分解能デュアルドメイン学習ネットワーク(HDNet)を提案する。
一方、高効率な特徴融合によるHR空間スペクトルアテンションモジュールは、連続的かつ微細な画素レベルの特徴を提供する。
一方、HSI再構成のために周波数領域学習(FDL)を導入し、周波数領域の差を狭める。
論文 参考訳(メタデータ) (2022-03-04T06:37:45Z) - A Graph Deep Learning Framework for High-Level Synthesis Design Space
Exploration [11.154086943903696]
High-Level Synthesisは、アプリケーション固有の高速プロトタイピングのためのソリューションである。
本稿では,加速性能とハードウェアコストを共同で予測するグラフニューラルネットワークHLSを提案する。
提案手法は,一般的なシミュレータと同等の精度で予測できることを示す。
論文 参考訳(メタデータ) (2021-11-29T18:17:45Z) - Accelerating gradient-based topology optimization design with dual-model
neural networks [21.343803954998915]
この研究において、ニューラルネットワークは、前進および感度計算のための効率的な代理モデルとして使用される。
感度解析の精度を向上させるために、前方および感度データの両方でトレーニングされたデュアルモデルニューラルネットワークを構築した。
64x64という問題で得られた効率は、前方計算では137倍、感度解析では74倍である。
論文 参考訳(メタデータ) (2020-09-14T07:52:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。