論文の概要: Efficient Task Transfer for HLS DSE
- arxiv url: http://arxiv.org/abs/2408.13270v1
- Date: Fri, 16 Aug 2024 19:54:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-01 16:52:18.453879
- Title: Efficient Task Transfer for HLS DSE
- Title(参考訳): HLS DSEの効率的なタスク転送
- Authors: Zijian Ding, Atefeh Sohrabizadeh, Weikai Li, Zongyue Qin, Yizhou Sun, Jason Cong,
- Abstract要約: 高レベル合成(HLS)設計空間探索に関わる課題に対処する。
これらのツールが発達するにつれて、合成結果の質(QoR)は著しく変化する。
ツールチェーンの変更に対して効率的に適応するように設計されたモデルベースのエクスプローラーを活用するタスク転送学習スキームであるActive-CEMを紹介する。
- 参考スコア(独自算出の注目度): 39.03556214534823
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There have been several recent works proposed to utilize model-based optimization methods to improve the productivity of using high-level synthesis (HLS) to design domain-specific architectures. They would replace the time-consuming performance estimation or simulation of design with a proxy model, and automatically insert pragmas to guide hardware optimizations. In this work, we address the challenges associated with high-level synthesis (HLS) design space exploration (DSE) through the evolving landscape of HLS tools. As these tools develop, the quality of results (QoR) from synthesis can vary significantly, complicating the maintenance of optimal design strategies across different toolchains. We introduce Active-CEM, a task transfer learning scheme that leverages a model-based explorer designed to adapt efficiently to changes in toolchains. This approach optimizes sample efficiency by identifying high-quality design configurations under a new toolchain without requiring extensive re-evaluation. We further refine our methodology by incorporating toolchain-invariant modeling. This allows us to predict QoR changes more accurately despite shifts in the black-box implementation of the toolchains. Experiment results on the HLSyn benchmark transitioning to new toolchain show an average performance improvement of 1.58$\times$ compared to AutoDSE and a 1.2$\times$ improvement over HARP, while also increasing the sample efficiency by 5.26$\times$, and reducing the runtime by 2.7$\times$.
- Abstract(参考訳): 近年,高レベル合成(HLS)によるドメイン固有アーキテクチャの設計の生産性向上のために,モデルに基づく最適化手法の利用が提案されている。
それらは、設計の時間を要するパフォーマンス見積やシミュレーションをプロキシモデルに置き換え、ハードウェア最適化を導くために自動的にプラグマを挿入する。
本研究では,高次合成(HLS)設計空間探索(DSE)に関わる課題を,HLSツールの進化する展望を通して解決する。
これらのツールが発達するにつれて、結果の質(QoR)は大幅に変化し、異なるツールチェーン間の最適な設計戦略の維持が複雑になる。
ツールチェーンの変更に対して効率的に適応するように設計されたモデルベースのエクスプローラーを活用するタスク転送学習スキームであるActive-CEMを紹介する。
このアプローチは、大規模な再評価を必要とせずに、新しいツールチェーンの下で高品質な設計構成を識別することで、サンプル効率を最適化する。
ツールチェーン不変モデリングを取り入れることで、方法論をさらに洗練する。
これにより、ツールチェーンのブラックボックス実装の変更にもかかわらず、QoRの変更をより正確に予測できます。
新しいツールチェーンに移行するHLSynベンチマークの実験結果は、AutoDSEと比較して平均パフォーマンスが1.58$\times$、HARPよりも1.2$\times$、サンプル効率が5.26$\times$、ランタイムが2.7$\times$であることを示している。
関連論文リスト
- Unlearning as multi-task optimization: A normalized gradient difference approach with an adaptive learning rate [105.86576388991713]
正規化勾配差(NGDiff)アルゴリズムを導入し、目的間のトレードオフをよりよく制御できるようにする。
本研究では,TOFUおよびMUSEデータセットにおける最先端の未学習手法において,NGDiffの優れた性能を実証的に実証し,理論的解析を行った。
論文 参考訳(メタデータ) (2024-10-29T14:41:44Z) - Learning to Compare Hardware Designs for High-Level Synthesis [44.408523725466374]
高レベル合成(HLS)は、高レベルコードをハードウェア設計に変換する自動設計プロセスである。
HLSは、ソースコードに挿入されたディレクティブであるプラグマに依存して合成プロセスを導く。
ハードウェア設計を比較して効率的なHLS最適化を行う新しい手法であるComparXploreを提案する。
論文 参考訳(メタデータ) (2024-09-20T00:47:29Z) - Cross-Modality Program Representation Learning for Electronic Design Automation with High-Level Synthesis [45.471039079664656]
ドメイン固有アクセラレータ(DSA)は、ディープラーニングや自律運転などのアプリケーションで人気を集めている。
本稿では,ソースコードシーケンスのモダリティとグラフのモダリティを深く,きめ細かな方法で相互作用できるモデルであるProgSGを提案する。
ProgSGは、設計性能予測のRMSEを最大22%の価格で削減し、設計を平均1.10Times$で識別する。
論文 参考訳(メタデータ) (2024-06-13T22:34:58Z) - LInK: Learning Joint Representations of Design and Performance Spaces through Contrastive Learning for Mechanism Synthesis [15.793704096341523]
本稿では,性能と設計空間のコントラスト学習と最適化手法を統合する新しいフレームワークであるLInKを紹介する。
マルチモーダルおよび変換不変のコントラスト学習フレームワークを活用することで、LInKは複雑な物理学とメカニズムの設計表現をキャプチャする共同表現を学習する。
以上の結果から,LInKは機構設計の分野を進展させるだけでなく,他の工学分野へのコントラスト学習や最適化の適用性も拡大することが示された。
論文 参考訳(メタデータ) (2024-05-31T03:04:57Z) - A Model-Based Machine Learning Approach for Assessing the Performance of
Blockchain Applications [0.0]
ブロックチェーンのパフォーマンスを予測するために、機械学習(ML)モデルベースの手法を使用します。
我々は、最適なブロックチェーン構成を調査できるSalp Swarm Optimization (SO) MLモデルを採用している。
この$k$NNモデルはSVMを5%上回り、ISOは通常のSOに比べて4%の不正確な偏差を減少させることを示した。
論文 参考訳(メタデータ) (2023-09-20T10:39:21Z) - HUB: Guiding Learned Optimizers with Continuous Prompt Tuning [45.662334160254176]
学習はメタ学習の重要な要素である。
スケーラブルな学習の最近の進歩は、様々なタスクにおいて手作業よりも優れたパフォーマンスを示している。
本稿では,スケーラブルな学習における一般化問題に対処するため,ハイブリッド更新ベース(HUB)最適化手法を提案する。
論文 参考訳(メタデータ) (2023-05-26T11:08:20Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Learning Performance-Improving Code Edits [107.21538852090208]
本稿では,大規模言語モデル(LLM)を高レベルプログラム最適化に適用するためのフレームワークを提案する。
まず、競争力のある77,000以上のC++プログラミングサブミッションペアによる、人間のプログラマによるパフォーマンス改善編集のデータセットをキュレートする。
提案手法は,検索をベースとした少数ショットプロンプトとチェーン・オブ・シンクレットを提案し,その微調整には,自己再生に基づく性能条件付き生成と合成データ拡張が含まれる。
論文 参考訳(メタデータ) (2023-02-15T18:59:21Z) - VeLO: Training Versatile Learned Optimizers by Scaling Up [67.90237498659397]
私たちは、ディープラーニングの成功の背後にある同じスケーリングアプローチを活用して、汎用性を学びます。
私たちは、パラメータの更新を取り込み出力する小さなニューラルネットワークであるディープラーニングのためのインジェクションをトレーニングします。
学習したメタトレーニングコード、関連するトレインテストデータ、およびvelo-code.ioのベースラインを備えた広範なベンチマークスイートをオープンソースとして公開しています。
論文 参考訳(メタデータ) (2022-11-17T18:39:07Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。