論文の概要: Efficient Task Transfer for HLS DSE
- arxiv url: http://arxiv.org/abs/2408.13270v1
- Date: Fri, 16 Aug 2024 19:54:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-01 16:52:18.453879
- Title: Efficient Task Transfer for HLS DSE
- Title(参考訳): HLS DSEの効率的なタスク転送
- Authors: Zijian Ding, Atefeh Sohrabizadeh, Weikai Li, Zongyue Qin, Yizhou Sun, Jason Cong,
- Abstract要約: 高レベル合成(HLS)設計空間探索に関わる課題に対処する。
これらのツールが発達するにつれて、合成結果の質(QoR)は著しく変化する。
ツールチェーンの変更に対して効率的に適応するように設計されたモデルベースのエクスプローラーを活用するタスク転送学習スキームであるActive-CEMを紹介する。
- 参考スコア(独自算出の注目度): 39.03556214534823
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There have been several recent works proposed to utilize model-based optimization methods to improve the productivity of using high-level synthesis (HLS) to design domain-specific architectures. They would replace the time-consuming performance estimation or simulation of design with a proxy model, and automatically insert pragmas to guide hardware optimizations. In this work, we address the challenges associated with high-level synthesis (HLS) design space exploration (DSE) through the evolving landscape of HLS tools. As these tools develop, the quality of results (QoR) from synthesis can vary significantly, complicating the maintenance of optimal design strategies across different toolchains. We introduce Active-CEM, a task transfer learning scheme that leverages a model-based explorer designed to adapt efficiently to changes in toolchains. This approach optimizes sample efficiency by identifying high-quality design configurations under a new toolchain without requiring extensive re-evaluation. We further refine our methodology by incorporating toolchain-invariant modeling. This allows us to predict QoR changes more accurately despite shifts in the black-box implementation of the toolchains. Experiment results on the HLSyn benchmark transitioning to new toolchain show an average performance improvement of 1.58$\times$ compared to AutoDSE and a 1.2$\times$ improvement over HARP, while also increasing the sample efficiency by 5.26$\times$, and reducing the runtime by 2.7$\times$.
- Abstract(参考訳): 近年,高レベル合成(HLS)によるドメイン固有アーキテクチャの設計の生産性向上のために,モデルに基づく最適化手法の利用が提案されている。
それらは、設計の時間を要するパフォーマンス見積やシミュレーションをプロキシモデルに置き換え、ハードウェア最適化を導くために自動的にプラグマを挿入する。
本研究では,高次合成(HLS)設計空間探索(DSE)に関わる課題を,HLSツールの進化する展望を通して解決する。
これらのツールが発達するにつれて、結果の質(QoR)は大幅に変化し、異なるツールチェーン間の最適な設計戦略の維持が複雑になる。
ツールチェーンの変更に対して効率的に適応するように設計されたモデルベースのエクスプローラーを活用するタスク転送学習スキームであるActive-CEMを紹介する。
このアプローチは、大規模な再評価を必要とせずに、新しいツールチェーンの下で高品質な設計構成を識別することで、サンプル効率を最適化する。
ツールチェーン不変モデリングを取り入れることで、方法論をさらに洗練する。
これにより、ツールチェーンのブラックボックス実装の変更にもかかわらず、QoRの変更をより正確に予測できます。
新しいツールチェーンに移行するHLSynベンチマークの実験結果は、AutoDSEと比較して平均パフォーマンスが1.58$\times$、HARPよりも1.2$\times$、サンプル効率が5.26$\times$、ランタイムが2.7$\times$であることを示している。
関連論文リスト
- MetaML-Pro: Cross-Stage Design Flow Automation for Efficient Deep Learning Acceleration [8.43012094714496]
本稿では、リソース制約のあるハードウェア上にディープニューラルネットワーク(DNN)をデプロイするための最適化戦略の体系化と自動化のための統一的なフレームワークを提案する。
我々の新しいアプローチは、クロスステージなコ最適化と最適化検索の2つの主要な問題に対処する。
実験の結果、一部のネットワークでは92%のDSPと89%のLUT使用率低下が確認された。
論文 参考訳(メタデータ) (2025-02-09T11:02:06Z) - Learning to Generate Gradients for Test-Time Adaptation via Test-Time Training Layers [18.921532965557475]
テストタイム適応は、未ラベルのテストデータを使用してトレーニングされたモデルをオンラインで微調整することを目的としている。
この最適化プロセスでは、エントロピーのような教師なし学習目標がノイズの多い学習信号に頻繁に遭遇する。
そこで我々は,メタグラディエント・ジェネレータと呼ばれるエントロピー・ジェネレータを自動的に学習するために,学習と最適化のアプローチを採用した。
論文 参考訳(メタデータ) (2024-12-22T07:24:09Z) - Learning to Compare Hardware Designs for High-Level Synthesis [44.408523725466374]
高レベル合成(HLS)は、高レベルコードをハードウェア設計に変換する自動設計プロセスである。
HLSは、ソースコードに挿入されたディレクティブであるプラグマに依存して合成プロセスを導く。
ハードウェア設計を比較して効率的なHLS最適化を行う新しい手法であるComparXploreを提案する。
論文 参考訳(メタデータ) (2024-09-20T00:47:29Z) - Cross-Modality Program Representation Learning for Electronic Design Automation with High-Level Synthesis [45.471039079664656]
ドメイン固有アクセラレータ(DSA)は、ディープラーニングや自律運転などのアプリケーションで人気を集めている。
本稿では,ソースコードシーケンスのモダリティとグラフのモダリティを深く,きめ細かな方法で相互作用できるモデルであるProgSGを提案する。
ProgSGは、設計性能予測のRMSEを最大22%の価格で削減し、設計を平均1.10Times$で識別する。
論文 参考訳(メタデータ) (2024-06-13T22:34:58Z) - Unleashing the Potential of Large Language Models as Prompt Optimizers: Analogical Analysis with Gradient-based Model Optimizers [108.72225067368592]
本稿では,大規模言語モデル(LLM)に基づくプロンプトの設計について検討する。
モデルパラメータ学習における2つの重要な要素を同定する。
グラディエントにインスパイアされた Prompt ベースの GPO を開発した。
論文 参考訳(メタデータ) (2024-02-27T15:05:32Z) - A Model-Based Machine Learning Approach for Assessing the Performance of
Blockchain Applications [0.0]
ブロックチェーンのパフォーマンスを予測するために、機械学習(ML)モデルベースの手法を使用します。
我々は、最適なブロックチェーン構成を調査できるSalp Swarm Optimization (SO) MLモデルを採用している。
この$k$NNモデルはSVMを5%上回り、ISOは通常のSOに比べて4%の不正確な偏差を減少させることを示した。
論文 参考訳(メタデータ) (2023-09-20T10:39:21Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Learning Performance-Improving Code Edits [107.21538852090208]
本稿では,大規模言語モデル(LLM)を高レベルプログラム最適化に適用するためのフレームワークを提案する。
まず、競争力のある77,000以上のC++プログラミングサブミッションペアによる、人間のプログラマによるパフォーマンス改善編集のデータセットをキュレートする。
提案手法は,検索をベースとした少数ショットプロンプトとチェーン・オブ・シンクレットを提案し,その微調整には,自己再生に基づく性能条件付き生成と合成データ拡張が含まれる。
論文 参考訳(メタデータ) (2023-02-15T18:59:21Z) - VeLO: Training Versatile Learned Optimizers by Scaling Up [67.90237498659397]
私たちは、ディープラーニングの成功の背後にある同じスケーリングアプローチを活用して、汎用性を学びます。
私たちは、パラメータの更新を取り込み出力する小さなニューラルネットワークであるディープラーニングのためのインジェクションをトレーニングします。
学習したメタトレーニングコード、関連するトレインテストデータ、およびvelo-code.ioのベースラインを備えた広範なベンチマークスイートをオープンソースとして公開しています。
論文 参考訳(メタデータ) (2022-11-17T18:39:07Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。