論文の概要: AutoHLS: Learning to Accelerate Design Space Exploration for HLS Designs
- arxiv url: http://arxiv.org/abs/2403.10686v1
- Date: Fri, 15 Mar 2024 21:14:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 22:24:30.272401
- Title: AutoHLS: Learning to Accelerate Design Space Exploration for HLS Designs
- Title(参考訳): AutoHLS: HLS設計のための設計スペース探索を加速する学習
- Authors: Md Rubel Ahmed, Toshiaki Koike-Akino, Kieran Parsons, Ye Wang,
- Abstract要約: 本稿では,深層ニューラルネットワーク(DNN)とベイズ最適化(BO)を統合してHLSハードウェア設計最適化を高速化する,AutoHLSという新しいフレームワークを提案する。
実験の結果,探索時間の70倍のスピードアップが得られた。
- 参考スコア(独自算出の注目度): 10.690389829735661
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-level synthesis (HLS) is a design flow that leverages modern language features and flexibility, such as complex data structures, inheritance, templates, etc., to prototype hardware designs rapidly. However, exploring various design space parameters can take much time and effort for hardware engineers to meet specific design specifications. This paper proposes a novel framework called AutoHLS, which integrates a deep neural network (DNN) with Bayesian optimization (BO) to accelerate HLS hardware design optimization. Our tool focuses on HLS pragma exploration and operation transformation. It utilizes integrated DNNs to predict synthesizability within a given FPGA resource budget. We also investigate the potential of emerging quantum neural networks (QNNs) instead of classical DNNs for the AutoHLS pipeline. Our experimental results demonstrate up to a 70-fold speedup in exploration time.
- Abstract(参考訳): 高レベル合成(HLS)は、複雑なデータ構造、継承、テンプレートなど、現代的な言語機能と柔軟性を活用して、ハードウェア設計のプロトタイプを迅速に作成する設計フローである。
しかし、様々な設計空間パラメータを探索することは、ハードウェアエンジニアが特定の設計仕様を満たすのに多くの時間と労力を要する可能性がある。
本稿では,深層ニューラルネットワーク(DNN)とベイズ最適化(BO)を統合してHLSハードウェア設計最適化を高速化する,AutoHLSという新しいフレームワークを提案する。
本ツールは,HLSプラグマ探索と操作変換に焦点を当てている。
統合DNNを使用して、所定のFPGAリソース予算内での合成可能性を予測する。
また、AutoHLSパイプライン用の古典的DNNの代わりに、新しい量子ニューラルネットワーク(QNN)の可能性についても検討する。
実験の結果,探索時間の70倍のスピードアップが得られた。
関連論文リスト
- Mechanistic Design and Scaling of Hybrid Architectures [114.3129802943915]
我々は、様々な計算プリミティブから構築された新しいハイブリッドアーキテクチャを特定し、テストする。
本研究では,大規模計算最適法則と新しい状態最適スケーリング法則解析を用いて,結果のアーキテクチャを実験的に検証する。
我々は,MAD合成法と計算-最適パープレキシティを相関させ,新しいアーキテクチャの正確な評価を可能にする。
論文 参考訳(メタデータ) (2024-03-26T16:33:12Z) - LitE-SNN: Designing Lightweight and Efficient Spiking Neural Network through Spatial-Temporal Compressive Network Search and Joint Optimization [48.41286573672824]
スパイキングニューラルネットワーク(SNN)は人間の脳の情報処理機構を模倣し、エネルギー効率が高い。
本稿では,空間圧縮と時間圧縮の両方を自動ネットワーク設計プロセスに組み込むLitE-SNNという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T05:23:11Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - On the Viability of using LLMs for SW/HW Co-Design: An Example in
Designing CiM DNN Accelerators [14.02304927398616]
Deep Neural Networks (DNN)は、幅広いタスクで素晴らしいパフォーマンスを示している。
エッジデバイスにDNNをデプロイすることは、強力なパワーと計算予算のために大きな課題となる。
この問題に対処するために,LLM(Large Language Models)を利用した新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-12T07:50:53Z) - End-to-end codesign of Hessian-aware quantized neural networks for FPGAs
and ASICs [49.358119307844035]
我々は、共設計ニューラルネットワーク(NN)のトレーニングと実装のためのエンドツーエンドワークフローを開発する。
これにより、ハードウェアにおける効率的なNN実装が、非専門家に、単一のオープンソースワークフローでアクセスできるようになる。
大型ハドロン衝突型加速器(LHC)の40MHz衝突速度で動作しなければならないトリガー決定を含む粒子物理学アプリケーションにおけるワークフローを実演する。
シミュレーションLHC陽子-陽子衝突における高速粒子ジェット用混合精度NNを実装した。
論文 参考訳(メタデータ) (2023-04-13T18:00:01Z) - Chimera: A Hybrid Machine Learning Driven Multi-Objective Design Space
Exploration Tool for FPGA High-Level Synthesis [11.128278223431805]
高レベル合成(HLS)ツールはFPGAのハードウェア設計を単純化するために開発された。
高いパフォーマンスを達成するためにこれらの最適化を適用するのには時間がかかり、通常は専門家の知識が必要です。
本稿では,HLS最適化ディレクティブを応用した自動設計空間探索ツールChimeraを提案する。
論文 参考訳(メタデータ) (2022-07-03T21:13:55Z) - Sionna: An Open-Source Library for Next-Generation Physical Layer
Research [64.77840557164266]
Sionnaは、レイカーネルに基づいたリンクレベルシミュレーションのためのGPUアクセラレーションされたオープンソースライブラリである。
Sionnaは、ベンチマークやエンドツーエンドのパフォーマンス評価に使用できる、注意深くテストされた最先端のアルゴリズムを幅広く実装している。
論文 参考訳(メタデータ) (2022-03-22T16:31:44Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - A Graph Deep Learning Framework for High-Level Synthesis Design Space
Exploration [11.154086943903696]
High-Level Synthesisは、アプリケーション固有の高速プロトタイピングのためのソリューションである。
本稿では,加速性能とハードウェアコストを共同で予測するグラフニューラルネットワークHLSを提案する。
提案手法は,一般的なシミュレータと同等の精度で予測できることを示す。
論文 参考訳(メタデータ) (2021-11-29T18:17:45Z) - Algorithm and Hardware Co-design for Reconfigurable CNN Accelerator [3.1431240233552007]
ディープニューラルネットワーク(DNN)のためのアルゴリズムハードウェアの共同設計の最近の進歩は、ニューラルネットワークやハードウェア設計を自動設計する可能性を示している。
しかし、高価なトレーニングコストと時間を要するハードウェア実装のため、これは依然として困難な最適化問題である。
本稿では,新しい3相共設計フレームワークを提案する。
ネットワークとハードウェアの構成は精度が2%向上し,レイテンシが2倍26倍,エネルギー効率が8.5倍向上した。
論文 参考訳(メタデータ) (2021-11-24T20:37:50Z) - GNN-DSE: Automated Accelerator Optimization Aided by Graph Neural
Networks [31.11645988046767]
高レベル合成(HLS)は、コンピュータアーキテクトが設計を非常に低レベルな言語で開発することを解放した。
本稿では,HLSツールを広範囲のアプリケーションに使用するために訓練されたグラフニューラルネットワーク(GNN)を用いてモデル化することで,この問題を解決することを提案する。
論文 参考訳(メタデータ) (2021-11-17T00:36:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。