論文の概要: A Graph Deep Learning Framework for High-Level Synthesis Design Space
Exploration
- arxiv url: http://arxiv.org/abs/2111.14767v1
- Date: Mon, 29 Nov 2021 18:17:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 19:32:52.456175
- Title: A Graph Deep Learning Framework for High-Level Synthesis Design Space
Exploration
- Title(参考訳): 高レベル合成設計空間探索のためのグラフ深層学習フレームワーク
- Authors: Lorenzo Ferretti, Andrea Cini, Georgios Zacharopoulos, Cesare Alippi,
Laura Pozzi
- Abstract要約: High-Level Synthesisは、アプリケーション固有の高速プロトタイピングのためのソリューションである。
本稿では,加速性能とハードウェアコストを共同で予測するグラフニューラルネットワークHLSを提案する。
提案手法は,一般的なシミュレータと同等の精度で予測できることを示す。
- 参考スコア(独自算出の注目度): 11.154086943903696
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The design of efficient hardware accelerators for high-throughput
data-processing applications, e.g., deep neural networks, is a challenging task
in computer architecture design. In this regard, High-Level Synthesis (HLS)
emerges as a solution for fast prototyping application-specific hardware
starting from a behavioural description of the application computational flow.
This Design-Space Exploration (DSE) aims at identifying Pareto optimal
synthesis configurations whose exhaustive search is often unfeasible due to the
design-space dimensionality and the prohibitive computational cost of the
synthesis process. Within this framework, we effectively and efficiently
address the design problem by proposing, for the first time in the literature,
graph neural networks that jointly predict acceleration performance and
hardware costs of a synthesized behavioral specification given optimization
directives. The learned model can be used to rapidly approach the Pareto curve
by guiding the DSE, taking into account performance and cost estimates. The
proposed method outperforms traditional HLS-driven DSE approaches, by
accounting for arbitrary length of computer programs and the invariant
properties of the input. We propose a novel hybrid control and data flow graph
representation that enables training the graph neural network on specifications
of different hardware accelerators; the methodology naturally transfers to
unseen data-processing applications too. Moreover, we show that our approach
achieves prediction accuracy comparable with that of commonly used simulators
without having access to analytical models of the HLS compiler and the target
FPGA, while being orders of magnitude faster. Finally, the learned
representation can be exploited for DSE in unexplored configuration spaces by
fine-tuning on a small number of samples from the new target domain.
- Abstract(参考訳): 高スループットデータ処理アプリケーション、例えばディープニューラルネットワークのための効率的なハードウェアアクセラレーターの設計は、コンピュータアーキテクチャ設計において難しい課題である。
この点において、高レベル合成(HLS)は、アプリケーション計算フローの振る舞い記述から始まる、アプリケーション固有のハードウェアを高速にプロトタイピングするためのソリューションとして現れる。
この設計空間探索(dse)は、設計空間の次元と合成プロセスの計算コストのため、しばしば排他的探索が不可能となるパレート最適合成構成を特定することを目的としている。
本フレームワークでは,最適化指示を与えられた合成動作仕様の高速化性能とハードウェアコストを共同で予測するグラフニューラルネットワークを,文献で初めて提案することにより,設計問題を効果的かつ効率的に解決する。
学習モデルは、性能とコスト見積を考慮してDSEを導くことで、パレート曲線に迅速にアプローチすることができる。
提案手法は,コンピュータプログラムの任意の長さと入力の不変性を考慮することで,従来の hls 駆動 dse 手法よりも優れる。
本稿では,異なるハードウェアアクセラレータの仕様に基づいて,グラフニューラルネットワークのトレーニングを可能にする,新たなハイブリッド制御とデータフローグラフ表現を提案する。
さらに,提案手法は,HLSコンパイラとFPGAの解析モデルへのアクセスを行なわずに,一般的なシミュレータと同等の精度で予測できることを示す。
最後に、学習された表現は、新しいターゲットドメインから少数のサンプルを微調整することで、未探索の構成空間でdseを活用できる。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Mechanistic Design and Scaling of Hybrid Architectures [114.3129802943915]
我々は、様々な計算プリミティブから構築された新しいハイブリッドアーキテクチャを特定し、テストする。
本研究では,大規模計算最適法則と新しい状態最適スケーリング法則解析を用いて,結果のアーキテクチャを実験的に検証する。
我々は,MAD合成法と計算-最適パープレキシティを相関させ,新しいアーキテクチャの正確な評価を可能にする。
論文 参考訳(メタデータ) (2024-03-26T16:33:12Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - h-analysis and data-parallel physics-informed neural networks [0.7614628596146599]
物理インフォームドニューラルネットワーク(PINN)に着目した機械学習スキームのデータ並列高速化について検討する。
我々はHorovodトレーニングフレームワークを通じて、$h$-analysisとデータ並列アクセラレーションに基づく新しいプロトコルを詳述する。
アクセラレーションは実装が簡単で、トレーニングを損なわず、非常に効率的で制御可能であることを示す。
論文 参考訳(メタデータ) (2023-02-17T12:15:18Z) - Towards Theoretically Inspired Neural Initialization Optimization [66.04735385415427]
我々は,ニューラルネットワークの初期状態を評価するための理論的知見を備えた,GradCosineという微分可能な量を提案する。
標準制約下でGradCosineを最大化することにより、ネットワークのトレーニングとテストの両方の性能を向上させることができることを示す。
サンプル分析から実際のバッチ設定に一般化されたNIOは、無視可能なコストで、より優れた初期化を自動で探すことができる。
論文 参考訳(メタデータ) (2022-10-12T06:49:16Z) - FreeREA: Training-Free Evolution-based Architecture Search [17.202375422110553]
FreeREAは、トレーニングなしメトリクスの最適化組み合わせを利用してアーキテクチャをランク付けする、独自のセルベースの進化NASアルゴリズムである。
本実験はNAS-Bench-101とNATS-Benchの共通ベンチマークを用いて,フリーレアがモデル自動設計のための高速で効率的かつ効果的な探索手法であることを実証した。
論文 参考訳(メタデータ) (2022-06-17T11:16:28Z) - Towards Optimal VPU Compiler Cost Modeling by using Neural Networks to
Infer Hardware Performances [58.720142291102135]
VPUNN"は低レベルのタスクプロファイリングに基づいてトレーニングされたニューラルネットワークベースのコストモデルである。
これは、IntelのVPUプロセッサのラインにおける最先端のコストモデリングよりも一貫して優れている。
論文 参考訳(メタデータ) (2022-05-09T22:48:39Z) - Hybrid Graph Models for Logic Optimization via Spatio-Temporal
Information [15.850413267830522]
EDAにおけるプロダクション対応MLアプリケーションを妨げるおもな懸念点は、正確性要件と一般化能力である。
本稿では,高精度なQoR推定に対するハイブリッドグラフニューラルネットワーク(GNN)に基づくアプローチを提案する。
3.3百万のデータポイントの評価によると、トレーニング中に見つからないデザインの絶対パーセンテージエラー(MAPE)は1.2%と3.1%に満たない。
論文 参考訳(メタデータ) (2022-01-20T21:12:22Z) - Adaptive Anomaly Detection for Internet of Things in Hierarchical Edge
Computing: A Contextual-Bandit Approach [81.5261621619557]
階層エッジコンピューティング(HEC)を用いた適応型異常検出手法を提案する。
まず,複雑性を増した複数のDNNモデルを構築し,それぞれを対応するHEC層に関連付ける。
そこで我々は、文脈帯域問題として定式化され、強化学習ポリシーネットワークを用いて解決される適応モデル選択スキームを設計する。
論文 参考訳(メタデータ) (2021-08-09T08:45:47Z) - On the Difficulty of Designing Processor Arrays for Deep Neural Networks [0.0]
カムーイ (Camuy) は、線形代数演算のための重み付き定常シストリックアレイの軽量モデルである。
本稿では,必要サイクル,データ移動コスト,およびシストリックアレイの利用率を推定する方法を説明するために,人気モデルの解析を行う。
論文 参考訳(メタデータ) (2020-06-24T19:24:08Z) - GraphACT: Accelerating GCN Training on CPU-FPGA Heterogeneous Platforms [1.2183405753834562]
グラフ畳み込みネットワーク(GCN)は、グラフ上での表現学習のための最先端のディープラーニングモデルとして登場した。
実質的かつ不規則なデータ通信のため、GCNの訓練を加速することは困難である。
我々はCPU-FPGAヘテロジニアスシステム上でGCNをトレーニングするための新しいアクセラレータを設計する。
論文 参考訳(メタデータ) (2019-12-31T21:19:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。