論文の概要: GNN-DSE: Automated Accelerator Optimization Aided by Graph Neural
Networks
- arxiv url: http://arxiv.org/abs/2111.08848v1
- Date: Wed, 17 Nov 2021 00:36:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 15:20:58.068043
- Title: GNN-DSE: Automated Accelerator Optimization Aided by Graph Neural
Networks
- Title(参考訳): gnn-dse:グラフニューラルネットワークによるアクセラレーションの自動最適化
- Authors: Atefeh Sohrabizadeh, Yunsheng Bai, Yizhou Sun, and Jason Cong
- Abstract要約: 高レベル合成(HLS)は、コンピュータアーキテクトが設計を非常に低レベルな言語で開発することを解放した。
本稿では,HLSツールを広範囲のアプリケーションに使用するために訓練されたグラフニューラルネットワーク(GNN)を用いてモデル化することで,この問題を解決することを提案する。
- 参考スコア(独自算出の注目度): 31.11645988046767
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-level synthesis (HLS) has freed the computer architects from developing
their designs in a very low-level language and needing to exactly specify how
the data should be transferred in register-level. With the help of HLS, the
hardware designers must describe only a high-level behavioral flow of the
design. Despite this, it still can take weeks to develop a high-performance
architecture mainly because there are many design choices at a higher level
that requires more time to explore. It also takes several minutes to hours to
get feedback from the HLS tool on the quality of each design candidate. In this
paper, we propose to solve this problem by modeling the HLS tool with a graph
neural network (GNN) that is trained to be used for a wide range of
applications. The experimental results demonstrate that by employing the
GNN-based model, we are able to estimate the quality of design in milliseconds
with high accuracy which can help us search through the solution space very
quickly.
- Abstract(参考訳): 高レベル合成(HLS)により、コンピュータアーキテクトは、非常に低レベルな言語で設計を開発できなくなり、レジスタレベルのデータの転送方法を正確に指定する必要がなくなった。
HLSの助けを借りて、ハードウェアデザイナは設計の高レベルの振る舞いフローのみを記述する必要がある。
それにもかかわらず、主に高いレベルで多くの設計選択があり、探索により多くの時間を要するため、ハイパフォーマンスなアーキテクチャを開発するのにまだ数週間かかる可能性がある。
また、設計候補の品質に関するHLSツールからのフィードバックを得るためには、数分から数時間かかる。
本稿では,HLSツールを広範囲のアプリケーションに使用するためにトレーニングされたグラフニューラルネットワーク(GNN)を用いてモデル化することで,この問題を解決することを提案する。
実験結果から,GNNモデルを用いることで,設計の質をミリ秒単位で高精度に推定し,解空間を高速に探索できることが示唆された。
関連論文リスト
- Computation-friendly Graph Neural Network Design by Accumulating Knowledge on Large Language Models [20.31388126105889]
グラフニューラルネットワーク(GNN)は目覚ましい成功を収めているが、アーキテクチャ設計の複雑さによって妨げられている。
人間の作業量を減らすために、研究者はGNNを設計するための自動アルゴリズムを開発しようとしている。
論文 参考訳(メタデータ) (2024-08-13T08:22:01Z) - Cross-Modality Program Representation Learning for Electronic Design Automation with High-Level Synthesis [45.471039079664656]
ドメイン固有アクセラレータ(DSA)は、ディープラーニングや自律運転などのアプリケーションで人気を集めている。
本稿では,ソースコードシーケンスのモダリティとグラフのモダリティを深く,きめ細かな方法で相互作用できるモデルであるProgSGを提案する。
ProgSGは、設計性能予測のRMSEを最大22%の価格で削減し、設計を平均1.10Times$で識別する。
論文 参考訳(メタデータ) (2024-06-13T22:34:58Z) - AutoHLS: Learning to Accelerate Design Space Exploration for HLS Designs [10.690389829735661]
本稿では,深層ニューラルネットワーク(DNN)とベイズ最適化(BO)を統合してHLSハードウェア設計最適化を高速化する,AutoHLSという新しいフレームワークを提案する。
実験の結果,探索時間の70倍のスピードアップが得られた。
論文 参考訳(メタデータ) (2024-03-15T21:14:44Z) - On the Viability of using LLMs for SW/HW Co-Design: An Example in
Designing CiM DNN Accelerators [14.02304927398616]
Deep Neural Networks (DNN)は、幅広いタスクで素晴らしいパフォーマンスを示している。
エッジデバイスにDNNをデプロイすることは、強力なパワーと計算予算のために大きな課題となる。
この問題に対処するために,LLM(Large Language Models)を利用した新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-12T07:50:53Z) - Fast GraspNeXt: A Fast Self-Attention Neural Network Architecture for
Multi-task Learning in Computer Vision Tasks for Robotic Grasping on the Edge [80.88063189896718]
アーキテクチャと計算の複雑さが高いと、組み込みデバイスへのデプロイに適さない。
Fast GraspNeXtは、ロボットグルーピングのためのコンピュータビジョンタスクに埋め込まれたマルチタスク学習に適した、高速な自己認識型ニューラルネットワークアーキテクチャである。
論文 参考訳(メタデータ) (2023-04-21T18:07:14Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - A Graph Deep Learning Framework for High-Level Synthesis Design Space
Exploration [11.154086943903696]
High-Level Synthesisは、アプリケーション固有の高速プロトタイピングのためのソリューションである。
本稿では,加速性能とハードウェアコストを共同で予測するグラフニューラルネットワークHLSを提案する。
提案手法は,一般的なシミュレータと同等の精度で予測できることを示す。
論文 参考訳(メタデータ) (2021-11-29T18:17:45Z) - Design Space for Graph Neural Networks [81.88707703106232]
グラフニューラルネットワーク(GNN)のアーキテクチャ設計空間は,32種類の予測タスクに対して315,000の異なる設計で構成されている。
本研究の主な成果は,(1) 優れたGNNを設計するための包括的ガイドライン,(2) 異なるタスクに対する最高のGNN設計は著しく異なるが,GNNタスク空間は,異なるタスク間で最高の設計を転送することができる,(3) デザイン空間を用いて発見されたモデルが最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-11-17T18:59:27Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - NAS-Count: Counting-by-Density with Neural Architecture Search [74.92941571724525]
ニューラルアーキテクチャサーチ(NAS)を用いたカウントモデルの設計を自動化する
エンド・ツー・エンドの検索エンコーダ・デコーダアーキテクチャであるAutomatic Multi-Scale Network(AMSNet)を導入する。
論文 参考訳(メタデータ) (2020-02-29T09:18:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。