論文の概要: Chimera: A Hybrid Machine Learning Driven Multi-Objective Design Space
Exploration Tool for FPGA High-Level Synthesis
- arxiv url: http://arxiv.org/abs/2207.07917v1
- Date: Sun, 3 Jul 2022 21:13:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-24 11:43:48.616892
- Title: Chimera: A Hybrid Machine Learning Driven Multi-Objective Design Space
Exploration Tool for FPGA High-Level Synthesis
- Title(参考訳): Chimera:FPGA高レベル合成のためのハイブリッド機械学習駆動多目的設計空間探索ツール
- Authors: Mang Yu, Sitao Huang and Deming Chen
- Abstract要約: 高レベル合成(HLS)ツールはFPGAのハードウェア設計を単純化するために開発された。
高いパフォーマンスを達成するためにこれらの最適化を適用するのには時間がかかり、通常は専門家の知識が必要です。
本稿では,HLS最適化ディレクティブを応用した自動設計空間探索ツールChimeraを提案する。
- 参考スコア(独自算出の注目度): 11.128278223431805
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In recent years, hardware accelerators based on field-programmable gate
arrays (FPGAs) have been widely adopted, thanks to FPGAs' extraordinary
flexibility. However, with the high flexibility comes the difficulty in design
and optimization. Conventionally, these accelerators are designed with
low-level hardware descriptive languages, which means creating large designs
with complex behavior is extremely difficult. Therefore, high-level synthesis
(HLS) tools were created to simplify hardware designs for FPGAs. They enable
the user to create hardware designs using high-level languages and provide
various optimization directives to help to improve the performance of the
synthesized hardware. However, applying these optimizations to achieve high
performance is time-consuming and usually requires expert knowledge. To address
this difficulty, we present an automated design space exploration tool for
applying HLS optimization directives, called Chimera, which significantly
reduces the human effort and expertise needed for creating high-performance HLS
designs. It utilizes a novel multi-objective exploration method that seamlessly
integrates active learning, evolutionary algorithm, and Thompson sampling,
making it capable of finding a set of optimized designs on a Pareto curve with
only a small number of design points evaluated during the exploration. In the
experiments, in less than 24 hours, this hybrid method explored design points
that have the same or superior performance compared to highly optimized
hand-tuned designs created by expert HLS users from the Rosetta benchmark
suite. In addition to discovering the extreme points, it also explores a Pareto
frontier, where the elbow point can potentially save up to 26\% of Flip-Flop
resource with negligibly higher latency.
- Abstract(参考訳): 近年,FPGAの柔軟性により,フィールドプログラマブルゲートアレイ(FPGA)に基づくハードウェアアクセラレータが広く採用されている。
しかし、柔軟性が高いと設計と最適化が困難になる。
従来、これらのアクセラレータは低レベルのハードウェア記述言語で設計されており、複雑な振る舞いを持つ大きな設計を作成することは極めて難しい。
そのため、FPGAのハードウェア設計を簡略化するために、HLSツールが開発された。
ユーザーは高レベル言語を使ってハードウェア設計を作成でき、様々な最適化ディレクティブを提供することで、合成されたハードウェアの性能を向上させることができる。
しかし、高いパフォーマンスを達成するためにこれらの最適化を適用するのには時間がかかる。
そこで本研究では,HLS最適化ディレクティブを応用した自動設計空間探索ツールChimeraについて述べる。
アクティブラーニング、進化アルゴリズム、トンプソンサンプリングをシームレスに統合した、新しい多目的探索手法を採用しており、探索中に少数の設計点しか評価されていないパレート曲線上で最適化された設計の集合を見つけることができる。
実験では、24時間以内にこのハイブリッド手法は、ロゼッタベンチマークスイートのエキスパートhlsユーザが作成した高度に最適化されたハンドチューニング設計と同等または優れたパフォーマンスを持つ設計ポイントを探索した。
極端な点の発見に加えて、エルボーポイントがFlip-Flopリソースの最大26倍の時間を、無視できないほど高いレイテンシで節約できる、Paretoフロンティアも探索している。
関連論文リスト
- Quasar-ViT: Hardware-Oriented Quantization-Aware Architecture Search for Vision Transformers [56.37495946212932]
視覚変換器(ViT)は、畳み込みニューラルネットワーク(CNN)と比較して、コンピュータビジョンタスクにおいて優れた精度を示す。
ハードウェア指向の量子化対応アーキテクチャ検索フレームワークであるQuasar-ViTを提案する。
論文 参考訳(メタデータ) (2024-07-25T16:35:46Z) - Sparser is Faster and Less is More: Efficient Sparse Attention for Long-Range Transformers [58.5711048151424]
SPARSEK Attention(SPARSEK Attention)は、計算およびメモリ障害を克服するために設計された、新しいスパースアテンション機構である。
提案手法では,各クエリに対して一定数のKVペアを選択するために,スコアリングネットワークと差別化可能なトップkマスク演算子であるSPARSEKを統合する。
実験結果から,SPARSEK注意は従来のスパースアテンション法よりも優れていた。
論文 参考訳(メタデータ) (2024-06-24T15:55:59Z) - Allo: A Programming Model for Composable Accelerator Design [7.884541004161727]
本稿では,効率的な空間加速器設計のための構成可能なプログラミングモデルであるAlloを紹介する。
Alloは、計算、メモリ、通信、データタイプなど、ハードウェアのカスタマイズをアルゴリズム仕様から切り離している。
評価の結果,AlloはPolyBenchのすべてのテストケースにおいて,最先端のHLSツールやADLよりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-04-07T05:47:54Z) - Mechanistic Design and Scaling of Hybrid Architectures [114.3129802943915]
我々は、様々な計算プリミティブから構築された新しいハイブリッドアーキテクチャを特定し、テストする。
本研究では,大規模計算最適法則と新しい状態最適スケーリング法則解析を用いて,結果のアーキテクチャを実験的に検証する。
我々は,MAD合成法と計算-最適パープレキシティを相関させ,新しいアーキテクチャの正確な評価を可能にする。
論文 参考訳(メタデータ) (2024-03-26T16:33:12Z) - AutoHLS: Learning to Accelerate Design Space Exploration for HLS Designs [10.690389829735661]
本稿では,深層ニューラルネットワーク(DNN)とベイズ最適化(BO)を統合してHLSハードウェア設計最適化を高速化する,AutoHLSという新しいフレームワークを提案する。
実験の結果,探索時間の70倍のスピードアップが得られた。
論文 参考訳(メタデータ) (2024-03-15T21:14:44Z) - Learning Performance-Improving Code Edits [107.21538852090208]
本稿では,大規模言語モデル(LLM)を高レベルプログラム最適化に適用するためのフレームワークを提案する。
まず、競争力のある77,000以上のC++プログラミングサブミッションペアによる、人間のプログラマによるパフォーマンス改善編集のデータセットをキュレートする。
提案手法は,検索をベースとした少数ショットプロンプトとチェーン・オブ・シンクレットを提案し,その微調整には,自己再生に基づく性能条件付き生成と合成データ拡張が含まれる。
論文 参考訳(メタデータ) (2023-02-15T18:59:21Z) - Open-source FPGA-ML codesign for the MLPerf Tiny Benchmark [11.575901540758574]
我々は,フィールドプログラマブルゲートアレイ(FPGA)プラットフォーム上でのTiny Inference Benchmarkの開発経験を示す。
我々は、FPGA上で最適化されたニューラルネットワークのAIハードウェアコーデックを民主化することを目的として、オープンソースのhls4mlとFINN perJを使用している。
ソリューションはシステムオンチップ(Pynq-Z2)と純粋なFPGA(Arty A7-100T)プラットフォームにデプロイされる。
論文 参考訳(メタデータ) (2022-06-23T15:57:17Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - VAQF: Fully Automatic Software-hardware Co-design Framework for Low-bit
Vision Transformer [121.85581713299918]
量子化ビジョントランス(ViT)のためのFPGAプラットフォーム上で推論アクセラレータを構築するフレームワークVAQFを提案する。
モデル構造と所望のフレームレートから、VAQFはアクティベーションに必要な量子化精度を自動的に出力する。
FPGA上でのViTアクセラレーションに量子化が組み込まれたのはこれが初めてである。
論文 参考訳(メタデータ) (2022-01-17T20:27:52Z) - A Graph Deep Learning Framework for High-Level Synthesis Design Space
Exploration [11.154086943903696]
High-Level Synthesisは、アプリケーション固有の高速プロトタイピングのためのソリューションである。
本稿では,加速性能とハードウェアコストを共同で予測するグラフニューラルネットワークHLSを提案する。
提案手法は,一般的なシミュレータと同等の精度で予測できることを示す。
論文 参考訳(メタデータ) (2021-11-29T18:17:45Z) - HALF: Holistic Auto Machine Learning for FPGAs [1.9146960682777232]
ディープニューラルネットワーク(DNN)は、画像や自然言語処理などの組み込みシステムに関連する領域において、複雑な問題を解決することができる。
特定のFPGAプラットフォームにDNNを効率よく実装するためには、例えばエネルギー効率など、膨大な設計パラメータを考慮する必要がある。
FPGA上でのDNN実装の質は, 自動的, 全体的設計手法により大幅に向上する。
論文 参考訳(メタデータ) (2021-06-28T14:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。