論文の概要: Open-source FPGA-ML codesign for the MLPerf Tiny Benchmark
- arxiv url: http://arxiv.org/abs/2206.11791v1
- Date: Thu, 23 Jun 2022 15:57:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-24 16:11:00.268158
- Title: Open-source FPGA-ML codesign for the MLPerf Tiny Benchmark
- Title(参考訳): MLPerf TinyベンチマークのためのオープンソースFPGA-ML符号
- Authors: Hendrik Borras and Giuseppe Di Guglielmo and Javier Duarte and
Nicol\`o Ghielmetti and Ben Hawks and Scott Hauck and Shih-Chieh Hsu and Ryan
Kastner and Jason Liang and Andres Meza and Jules Muhizi and Tai Nguyen and
Rushil Roy and Nhan Tran and Yaman Umuroglu and Olivia Weng and Aidan Yokuda
and Michaela Blott
- Abstract要約: 我々は,フィールドプログラマブルゲートアレイ(FPGA)プラットフォーム上でのTiny Inference Benchmarkの開発経験を示す。
我々は、FPGA上で最適化されたニューラルネットワークのAIハードウェアコーデックを民主化することを目的として、オープンソースのhls4mlとFINN perJを使用している。
ソリューションはシステムオンチップ(Pynq-Z2)と純粋なFPGA(Arty A7-100T)プラットフォームにデプロイされる。
- 参考スコア(独自算出の注目度): 11.575901540758574
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present our development experience and recent results for the MLPerf Tiny
Inference Benchmark on field-programmable gate array (FPGA) platforms. We use
the open-source hls4ml and FINN workflows, which aim to democratize AI-hardware
codesign of optimized neural networks on FPGAs. We present the design and
implementation process for the keyword spotting, anomaly detection, and image
classification benchmark tasks. The resulting hardware implementations are
quantized, configurable, spatial dataflow architectures tailored for speed and
efficiency and introduce new generic optimizations and common workflows
developed as a part of this work. The full workflow is presented from
quantization-aware training to FPGA implementation. The solutions are deployed
on system-on-chip (Pynq-Z2) and pure FPGA (Arty A7-100T) platforms. The
resulting submissions achieve latencies as low as 20 $\mu$s and energy
consumption as low as 30 $\mu$J per inference. We demonstrate how emerging ML
benchmarks on heterogeneous hardware platforms can catalyze collaboration and
the development of new techniques and more accessible tools.
- Abstract(参考訳): 本稿では,フィールドプログラマブルゲートアレイ(FPGA)上でのMLPerf Tiny Inference Benchmarkの開発経験と最近の結果を紹介する。
我々は、FPGA上で最適化されたニューラルネットワークのAIハードウェアコードサインを民主化することを目的として、オープンソースのhls4mlとFINNワークフローを使用している。
本稿では,キーワードスポッティング,異常検出,画像分類ベンチマークタスクの設計と実装について述べる。
結果のハードウェア実装は、スピードと効率のために調整された量子化され、構成可能で、空間データフローアーキテクチャであり、この作業の一部として開発された新しい汎用最適化と共通ワークフローを導入している。
完全なワークフローは量子化対応のトレーニングからFPGA実装までである。
ソリューションはシステムオンチップ(Pynq-Z2)と純粋なFPGA(Arty A7-100T)プラットフォームにデプロイされる。
その結果、レイテンシーは20$\mu$s、エネルギー消費は推論あたり30$\mu$jとなる。
異種ハードウェアプラットフォーム上でのMLベンチマークが、新しい技術とよりアクセスしやすいツールの開発とコラボレーションを促進する方法を示す。
関連論文リスト
- Benchmarking End-To-End Performance of AI-Based Chip Placement Algorithms [77.71341200638416]
ChiPBenchはAIベースのチップ配置アルゴリズムの有効性を評価するために設計されたベンチマークである。
評価のために、さまざまなドメイン(CPU、GPU、マイクロコントローラなど)から20の回路を集めました。
その結果, 単点アルゴリズムの中間距離が支配的であったとしても, 最終的なPPA結果は満足できないことがわかった。
論文 参考訳(メタデータ) (2024-07-03T03:29:23Z) - Investigating Resource-efficient Neutron/Gamma Classification ML Models Targeting eFPGAs [0.0]
オープンソース組み込みFPGA(eFPGA)フレームワークは、ハードウェアに機械学習モデルを実装するための、代替的で柔軟な経路を提供する。
完全連結ニューラルネットワーク(fcNN)と強化決定木(BDT)モデルのeFPGA実装のパラメータ空間について検討する。
この研究結果は、テストチップの一部として統合されるeFPGAファブリックの仕様策定を支援するために使用される。
論文 参考訳(メタデータ) (2024-04-19T20:03:30Z) - Understanding the Potential of FPGA-Based Spatial Acceleration for Large Language Model Inference [11.614722231006695]
数十億のパラメータを誇った大規模言語モデル(LLM)は、推論ワークロードの効率的なデプロイに対する大きな需要を生み出している。
本稿では,FPGA上でのLLM推論におけるモデル固有空間加速度の実現可能性と可能性について検討する。
論文 参考訳(メタデータ) (2023-12-23T04:27:06Z) - SATAY: A Streaming Architecture Toolflow for Accelerating YOLO Models on
FPGA Devices [48.47320494918925]
この作業は、超低レイテンシアプリケーションのために、最先端のオブジェクト検出モデルをFPGAデバイスにデプロイする際の課題に対処する。
YOLOアクセラレータにはストリーミングアーキテクチャ設計を採用しており、チップ上で完全なモデルを深くパイプライン化して実装しています。
データフロー方式でYOLOモデルの動作をサポートする新しいハードウェアコンポーネントを導入し、オンチップメモリリソースの制限に対処するために、オフチップメモリバッファリングを導入する。
論文 参考訳(メタデータ) (2023-09-04T13:15:01Z) - Reconfigurable Distributed FPGA Cluster Design for Deep Learning
Accelerators [59.11160990637615]
エッジコンピューティングアプリケーション用に設計された低消費電力組み込みFPGAに基づく分散システムを提案する。
提案システムは,様々なニューラルネットワーク(NN)モデルを同時に実行し,パイプライン構造にグラフを配置し,NNグラフの最も計算集約的な層により大きなリソースを手動で割り当てる。
論文 参考訳(メタデータ) (2023-05-24T16:08:55Z) - End-to-end codesign of Hessian-aware quantized neural networks for FPGAs
and ASICs [49.358119307844035]
我々は、共設計ニューラルネットワーク(NN)のトレーニングと実装のためのエンドツーエンドワークフローを開発する。
これにより、ハードウェアにおける効率的なNN実装が、非専門家に、単一のオープンソースワークフローでアクセスできるようになる。
大型ハドロン衝突型加速器(LHC)の40MHz衝突速度で動作しなければならないトリガー決定を含む粒子物理学アプリケーションにおけるワークフローを実演する。
シミュレーションLHC陽子-陽子衝突における高速粒子ジェット用混合精度NNを実装した。
論文 参考訳(メタデータ) (2023-04-13T18:00:01Z) - HARFLOW3D: A Latency-Oriented 3D-CNN Accelerator Toolflow for HAR on
FPGA Devices [71.45672882756001]
本研究では,3次元畳み込みニューラルネットワークをFPGAにマッピングするための,新しいストリーミングアーキテクチャベースのツールフローを提案する。
HARFLOW3Dツールフローは、ONNXフォーマットで3D CNNを入力し、FPGAの特性を記述する。
ツールフローが幅広いモデルやデバイスをサポートする能力は、様々な3D CNNとFPGAシステムペアに関する数多くの実験を通して示される。
論文 参考訳(メタデータ) (2023-03-30T08:25:27Z) - VAQF: Fully Automatic Software-hardware Co-design Framework for Low-bit
Vision Transformer [121.85581713299918]
量子化ビジョントランス(ViT)のためのFPGAプラットフォーム上で推論アクセラレータを構築するフレームワークVAQFを提案する。
モデル構造と所望のフレームレートから、VAQFはアクティベーションに必要な量子化精度を自動的に出力する。
FPGA上でのViTアクセラレーションに量子化が組み込まれたのはこれが初めてである。
論文 参考訳(メタデータ) (2022-01-17T20:27:52Z) - HALF: Holistic Auto Machine Learning for FPGAs [1.9146960682777232]
ディープニューラルネットワーク(DNN)は、画像や自然言語処理などの組み込みシステムに関連する領域において、複雑な問題を解決することができる。
特定のFPGAプラットフォームにDNNを効率よく実装するためには、例えばエネルギー効率など、膨大な設計パラメータを考慮する必要がある。
FPGA上でのDNN実装の質は, 自動的, 全体的設計手法により大幅に向上する。
論文 参考訳(メタデータ) (2021-06-28T14:45:47Z) - Accelerated Charged Particle Tracking with Graph Neural Networks on
FPGAs [0.0]
グラフニューラルネットワークに基づく荷電粒子追跡のためのアルゴリズムのFPGA実装を開発し,研究する。
CPUベースの実行の大幅な高速化が可能であり、将来的にはそのようなアルゴリズムを効果的に利用できるようになる可能性がある。
論文 参考訳(メタデータ) (2020-11-30T18:17:43Z) - AutoML for Multilayer Perceptron and FPGA Co-design [0.0]
最先端のニューラルネットワークアーキテクチャ(NNAs)は、ハードウェアで効率的な設計と実装が難しい。
NNAの自動設計に関する最近の研究の多くは、畳み込みネットワークと画像認識に焦点を当てている。
我々は、任意のデータセットを入力として取り出し、最適化されたNNAとハードウェア設計を自動的に生成できる汎用多層パーセプトロン(MLP)フローを開発し、テストする。
論文 参考訳(メタデータ) (2020-09-14T02:37:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。