論文の概要: A survey on FPGA-based accelerator for ML models
- arxiv url: http://arxiv.org/abs/2412.15666v1
- Date: Fri, 20 Dec 2024 08:30:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-23 16:19:50.420345
- Title: A survey on FPGA-based accelerator for ML models
- Title(参考訳): FPGAを用いたMLモデルの加速器に関する研究
- Authors: Feng Yan, Andreas Koch, Oliver Sinnen,
- Abstract要約: 過去6年間の1138の論文のうち287件をレビューしている。
推論アクセラレーション(81%)はトレーニングアクセラレーション(13%)と比較して明らかに強調される
FPGA研究論文の分類は、FPGA研究におけるMLの関連性の高まりを示すとともに、幅広いトピックを明らかにしている。
- 参考スコア(独自算出の注目度): 3.4246253618447717
- License:
- Abstract: This paper thoroughly surveys machine learning (ML) algorithms acceleration in hardware accelerators, focusing on Field-Programmable Gate Arrays (FPGAs). It reviews 287 out of 1138 papers from the past six years, sourced from four top FPGA conferences. Such selection underscores the increasing integration of ML and FPGA technologies and their mutual importance in technological advancement. Research clearly emphasises inference acceleration (81\%) compared to training acceleration (13\%). Additionally, the findings reveals that CNN dominates current FPGA acceleration research while emerging models like GNN show obvious growth trends. The categorization of the FPGA research papers reveals a wide range of topics, demonstrating the growing relevance of ML in FPGA research. This comprehensive analysis provides valuable insights into the current trends and future directions of FPGA research in the context of ML applications.
- Abstract(参考訳): 本稿では,ハードウェアアクセラレータにおける機械学習(ML)アルゴリズムの高速化を徹底的に調査し,FPGA(Field-Programmable Gate Arrays)に着目した。
過去6年間の1138の論文のうち287件をレビューしている。
このような選択は、MLとFPGAの技術の統合の増大と、技術進歩における相互の重要性を浮き彫りにしている。
トレーニングアクセラレーション (13 %) と比較して, 推論アクセラレーション (81 %) が明確に強調されている。
さらに、CNNが現在のFPGAアクセラレーション研究を支配している一方で、GNNのような新しいモデルが明らかに成長傾向を示していることが判明した。
FPGA研究論文の分類は幅広いトピックを明らかにし、FPGA研究におけるMLの関連性の増加を実証している。
この包括的な分析は、MLアプリケーションのコンテキストにおけるFPGA研究の現在のトレンドと今後の方向性に関する貴重な洞察を提供する。
関連論文リスト
- Recent Advances on Machine Learning for Computational Fluid Dynamics: A Survey [51.87875066383221]
本稿では、基本概念、従来の手法、ベンチマークデータセットを紹介し、CFDを改善する上で機械学習が果たす様々な役割について検討する。
我々は,空気力学,燃焼,大気・海洋科学,生物流体,プラズマ,記号回帰,秩序の低減など,CFDにおけるMLの現実的な応用を強調した。
シミュレーションの精度を向上し、計算時間を短縮し、流体力学のより複雑な解析を可能にすることにより、MLはCFD研究を大きく変革する可能性があるという結論を導いた。
論文 参考訳(メタデータ) (2024-08-22T07:33:11Z) - Embedded FPGA Developments in 130nm and 28nm CMOS for Machine Learning in Particle Detector Readout [0.7367855181841242]
フィールドプログラマブルゲートアレイ(eFPGA)技術は、アプリケーション固有の集積回路(ASIC)の設計における再構成可能なロジックの実装を可能にする
FABulous"と呼ばれるオープンソースのフレームワークは、130nmと28nmのCMOS技術ノードを用いたeFPGAの設計に使用された。
ソースにおけるセンサデータの削減のために設計された機械学習ベースの分類器を合成し、eFPGA上に構成した。
論文 参考訳(メタデータ) (2024-04-26T20:59:23Z) - Investigating Resource-efficient Neutron/Gamma Classification ML Models Targeting eFPGAs [0.0]
オープンソース組み込みFPGA(eFPGA)フレームワークは、ハードウェアに機械学習モデルを実装するための、代替的で柔軟な経路を提供する。
完全連結ニューラルネットワーク(fcNN)と強化決定木(BDT)モデルのeFPGA実装のパラメータ空間について検討する。
この研究結果は、テストチップの一部として統合されるeFPGAファブリックの仕様策定を支援するために使用される。
論文 参考訳(メタデータ) (2024-04-19T20:03:30Z) - Understanding the Potential of FPGA-Based Spatial Acceleration for Large Language Model Inference [11.614722231006695]
数十億のパラメータを誇った大規模言語モデル(LLM)は、推論ワークロードの効率的なデプロイに対する大きな需要を生み出している。
本稿では,FPGA上でのLLM推論におけるモデル固有空間加速度の実現可能性と可能性について検討する。
論文 参考訳(メタデータ) (2023-12-23T04:27:06Z) - A Survey of Spiking Neural Network Accelerator on FPGA [0.0]
我々は最近広く使われているスパイキングニューロンモデル、ネットワーク構造、信号符号化フォーマットを収集し、FPGAベースのSNN実装のための関連するハードウェア設計スキームを列挙した。
そこで本研究では,FPGA上でSNNを実装する上でのアクセラレーションの可能性について論じる。
論文 参考訳(メタデータ) (2023-07-08T06:02:12Z) - HARFLOW3D: A Latency-Oriented 3D-CNN Accelerator Toolflow for HAR on
FPGA Devices [71.45672882756001]
本研究では,3次元畳み込みニューラルネットワークをFPGAにマッピングするための,新しいストリーミングアーキテクチャベースのツールフローを提案する。
HARFLOW3Dツールフローは、ONNXフォーマットで3D CNNを入力し、FPGAの特性を記述する。
ツールフローが幅広いモデルやデバイスをサポートする能力は、様々な3D CNNとFPGAシステムペアに関する数多くの実験を通して示される。
論文 参考訳(メタデータ) (2023-03-30T08:25:27Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Optimization of FPGA-based CNN Accelerators Using Metaheuristics [1.854931308524932]
畳み込みニューラルネットワーク(CNN)は、多くの分野における問題解決能力を実証している。
FPGAはCNN推論を加速する関心が高まっている。
FPGAベースのCNNアクセラレータの現在のトレンドは、複数の畳み込み層プロセッサ(CLP)を実装することである。
論文 参考訳(メタデータ) (2022-09-22T18:57:49Z) - Auto-ViT-Acc: An FPGA-Aware Automatic Acceleration Framework for Vision
Transformer with Mixed-Scheme Quantization [78.18328503396057]
コンピュータビジョンタスクにおいて、視覚変換器(ViT)は大幅に精度が向上している。
本研究は,提案した混合スキーム量子化に基づくFPGA対応自動ViT加速フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-10T05:54:46Z) - VAQF: Fully Automatic Software-hardware Co-design Framework for Low-bit
Vision Transformer [121.85581713299918]
量子化ビジョントランス(ViT)のためのFPGAプラットフォーム上で推論アクセラレータを構築するフレームワークVAQFを提案する。
モデル構造と所望のフレームレートから、VAQFはアクティベーションに必要な量子化精度を自動的に出力する。
FPGA上でのViTアクセラレーションに量子化が組み込まれたのはこれが初めてである。
論文 参考訳(メタデータ) (2022-01-17T20:27:52Z) - Benchmarking Graph Neural Networks [75.42159546060509]
グラフニューラルネットワーク(GNN)は、グラフ上のデータから分析および学習するための標準ツールキットとなっている。
成功している分野が主流で信頼性を持つようになるためには、進捗を定量化するためにベンチマークを開発する必要がある。
GitHubリポジトリは1,800のスターと339のフォークに到達し、提案されているオープンソースフレームワークの有用性を実証している。
論文 参考訳(メタデータ) (2020-03-02T15:58:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。