論文の概要: FFCNN: Fast FPGA based Acceleration for Convolution neural network
inference
- arxiv url: http://arxiv.org/abs/2208.13250v1
- Date: Sun, 28 Aug 2022 16:55:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-30 12:48:24.986013
- Title: FFCNN: Fast FPGA based Acceleration for Convolution neural network
inference
- Title(参考訳): FFCNN:畳み込みニューラルネットワーク推論のためのFPGAベースの高速高速化
- Authors: F. Keddous, H-N. Nguyen, and A. Nakib
- Abstract要約: 畳み込みニューラルネットワーク(FFCNN)のためのFPGAの高速推論について述べる。
FFCNNは、深くパイプライン化されたOpenCLカーネルアーキテクチャに基づいている。
データ再利用とタスクマッピング技術も設計効率を向上させるために提案されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We present a new efficient OpenCL-based Accelerator for large scale
Convolutional Neural Networks called Fast Inference on FPGAs for Convolution
Neural Network (FFCNN). FFCNN is based on a deeply pipelined OpenCL kernels
architecture. As pointed out before, high-level synthesis tools such as the
OpenCL framework can easily port codes originally designed for CPUs and GPUs to
FPGAs, but it is still difficult to make OpenCL codes run efficiently on FPGAs.
This work aims to propose an efficient FPGA implementation of OpenCL
High-Performance Computing Applications. To do so, a Data reuse and task
mapping techniques are also presented to improve design efficiency. In
addition, the following motivations were taken into account when developing
FFCNN: 1) FFCNN has been designed to be easily implemented on Intel OpenCL SDK
based FPGA design flow. 2) In FFFCN, different techniques have been integrated
to improve the memory band with and throughput. A performance analysis is
conducted on two deep CNN for Large-Scale Images classification. The obtained
results, and the comparison with other works designed to accelerate the same
types of architectures, show the efficiency and the competitiveness of the
proposed accelerator design by significantly improved performance and resource
utilization.
- Abstract(参考訳): 本稿では,FFCNN(Fast Inference on FPGAs for Convolution Neural Network)と呼ばれる,大規模畳み込みニューラルネットワークのための新しい効率的なOpenCLベースの加速器を提案する。
FFCNNは、深くパイプライン化されたOpenCLカーネルアーキテクチャに基づいている。
前述したように、OpenCLフレームワークのような高レベルな合成ツールは、本来CPUやGPU用に設計されたコードをFPGAに簡単に移植できるが、FPGA上でOpenCLコードを効率的に動作させるのは難しい。
本研究の目的は,OpenCLハイパフォーマンスコンピューティングアプリケーションのFPGAの効率的な実装を提案することである。
そのため、データ再利用およびタスクマッピング技術も提供され、設計効率が向上する。
また,ffcnnの開発において,以下の動機が考慮された。
FFCNNは、Intel OpenCL SDKベースのFPGA設計フローで容易に実装できるように設計されている。
2)FFFCNでは,メモリ帯域とスループットを改善するために,様々な技術が統合されている。
大規模画像分類のための2つのディープCNNの性能解析を行った。
得られた結果と,同一のアーキテクチャを高速化するために設計された他の作品との比較により,提案する加速器設計の効率と競合性が,性能と資源利用の大幅な向上によって示される。
関連論文リスト
- INR-Arch: A Dataflow Architecture and Compiler for Arbitrary-Order
Gradient Computations in Implicit Neural Representation Processing [66.00729477511219]
計算グラフとして表される関数を考えると、従来のアーキテクチャはn階勾配を効率的に計算する上で困難に直面している。
InR-Archは,n階勾配の計算グラフをハードウェア最適化データフローアーキテクチャに変換するフレームワークである。
1.8-4.8x と 1.5-3.6x の高速化を CPU と GPU のベースラインと比較した結果を示す。
論文 参考訳(メタデータ) (2023-08-11T04:24:39Z) - Reconfigurable Distributed FPGA Cluster Design for Deep Learning
Accelerators [59.11160990637615]
エッジコンピューティングアプリケーション用に設計された低消費電力組み込みFPGAに基づく分散システムを提案する。
提案システムは,様々なニューラルネットワーク(NN)モデルを同時に実行し,パイプライン構造にグラフを配置し,NNグラフの最も計算集約的な層により大きなリソースを手動で割り当てる。
論文 参考訳(メタデータ) (2023-05-24T16:08:55Z) - End-to-end codesign of Hessian-aware quantized neural networks for FPGAs
and ASICs [49.358119307844035]
我々は、共設計ニューラルネットワーク(NN)のトレーニングと実装のためのエンドツーエンドワークフローを開発する。
これにより、ハードウェアにおける効率的なNN実装が、非専門家に、単一のオープンソースワークフローでアクセスできるようになる。
大型ハドロン衝突型加速器(LHC)の40MHz衝突速度で動作しなければならないトリガー決定を含む粒子物理学アプリケーションにおけるワークフローを実演する。
シミュレーションLHC陽子-陽子衝突における高速粒子ジェット用混合精度NNを実装した。
論文 参考訳(メタデータ) (2023-04-13T18:00:01Z) - HARFLOW3D: A Latency-Oriented 3D-CNN Accelerator Toolflow for HAR on
FPGA Devices [71.45672882756001]
本研究では,3次元畳み込みニューラルネットワークをFPGAにマッピングするための,新しいストリーミングアーキテクチャベースのツールフローを提案する。
HARFLOW3Dツールフローは、ONNXフォーマットで3D CNNを入力し、FPGAの特性を記述する。
ツールフローが幅広いモデルやデバイスをサポートする能力は、様々な3D CNNとFPGAシステムペアに関する数多くの実験を通して示される。
論文 参考訳(メタデータ) (2023-03-30T08:25:27Z) - Optimization of FPGA-based CNN Accelerators Using Metaheuristics [1.854931308524932]
畳み込みニューラルネットワーク(CNN)は、多くの分野における問題解決能力を実証している。
FPGAはCNN推論を加速する関心が高まっている。
FPGAベースのCNNアクセラレータの現在のトレンドは、複数の畳み込み層プロセッサ(CLP)を実装することである。
論文 参考訳(メタデータ) (2022-09-22T18:57:49Z) - Adaptable Butterfly Accelerator for Attention-based NNs via Hardware and
Algorithm Co-design [66.39546326221176]
多くのAIタスクにおいて、注意に基づくニューラルネットワークが普及している。
注意機構とフィードフォワードネットワーク(FFN)の使用は、過剰な計算とメモリ資源を必要とする。
本稿では,注目機構とFFNの両方を近似するために,バタフライの分散パターンを統一したハードウェアフレンドリーな変種を提案する。
論文 参考訳(メタデータ) (2022-09-20T09:28:26Z) - An FPGA-based Solution for Convolution Operation Acceleration [0.0]
本稿では,畳み込み動作を高速化するFPGAアーキテクチャを提案する。
プロジェクトの目的は、一度に畳み込み層を処理できるFPGA IPコアを作成することである。
論文 参考訳(メタデータ) (2022-06-09T14:12:30Z) - SECDA: Efficient Hardware/Software Co-Design of FPGA-based DNN
Accelerators for Edge Inference [0.0]
本稿では,FPGAを用いたエッジデバイス上でのDeep Neural Networks (DNN) 推論アクセラレータの設計時間を短縮するハードウェア/ソフトウェア共同設計手法であるSECDAを提案する。
SECDAを用いて、エッジFPGAを含むプラットフォームであるPYNQ-Z1基板上で、2つの異なるDNNアクセラレータ設計を効率的に開発する。
我々は,4つの一般的なDNNモデルを用いた2つの加速器設計を評価し,CPUのみの推論よりもエネルギー消費を2.9$times$で3.5$times$までのモデルで平均性能を向上した。
論文 参考訳(メタデータ) (2021-10-01T15:20:29Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Systolic-CNN: An OpenCL-defined Scalable Run-time-flexible FPGA
Accelerator Architecture for Accelerating Convolutional Neural Network
Inference in Cloud/Edge Computing [8.826181951806928]
Systolic-CNNはOpenCLで定義されたスケーラブルでランタイムフレキシブルなFPGAアクセラレータアーキテクチャである。
Systolic-CNNは、マルチテナントクラウド/エッジコンピューティングにおける様々な畳み込みニューラルネットワーク(CNN)の推論を高速化するために最適化されている。
論文 参考訳(メタデータ) (2020-12-06T03:53:11Z) - Accelerated Charged Particle Tracking with Graph Neural Networks on
FPGAs [0.0]
グラフニューラルネットワークに基づく荷電粒子追跡のためのアルゴリズムのFPGA実装を開発し,研究する。
CPUベースの実行の大幅な高速化が可能であり、将来的にはそのようなアルゴリズムを効果的に利用できるようになる可能性がある。
論文 参考訳(メタデータ) (2020-11-30T18:17:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。