論文の概要: Efficient Compilation and Mapping of Fixed Function Combinational Logic
onto Digital Signal Processors Targeting Neural Network Inference and
Utilizing High-level Synthesis
- arxiv url: http://arxiv.org/abs/2208.00302v1
- Date: Sat, 30 Jul 2022 20:11:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 14:45:19.671440
- Title: Efficient Compilation and Mapping of Fixed Function Combinational Logic
onto Digital Signal Processors Targeting Neural Network Inference and
Utilizing High-level Synthesis
- Title(参考訳): ニューラルネットワーク推論と高レベル合成を用いたディジタル信号プロセッサへの固定関数結合論理の効率的なコンパイルとマッピング
- Authors: Soheil Nazar Shahsavani, Arash Fayyazi, Mahdi Nazemi, and Massoud
Pedram
- Abstract要約: ニューラルネットワーク(NN)アクセラレータの性能向上に向けた最近の取り組みは、固定関数の組み合わせ論理に依存する論理ベースのNN推論の新しいトレンドを生み出している。
本稿では,FPGA上のDSPに固定関数の組み合わせ論理を応用した,NNのコンパイルとマッピングのための革新的な設計と最適化手法を提案する。
- 参考スコア(独自算出の注目度): 3.83610794195621
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent efforts for improving the performance of neural network (NN)
accelerators that meet today's application requirements have given rise to a
new trend of logic-based NN inference relying on fixed function combinational
logic. Mapping such large Boolean functions with many input variables and
product terms to digital signal processors (DSPs) on Field-programmable gate
arrays (FPGAs) needs a novel framework considering the structure and the
reconfigurability of DSP blocks during this process. The proposed methodology
in this paper maps the fixed function combinational logic blocks to a set of
Boolean functions where Boolean operations corresponding to each function are
mapped to DSP devices rather than look-up tables (LUTs) on the FPGAs to take
advantage of the high performance, low latency, and parallelism of DSP blocks.
% This paper also presents an innovative design and optimization methodology
for compilation and mapping of NNs, utilizing fixed function combinational
logic to DSPs on FPGAs employing high-level synthesis flow. % Our experimental
evaluations across several \REVone{datasets} and selected NNs demonstrate the
comparable performance of our framework in terms of the inference latency and
output accuracy compared to prior art FPGA-based NN accelerators employing
DSPs.
- Abstract(参考訳): 今日のアプリケーション要件を満たすニューラルネットワーク(NN)アクセラレータのパフォーマンス向上に向けた最近の取り組みは、固定関数の組み合わせ論理に依存するロジックベースのNN推論の新しいトレンドを生み出している。
多くの入力変数と製品項を持つそのような大きなブール関数をフィールドプログラマブルゲートアレイ(FPGA)上のデジタル信号プロセッサ(DSP)にマッピングするには、このプロセスにおけるDSPブロックの構造と再構成性を考慮する新しいフレームワークが必要である。
本稿では,各関数に対応するブール演算をFPGA上のルックアップテーブル(LUT)ではなくDSPデバイスにマッピングすることで,DSPブロックの高速,低レイテンシ,並列性を生かして,固定関数結合論理ブロックをブール関数の集合にマッピングする。
また,高次合成フローを用いたFPGA上でのDSPに対する固定関数組合せ論理を用いて,NNのコンパイルとマッピングのための革新的な設計と最適化手法を提案する。
%) 提案手法は, DSPを用いた従来のFPGAベースNNアクセラレータと比較して, 予測遅延と出力精度において, フレームワークの同等性能を示すものである。
関連論文リスト
- Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングでは、スパイクニューラルネットワーク(SNN)が推論タスクを実行し、シーケンシャルデータを含むワークロードの大幅な効率向上を提供する。
ハードウェアとソフトウェアの最近の進歩は、スパイクニューロン間で交換された各スパイクに数ビットのペイロードを埋め込むことにより、推論精度をさらに高めることを示した。
本稿では,マルチレベルSNNを用いた無線ニューロモルフィック分割計算アーキテクチャについて検討する。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - Harnessing FPGA Technology for Enhanced Biomedical Computation [0.0]
この研究は、CNN、Recurrent Neural Networks (RNN)、Long Short-Term Memory Networks (LSTMs)、Deep Belief Networks (DBNs)のような洗練されたニューラルネットワークフレームワークを掘り下げる。
レイテンシやスループットなどの性能指標を評価することにより,高度なバイオメディカルコンピューティングにおけるFPGAの有効性を示す。
論文 参考訳(メタデータ) (2023-11-21T08:51:58Z) - Pointer Networks with Q-Learning for Combinatorial Optimization [55.2480439325792]
我々は、モデルフリーQ値ポリシー近似をPointer Networks(Ptr-Nets)と統合したハイブリッドニューラルネットワークであるPointer Q-Network(PQN)を紹介する。
実験により,本手法の有効性を実証し,不安定な環境でモデルをテストする。
論文 参考訳(メタデータ) (2023-11-05T12:03:58Z) - Exploiting FPGA Capabilities for Accelerated Biomedical Computing [0.0]
本研究では、フィールドプログラマブルゲートアレイ(FPGA)を用いたECG信号解析のための高度なニューラルネットワークアーキテクチャを提案する。
我々は、トレーニングと検証にMIT-BIH Arrhythmia Databaseを使用し、堅牢性を改善するためにガウスノイズを導入した。
この研究は最終的に、様々なアプリケーションのためのFPGA上でのニューラルネットワーク性能を最適化するためのガイドを提供する。
論文 参考訳(メタデータ) (2023-07-16T01:20:17Z) - Reconfigurable Distributed FPGA Cluster Design for Deep Learning
Accelerators [59.11160990637615]
エッジコンピューティングアプリケーション用に設計された低消費電力組み込みFPGAに基づく分散システムを提案する。
提案システムは,様々なニューラルネットワーク(NN)モデルを同時に実行し,パイプライン構造にグラフを配置し,NNグラフの最も計算集約的な層により大きなリソースを手動で割り当てる。
論文 参考訳(メタデータ) (2023-05-24T16:08:55Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - Implementing Neural Network-Based Equalizers in a Coherent Optical
Transmission System Using Field-Programmable Gate Arrays [3.1543509940301946]
我々は、コヒーレント光伝送システムにおける非線形性補償のための、リカレントおよびフィードフォワードニューラルネットワーク(NN)ベースの等化器のオフラインFPGA実現について述べる。
主な結果は、性能比較、アクティベーション関数の実装方法の分析、ハードウェアの複雑さに関するレポートの3つに分けられる。
論文 参考訳(メタデータ) (2022-12-09T07:28:45Z) - Decomposition of Matrix Product States into Shallow Quantum Circuits [62.5210028594015]
テンソルネットワーク(TN)アルゴリズムは、パラメタライズド量子回路(PQC)にマッピングできる
本稿では,現実的な量子回路を用いてTN状態を近似する新しいプロトコルを提案する。
その結果、量子回路の逐次的な成長と最適化を含む1つの特定のプロトコルが、他の全ての手法より優れていることが明らかとなった。
論文 参考訳(メタデータ) (2022-09-01T17:08:41Z) - N3H-Core: Neuron-designed Neural Network Accelerator via FPGA-based
Heterogeneous Computing Cores [26.38812379700231]
FPGAを用いたニューラルネットワーク高速化のための異種計算システムを開発した。
提案するアクセラレータは、DSPとLUTをベースとしたGEMM(GEneral Matrix-Multiplication)コンピューティングコアで構成されている。
我々の設計では、最新のMix&Match設計よりも遅延が1.12-1.32x削減され、推論精度が向上した。
論文 参考訳(メタデータ) (2021-12-15T15:12:00Z) - NullaNet Tiny: Ultra-low-latency DNN Inference Through Fixed-function
Combinational Logic [4.119948826527649]
フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータは、グラフィックス処理ユニット/中央処理ユニットベースのプラットフォームを置き換える深刻な競争相手として注目を集めています。
本稿では,資源とエネルギー効率,超低遅延FPGAベースニューラルネットワークアクセラレータ構築のためのフレームワークであるNullaNet Tinyを提案する。
論文 参考訳(メタデータ) (2021-04-07T00:16:39Z) - Learning to Solve the AC-OPF using Sensitivity-Informed Deep Neural
Networks [52.32646357164739]
最適な電力フロー(ACOPF)のソリューションを解決するために、ディープニューラルネットワーク(DNN)を提案します。
提案されたSIDNNは、幅広いOPFスキームと互換性がある。
他のLearning-to-OPFスキームとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-03-27T00:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。