論文の概要: An Energy-Efficient Reconfigurable Autoencoder Implementation on FPGA
- arxiv url: http://arxiv.org/abs/2301.07050v1
- Date: Tue, 17 Jan 2023 18:04:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 13:24:37.532734
- Title: An Energy-Efficient Reconfigurable Autoencoder Implementation on FPGA
- Title(参考訳): FPGAにおけるエネルギー効率の良い再構成可能オートエンコーダの実装
- Authors: Murat Isik, Matthew Oldland, Lifeng Zhou
- Abstract要約: 利用可能なさまざまなオートエンコーダを見て、FPGAとGPUベースの実装で畳み込みオートエンコーダを使用して、ノイズの多い静的MNIST画像を処理する。
提案手法の評価は80%の精度を実現し,実験結果から,100MHzで5.93Wのオンチップ消費電力を持つ21.12ギガ/秒(GOP/s)のスループットを実現した。
- 参考スコア(独自算出の注目度): 5.457842083043013
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autoencoders are unsupervised neural networks that are used to process and
compress input data and then reconstruct the data back to the original data
size. This allows autoencoders to be used for different processing applications
such as data compression, image classification, image noise reduction, and
image coloring. Hardware-wise, re-configurable architectures like Field
Programmable Gate Arrays (FPGAs) have been used for accelerating computations
from several domains because of their unique combination of flexibility,
performance, and power efficiency. In this paper, we look at the different
autoencoders available and use the convolutional autoencoder in both FPGA and
GPU-based implementations to process noisy static MNIST images. We compare the
different results achieved with the FPGA and GPU-based implementations and then
discuss the pros and cons of each implementation. The evaluation of the
proposed design achieved 80%accuracy and our experimental results show that the
proposed accelerator achieves a throughput of 21.12 Giga-Operations Per Second
(GOP/s) with a 5.93 W on-chip power consumption at 100 MHz. The comparison
results with off-the-shelf devices and recent state-of-the-art implementations
illustrate that the proposed accelerator has obvious advantages in terms of
energy efficiency and design flexibility. We also discuss future work that can
be done with the use of our proposed accelerator.
- Abstract(参考訳): オートエンコーダは教師なしのニューラルネットワークであり、入力データを処理および圧縮し、元のデータサイズに復元するために使用される。
これにより、オートエンコーダは、データ圧縮、画像分類、画像ノイズ低減、画像カラー化などの異なる処理アプリケーションに使用できる。
ハードウェア面では、field programmable gate arrays(fpga)のような再構成可能なアーキテクチャが、柔軟性、性能、電力効率というユニークな組み合わせのために、複数のドメインから計算を加速するために使われてきた。
本稿では,様々なオートエンコーダについて検討し,fpgaおよびgpu実装における畳み込みオートエンコーダを用いて,ノイズの多い静的mnist画像を処理する。
FPGAとGPUベースの実装で得られた異なる結果を比較し、それぞれの実装の長所と短所について議論する。
提案手法の評価は80%の精度を実現し,実験結果から,100MHzで5.93Wのオンチップ消費電力を持つ21.12ギガ/秒(GOP/s)のスループットを実現した。
既製デバイスと最近の最先端実装との比較結果から,提案する加速器はエネルギー効率と設計柔軟性の面で明らかに有利であることが示された。
また,提案する加速器を用いて実現可能な今後の課題についても検討する。
関連論文リスト
- LUTMUL: Exceed Conventional FPGA Roofline Limit by LUT-based Efficient Multiplication for Neural Network Inference [25.342107763021147]
本稿では、LUTMULを導入し、LUT(ルックアップテーブル)のポテンシャルを利用して乗算を行う。
LUTのこの利点を生かして,FPGAベースのニューラルネットワークアクセラレータの性能向上の可能性を実証する。
論文 参考訳(メタデータ) (2024-11-01T02:54:11Z) - An FPGA-Based Reconfigurable Accelerator for Convolution-Transformer Hybrid EfficientViT [5.141764719319689]
本稿では,VTのハードウェア効率フロンティアを向上するために,FPGAベースのEfficientViTアクセラレータを提案する。
具体的には、軽量な畳み込みや注意を含む様々な操作タイプを効率的にサポートする再構成可能なアーキテクチャを設計する。
実験の結果,我々の加速器はスループット780.2 GOPS,エネルギー効率105.1 GOPS/Wを200MHzで達成した。
論文 参考訳(メタデータ) (2024-03-29T15:20:33Z) - INR-Arch: A Dataflow Architecture and Compiler for Arbitrary-Order
Gradient Computations in Implicit Neural Representation Processing [66.00729477511219]
計算グラフとして表される関数を考えると、従来のアーキテクチャはn階勾配を効率的に計算する上で困難に直面している。
InR-Archは,n階勾配の計算グラフをハードウェア最適化データフローアーキテクチャに変換するフレームワークである。
1.8-4.8x と 1.5-3.6x の高速化を CPU と GPU のベースラインと比較した結果を示す。
論文 参考訳(メタデータ) (2023-08-11T04:24:39Z) - Design optimization for high-performance computing using FPGA [0.0]
我々は、CIFARでトレーニングされたResNet20を使用して、Tensil AIのオープンソース推論アクセラレーターを最大性能に最適化する。
CIFARテストデータセットを実行すると、元の32ビット浮動小数点から丸めると、ほとんど精度が低下する。
提案した加速器は、100MHzで5.21Wのオンチップ消費電力を持つ21.12ギガ/秒(GOP/s)のスループットを実現する。
論文 参考訳(メタデータ) (2023-04-24T22:20:42Z) - Performance Embeddings: A Similarity-based Approach to Automatic
Performance Optimization [71.69092462147292]
パフォーマンス埋め込みは、アプリケーション間でパフォーマンスチューニングの知識伝達を可能にする。
本研究では, 深層ニューラルネットワーク, 密度およびスパース線形代数合成, および数値風速予測ステンシルのケーススタディにおいて, この伝達チューニング手法を実証する。
論文 参考訳(メタデータ) (2023-03-14T15:51:35Z) - HEAT: Hardware-Efficient Automatic Tensor Decomposition for Transformer
Compression [69.36555801766762]
本稿では,分解可能な指数空間を効率的に探索できるハードウェア対応テンソル分解フレームワークHEATを提案する。
ハードウェア対応のBERT変異体は, エネルギー遅延を5.7倍に低減し, 精度が1.1%以下であることを示す。
論文 参考訳(メタデータ) (2022-11-30T05:31:45Z) - Adaptable Butterfly Accelerator for Attention-based NNs via Hardware and
Algorithm Co-design [66.39546326221176]
多くのAIタスクにおいて、注意に基づくニューラルネットワークが普及している。
注意機構とフィードフォワードネットワーク(FFN)の使用は、過剰な計算とメモリ資源を必要とする。
本稿では,注目機構とFFNの両方を近似するために,バタフライの分散パターンを統一したハードウェアフレンドリーな変種を提案する。
論文 参考訳(メタデータ) (2022-09-20T09:28:26Z) - Auto-ViT-Acc: An FPGA-Aware Automatic Acceleration Framework for Vision
Transformer with Mixed-Scheme Quantization [78.18328503396057]
コンピュータビジョンタスクにおいて、視覚変換器(ViT)は大幅に精度が向上している。
本研究は,提案した混合スキーム量子化に基づくFPGA対応自動ViT加速フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-10T05:54:46Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - A fully pipelined FPGA accelerator for scale invariant feature transform
keypoint descriptor matching, [0.0]
SIFTキーポイント記述子マッチングのための完全パイプラインハードウェアアクセラレータアーキテクチャを設計する。
提案するハードウェアアーキテクチャは、完全にパイプライン化された実装に必要なメモリ帯域を適切に処理することができる。
私たちのハードウェア実装は、同等のソフトウェアアプローチの15.7倍高速です。
論文 参考訳(メタデータ) (2020-12-17T15:29:41Z) - Accelerated Charged Particle Tracking with Graph Neural Networks on
FPGAs [0.0]
グラフニューラルネットワークに基づく荷電粒子追跡のためのアルゴリズムのFPGA実装を開発し,研究する。
CPUベースの実行の大幅な高速化が可能であり、将来的にはそのようなアルゴリズムを効果的に利用できるようになる可能性がある。
論文 参考訳(メタデータ) (2020-11-30T18:17:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。