論文の概要: SIMDive: Approximate SIMD Soft Multiplier-Divider for FPGAs with Tunable
Accuracy
- arxiv url: http://arxiv.org/abs/2011.01148v1
- Date: Mon, 2 Nov 2020 17:40:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 13:17:31.243775
- Title: SIMDive: Approximate SIMD Soft Multiplier-Divider for FPGAs with Tunable
Accuracy
- Title(参考訳): SIMDive:可変精度FPGA用SIMDソフト乗算器
- Authors: Zahra Ebrahimi and Salim Ullah and Akash Kumar
- Abstract要約: 本稿では,新しい乗算器とチューナブルな分割器に基づくSIMDアーキテクチャを初めて提示する。
提案したハイブリッドアーキテクチャはMitchellのアルゴリズムを実装し、8ビットから32ビットの精度変数をサポートする。
- 参考スコア(独自算出の注目度): 3.4154033825543055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ever-increasing quest for data-level parallelism and variable precision
in ubiquitous multimedia and Deep Neural Network (DNN) applications has
motivated the use of Single Instruction, Multiple Data (SIMD) architectures. To
alleviate energy as their main resource constraint, approximate computing has
re-emerged,albeit mainly specialized for their Application-Specific Integrated
Circuit (ASIC) implementations. This paper, presents for the first time, an
SIMD architecture based on novel multiplier and divider with tunable accuracy,
targeted for Field-Programmable Gate Arrays (FPGAs). The proposed hybrid
architecture implements Mitchell's algorithms and supports precision
variability from 8 to 32 bits. Experimental results obtained from Vivado,
multimedia and DNN applications indicate superiority of proposed architecture
(both SISD and SIMD) over accurate and state-of-the-art approximate
counterparts. In particular, the proposed SISD divider outperforms the accurate
Intellectual Property (IP) divider provided by Xilinx with 4x higher speed and
4.6x less energy and tolerating only < 0.8% error. Moreover, the proposed SIMD
multiplier-divider supersede accurate SIMD multiplier by achieving up to 26%,
45%, 36%, and 56% improvement in area, throughput, power, and energy,
respectively.
- Abstract(参考訳): ユビキタスマルチメディアおよびディープニューラルネットワーク(DNN)アプリケーションにおけるデータレベルの並列性と可変精度の追求は、単一命令、多重データ(SIMD)アーキテクチャの使用を動機付けている。
エネルギーを主資源制約として緩和するために、近似コンピューティングは再導入され、主にアプリケーション特化集積回路(ASIC)の実装に特化している。
本稿では,フィールドプログラミング可能なゲートアレー(fpga)を対象とした,可変精度を持つ新しい乗算器と除算器に基づくsimdアーキテクチャを初めて提示する。
提案したハイブリッドアーキテクチャはMitchellのアルゴリズムを実装し、8ビットから32ビットの精度変数をサポートする。
Vivado, マルチメディア, DNN アプリケーションから得られた実験結果から, 提案したアーキテクチャ(SISD と SIMD の両方)が, 精度と最先端の近似よりも優れていることが示された。
特に、提案されたsisd除算器は、xilinxが提供する正確な知的所有権(ip)除算器を4倍の速度で4.6倍のエネルギーで上回り、0.8%の誤差しか満たさない。
さらに,提案したSIMD乗算器は,それぞれ26%,45%,36%,56%の面積,スループット,電力,エネルギーの改善を達成し,SIMD乗算器の精度を向上した。
関連論文リスト
- An Open-Source Framework for Efficient Numerically-Tailored Computations [1.0596516362730137]
本稿では,効率的な行列行列乗算を容易にするために,多機能なオープンソースフレームワークを提案する。
AI推論では、ResNet18、ResNet34、ResNet50、DenseNet121、DenseNet161、DenseNet169、VGG11といった最先端のニューラルネットワークモデルを検討する。
我々のアプローチは、すべてのケースにおけるエネルギー消費を一貫して減少させ、特にIEEE754-32の3.3倍、Bfloat16の1.4倍の3.3倍の削減を図っている。
論文 参考訳(メタデータ) (2024-05-29T10:10:53Z) - Edge-MoE: Memory-Efficient Multi-Task Vision Transformer Architecture
with Task-level Sparsity via Mixture-of-Experts [60.1586169973792]
M$3$ViTは、Mix-of-experts (MoE)を導入した最新のマルチタスクViTモデルである。
MoEは精度の向上と80%以上の削減計算を実現しているが、FPGAに効率的なデプロイを行う上での課題は残されている。
Edge-MoEと呼ばれる私たちの研究は、アーキテクチャの革新の集合を伴って、マルチタスクのViTのための最初のエンドツーエンドFPGAアクセラレータを導入するという課題を解決します。
論文 参考訳(メタデータ) (2023-05-30T02:24:03Z) - DeepGEMM: Accelerated Ultra Low-Precision Inference on CPU Architectures
using Lookup Tables [49.965024476651706]
DeepGEMMはSIMDハードウェア上で超高精度畳み込みニューラルネットワークを実行するためのルックアップテーブルベースのアプローチである。
実装は、x86プラットフォーム上で、対応する8ビット整数カーネルを最大1.74倍の性能で上回る。
論文 参考訳(メタデータ) (2023-04-18T15:13:10Z) - XPert: Peripheral Circuit & Neural Architecture Co-search for Area and
Energy-efficient Xbar-based Computing [13.499706125321605]
XPertは、最適性能を達成するために、ネットワークアーキテクチャと周辺パラメータを共同で研究する。
VGG16ベースラインと比較して、XPert 10.24x (4.7x)低いEDAP、1.72x (1.62x)高いTOPS/W,1.93x (3x)高いTOPS/mm2で、CIFAR10データセットの92.46% (56.7%)の精度である。
論文 参考訳(メタデータ) (2023-03-30T18:23:20Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Reconfigurable co-processor architecture with limited numerical
precision to accelerate deep convolutional neural networks [0.38848561367220275]
畳み込みニューラルネットワーク(CNN)は、視覚システムやロボット工学などのディープラーニングアプリケーションで広く使われている。
本稿では,CNNを高速化するために,モデルに依存しない再構成可能なコプロセッシングアーキテクチャを提案する。
既存の解とは対照的に、算術表現や演算のための限定精度32bit Q-format固定点量子化を導入する。
論文 参考訳(メタデータ) (2021-08-21T09:50:54Z) - Rethinking Floating Point Overheads for Mixed Precision DNN Accelerators [2.6487352458568507]
異なる整数および浮動小数点(FP)精度をサポートする混合精度畳み込みユニットアーキテクチャを提案する。
FP計算を整数ベースのアーキテクチャに統合し、FP演算サポートによるオーバーヘッドを評価する方法を紹介します。
論文 参考訳(メタデータ) (2021-01-27T23:57:43Z) - Sparse Systolic Tensor Array for Efficient CNN Hardware Acceleration [14.958793135751149]
モバイルデバイス上の畳み込みニューラルネットワーク(CNN)推論は、低精度(INT8)汎用行列乗算(GEMM)の効率的なハードウェアアクセラレーションを必要とする
CNN推論のGEMMをさらに加速する一般的な手法であり、特に、構造的スパーシリティは予測可能な負荷分散と非常に低いインデックスオーバーヘッドの利点がある。
ハードウェアの高利用を保ちながら、さまざまな分散レベルのサポートを提供する方法について、構造的疎結合で重要なアーキテクチャ上の課題に対処する。
論文 参考訳(メタデータ) (2020-09-04T20:17:42Z) - Binary DAD-Net: Binarized Driveable Area Detection Network for
Autonomous Driving [94.40107679615618]
本稿では,二項化駆動型領域検出ネットワーク(バイナリDAD-Net)を提案する。
エンコーダ、ボトルネック、デコーダ部分の2重みとアクティベーションのみを使用する。
パブリックデータセット上で、最先端のセマンティックセグメンテーションネットワークより優れています。
論文 参考訳(メタデータ) (2020-06-15T07:09:01Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。