論文の概要: Hardware Implementation of Hyperbolic Tangent Function using Catmull-Rom
Spline Interpolation
- arxiv url: http://arxiv.org/abs/2007.13516v1
- Date: Mon, 13 Jul 2020 07:11:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 00:44:12.262449
- Title: Hardware Implementation of Hyperbolic Tangent Function using Catmull-Rom
Spline Interpolation
- Title(参考訳): Catmull-Rom Spline補間を用いた双曲型タンジェント関数のハードウェア実装
- Authors: Mahesh Chandra
- Abstract要約: ディープニューラルネットワークは、多くのコンピュータビジョンや、オブジェクト認識や音声認識などのヒューマンマシンインタフェースタスクにおいて、最先端の成果をもたらす。
これらのネットワークは計算コストがかかるため、より低コストで必要な性能を達成するためにカスタマイズされたアクセラレータが設計されている。
- 参考スコア(独自算出の注目度): 5.429955391775968
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks yield the state of the art results in many computer
vision and human machine interface tasks such as object recognition, speech
recognition etc. Since, these networks are computationally expensive,
customized accelerators are designed for achieving the required performance at
lower cost and power. One of the key building blocks of these neural networks
is non-linear activation function such as sigmoid, hyperbolic tangent (tanh),
and ReLU. A low complexity accurate hardware implementation of the activation
function is required to meet the performance and area targets of the neural
network accelerators. This paper presents an implementation of tanh function
using the Catmull-Rom spline interpolation. State of the art results are
achieved using this method with comparatively smaller logic area.
- Abstract(参考訳): ディープニューラルネットワークは、オブジェクト認識や音声認識など、多くのコンピュータビジョンやヒューマンマシンインタフェースタスクにおいて、最先端の技術結果をもたらす。
これらのネットワークは計算コストがかかるため、低コストで必要な性能を達成するためにカスタマイズされたアクセラレータが設計されている。
これらのニューラルネットワークの重要な構成要素の1つは、シグモノイド、双曲タンジェント(tanh)、ReLUのような非線形活性化関数である。
ニューラルネットワークアクセラレータの性能と領域目標を満たすためには,アクティベーション関数のハードウェア実装が低複雑性である必要がある。
本稿では, catmull-rom スプライン補間を用いた tanh 関数の実装について述べる。
この手法は論理領域が比較的小さいため, 技術結果が得られている。
関連論文リスト
- Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Exploring the Approximation Capabilities of Multiplicative Neural
Networks for Smooth Functions [9.936974568429173]
対象関数のクラスは、一般化帯域制限関数とソボレフ型球である。
以上の結果から、乗法ニューラルネットワークは、これらの関数をはるかに少ない層とニューロンで近似できることを示した。
これらの結果は、乗法ゲートが標準フィードフォワード層より優れ、ニューラルネットワーク設計を改善する可能性があることを示唆している。
論文 参考訳(メタデータ) (2023-01-11T17:57:33Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Hardware Accelerator and Neural Network Co-Optimization for
Ultra-Low-Power Audio Processing Devices [0.0]
HANNAHは、ディープニューラルネットワークとハードウェアアクセラレータのハードウェア/ソフトウェア共同設計の自動化と統合のためのフレームワークである。
そこで,HANNAHは,音声分類タスクにおいて,消費電力を最小化し,高い精度で適切なニューラルネットワークを見つけることができることを示す。
論文 参考訳(メタデータ) (2022-09-08T13:29:09Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - ZippyPoint: Fast Interest Point Detection, Description, and Matching
through Mixed Precision Discretization [71.91942002659795]
我々は,ネットワーク量子化技術を用いて推論を高速化し,計算限定プラットフォームでの利用を可能にする。
バイナリディスクリプタを用いた効率的な量子化ネットワークZippyPointは,ネットワーク実行速度,ディスクリプタマッチング速度,3Dモデルサイズを改善する。
これらの改善は、ホモグラフィー推定、視覚的ローカライゼーション、マップフリーな視覚的再ローカライゼーションのタスクで評価されるように、小さなパフォーマンス劣化をもたらす。
論文 参考訳(メタデータ) (2022-03-07T18:59:03Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z) - ItNet: iterative neural networks with small graphs for accurate and
efficient anytime prediction [1.52292571922932]
本研究では,計算グラフの観点から,メモリフットプリントが小さいネットワークモデルについて紹介する。
CamVidおよびCityscapesデータセットでセマンティックセグメンテーションの最新の結果を示します。
論文 参考訳(メタデータ) (2021-01-21T15:56:29Z) - Robust error bounds for quantised and pruned neural networks [1.8083503268672914]
機械学習のアルゴリズムは、データとアルゴリズムを保存し、訓練し、デバイス上でローカルに分散化しようとしている。
デバイスハードウェアは、このセットアップにおけるモデル機能の主要なボトルネックとなり、スリム化され、より効率的なニューラルネットワークの必要性を生み出します。
半確定プログラムを導入して、ニューラルネットワークのプルーニングや定量化による最悪のケースエラーをバインドする。
計算されたバウンダリは、安全クリティカルなシステムにデプロイした場合に、これらのアルゴリズムの性能に確実性をもたらすことが期待されている。
論文 参考訳(メタデータ) (2020-11-30T22:19:44Z) - Comparative Analysis of Polynomial and Rational Approximations of
Hyperbolic Tangent Function for VLSI Implementation [5.429955391775968]
ディープニューラルネットワークは、多くのコンピュータビジョンや、オブジェクト検出や音声認識などのヒューマンマシンインタフェースアプリケーションにおいて、最先端の結果をもたらす。
これらのネットワークは計算コストがかかるため、より低コストで必要な性能を達成するためにカスタマイズされたアクセラレータが設計されている。
論文 参考訳(メタデータ) (2020-07-13T07:31:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。