論文の概要: Floating-Point Multiplication Using Neuromorphic Computing
- arxiv url: http://arxiv.org/abs/2008.13245v1
- Date: Sun, 30 Aug 2020 19:07:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 12:19:35.097220
- Title: Floating-Point Multiplication Using Neuromorphic Computing
- Title(参考訳): ニューロモルフィックコンピューティングを用いた浮動小数点乗法
- Authors: Karn Dubey and Urja Kothari and Shrisha Rao
- Abstract要約: IEEE 754準拠浮動小数点乗算を行うニューロモルフィックシステムについて述べる。
本研究では,ビット毎のニューロン数が精度およびビット誤り率に及ぼす影響について検討し,各成分に必要なニューロン数を推定する。
- 参考スコア(独自算出の注目度): 3.5450828190071655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neuromorphic computing describes the use of VLSI systems to mimic
neuro-biological architectures and is also looked at as a promising alternative
to the traditional von Neumann architecture. Any new computing architecture
would need a system that can perform floating-point arithmetic. In this paper,
we describe a neuromorphic system that performs IEEE 754-compliant
floating-point multiplication. The complex process of multiplication is divided
into smaller sub-tasks performed by components Exponent Adder, Bias Subtractor,
Mantissa Multiplier and Sign OF/UF. We study the effect of the number of
neurons per bit on accuracy and bit error rate, and estimate the optimal number
of neurons needed for each component.
- Abstract(参考訳): ニューロモルフィックコンピューティングは、神経生物学的アーキテクチャを模倣するためのVLSIシステムの使用を記述しており、従来のフォン・ノイマンアーキテクチャの代替として期待されている。
新しいコンピューティングアーキテクチャは、浮動小数点演算を実行できるシステムを必要とする。
本稿では,IEEE 754準拠の浮動小数点乗算を行うニューロモルフィックシステムについて述べる。
乗算の複雑なプロセスは、Exponent Adder、Bias Subtractor、Mantissa Multiplier、Sign OF/UFによって実行される小さなサブタスクに分割される。
本研究では,ビット毎のニューロン数が精度およびビット誤り率に及ぼす影響について検討し,各成分に必要なニューロン数を推定する。
関連論文リスト
- Expressive Power of ReLU and Step Networks under Floating-Point Operations [11.29958155597398]
二項しきい値単位またはReLUを用いたニューラルネットワークは、任意の有限入力/出力ペアを記憶可能であることを示す。
また,浮動小数点演算が有意および指数の両方に有限ビットを使用する場合,暗記および普遍近似に関する同様の結果を示す。
論文 参考訳(メタデータ) (2024-01-26T05:59:40Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - Splitting physics-informed neural networks for inferring the dynamics of
integer- and fractional-order neuron models [0.0]
分割法と物理情報ニューラルネットワーク(PINN)を組み合わせた微分方程式の前方解法を提案する。
提案手法はPINNを分割し,動的システムにPINNを適用するという課題に効果的に対処する。
論文 参考訳(メタデータ) (2023-04-26T00:11:00Z) - Encoding Integers and Rationals on Neuromorphic Computers using Virtual
Neuron [0.0]
仮想ニューロンを整数と有理数の符号化機構として提示する。
本研究では,23nJのエネルギーを混合信号メムリスタベースニューロモルフィックプロセッサを用いて平均的に加算操作を行うことができることを示す。
論文 参考訳(メタデータ) (2022-08-15T23:18:26Z) - POPPINS : A Population-Based Digital Spiking Neuromorphic Processor with
Integer Quadratic Integrate-and-Fire Neurons [50.591267188664666]
2つの階層構造を持つ180nmプロセス技術において,集団に基づくディジタルスパイキングニューロモルフィックプロセッサを提案する。
提案手法は,生体模倣型ニューロモルフィックシステム,低消費電力,低遅延推論処理アプリケーションの開発を可能にする。
論文 参考訳(メタデータ) (2022-01-19T09:26:34Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Separation of Memory and Processing in Dual Recurrent Neural Networks [0.0]
入力に接続する繰り返し層とフィードフォワード層を積み重ねるニューラルネットワークアーキテクチャを探索する。
繰り返し単位の活性化関数にノイズが導入されたとき、これらのニューロンは二項活性化状態に強制され、ネットワークは有限オートマトンのように振る舞う。
論文 参考訳(メタデータ) (2020-05-17T11:38:42Z) - Neural Arithmetic Units [84.65228064780744]
ニューラルネットワークは複雑な関数を近似することができるが、実数に対して正確な算術演算を行うのに苦労する。
ニューラルネットワークコンポーネントとして、正確な加算と減算を学習可能なニューラル加算ユニット(NAU)と、ベクトルのサブセットを乗算可能なニューラル乗算ユニット(NMU)がある。
提案したユニットNAUとNMUは、従来のニューラルネットワークユニットと比較して、より一貫して収束し、パラメータを少なくし、より速く学習し、より大きな隠れたサイズに収束し、スパースと意味のある重みを得、負の値と小さな値に外挿することができる。
論文 参考訳(メタデータ) (2020-01-14T19:35:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。