論文の概要: Direct CMOS Implementation of Neuromorphic Temporal Neural Networks for
Sensory Processing
- arxiv url: http://arxiv.org/abs/2009.00457v1
- Date: Thu, 27 Aug 2020 20:36:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 07:09:03.645919
- Title: Direct CMOS Implementation of Neuromorphic Temporal Neural Networks for
Sensory Processing
- Title(参考訳): 感覚処理のためのニューロモルフィック時間ニューラルネットワークのCMOS直接実装
- Authors: Harideep Nair, John Paul Shen, James E. Smith
- Abstract要約: 時間的ニューラルネットワーク(TNN)は、哺乳類の新皮質の行動を模倣し、情報を表現し、処理するためのリソースとして時間を使用する。
本研究は,市販のディジタルCMOS技術を用いたTNNの実装に焦点を当てる。
- 参考スコア(独自算出の注目度): 4.084672048082021
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Temporal Neural Networks (TNNs) use time as a resource to represent and
process information, mimicking the behavior of the mammalian neocortex. This
work focuses on implementing TNNs using off-the-shelf digital CMOS technology.
A microarchitecture framework is introduced with a hierarchy of building blocks
including: multi-neuron columns, multi-column layers, and multi-layer TNNs. We
present the direct CMOS gate-level implementation of the multi-neuron column
model as the key building block for TNNs. Post-synthesis results are obtained
using Synopsys tools and the 45 nm CMOS standard cell library. The TNN
microarchitecture framework is embodied in a set of characteristic equations
for assessing the total gate count, die area, compute time, and power
consumption for any TNN design. We develop a multi-layer TNN prototype of 32M
gates. In 7 nm CMOS process, it consumes only 1.54 mm^2 die area and 7.26 mW
power and can process 28x28 images at 107M FPS (9.34 ns per image). We evaluate
the prototype's performance and complexity relative to a recent
state-of-the-art TNN model.
- Abstract(参考訳): 時間的ニューラルネットワーク(TNN)は、哺乳類の新皮質の行動を模倣し、情報を表現し処理するためのリソースとして時間を使用する。
本研究は,市販のディジタルCMOS技術を用いたTNNの実装に焦点を当てる。
マイクロアーキテクチャフレームワークには、マルチニューロン列、マルチカラム層、マルチレイヤTNNなどのビルディングブロックの階層構造が導入された。
本稿では,TNNのキービルディングブロックとして,マルチニューロン列モデルのCMOSゲートレベル実装を提案する。
合成後の結果はsynopsysツールと45 nm cmos標準セルライブラリを用いて得られる。
TNNマイクロアーキテクチャフレームワークは、TNN設計の総ゲート数、ダイエリア、計算時間、消費電力を評価するための一連の特性方程式に具体化されている。
我々は32Mゲートの多層TNNプロトタイプを開発した。
7nmのCMOSプロセスでは、1.54mm^2ダイ面積と7.26mWの電力しか消費せず、28x28画像を107M FPS (9.34 ns)で処理できる。
我々は,最近の最先端TNNモデルと比較して,プロトタイプの性能と複雑さを評価する。
関連論文リスト
- Scalable Mechanistic Neural Networks [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
元のメカニスティックニューラルネットワーク (MNN) を再構成することにより、計算時間と空間の複雑さを、それぞれ、列長に関して立方体と二次体から線形へと減少させる。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - NAS-BNN: Neural Architecture Search for Binary Neural Networks [55.058512316210056]
我々は、NAS-BNNと呼ばれる二元ニューラルネットワークのための新しいニューラルネットワーク探索手法を提案する。
我々の発見したバイナリモデルファミリーは、20Mから2Mまでの幅広い操作(OP)において、以前のBNNよりも優れていた。
さらに,対象検出タスクにおける探索されたBNNの転送可能性を検証するとともに,探索されたBNNを用いたバイナリ検出器は,MSデータセット上で31.6% mAP,370万 OPsなどの新たな最先端結果を得る。
論文 参考訳(メタデータ) (2024-08-28T02:17:58Z) - SpikeSim: An end-to-end Compute-in-Memory Hardware Evaluation Tool for
Benchmarking Spiking Neural Networks [4.0300632886917]
SpikeSimは、IMCマップされたSNNの現実的なパフォーマンス、エネルギ、レイテンシ、領域評価を実現するツールである。
神経モジュールの面積の1.24倍と10倍に減少するSNNトポロジカルな変化と全エネルギー・遅延生成値を提案する。
論文 参考訳(メタデータ) (2022-10-24T01:07:17Z) - Towards a General Purpose CNN for Long Range Dependencies in
$\mathrm{N}$D [49.57261544331683]
構造変化のない任意の解像度,次元,長さのタスクに対して,連続的な畳み込みカーネルを備えた単一CNNアーキテクチャを提案する。
1$mathrmD$)とビジュアルデータ(2$mathrmD$)の幅広いタスクに同じCCNNを適用することで、我々のアプローチの汎用性を示す。
私たちのCCNNは競争力があり、検討されたすべてのタスクで現在の最先端を上回ります。
論文 参考訳(メタデータ) (2022-06-07T15:48:02Z) - TNN7: A Custom Macro Suite for Implementing Highly Optimized Designs of
Neuromorphic TNNs [2.9068923524970227]
TNN(Temporal Neural Networks)は、エネルギー効率の高いオンラインセンサ処理能力を示す。
TNN7は、予測 7nm Process Design Kit (PDK) を用いて開発された9つの高度に最適化されたカスタムマクロのスイートである。
競争性能を提供する教師なしの時系列クラスタリングTNNは40UWの電力と0.05mm2の領域で実装できる。
MNISTエラー率1%の4層TNNは18mWと24.63mm2しか消費しない。
論文 参考訳(メタデータ) (2022-05-16T01:03:41Z) - Event-based Video Reconstruction via Potential-assisted Spiking Neural
Network [48.88510552931186]
バイオインスパイアされたニューラルネットワークは、イベント駆動ハードウェア上での計算効率の向上につながる可能性がある。
完全スパイキングニューラルネットワーク(EVSNN)に基づくイベントベースビデオ再構成フレームワークを提案する。
スパイクニューロンは、そのような時間依存タスクを完了させるために有用な時間情報(メモリ)を格納する可能性がある。
論文 参考訳(メタデータ) (2022-01-25T02:05:20Z) - A Microarchitecture Implementation Framework for Online Learning with
Temporal Neural Networks [1.4530235554268331]
時間的ニューラルネットワーク(TNN)は、情報を表現し処理するためのリソースとして時間を使用するニューラルネットワークをスパイクしている。
本研究では,標準CMOSを用いたTNN実装のためのマイクロアーキテクチャフレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-27T15:59:54Z) - A Custom 7nm CMOS Standard Cell Library for Implementing TNN-based
Neuromorphic Processors [1.1834561744686023]
時間ニューラルネットワーク(TNN)を実装するための7nmCMOSセルライブラリのために,高度に最適化されたカスタムマクロ拡張セットを開発した。
MNISTのTNNプロトタイプ(13,750ニューロンと315,000シナプス)は1.56mm2ダイ面積しか必要とせず、1.69mWしか消費しない。
論文 参考訳(メタデータ) (2020-12-10T02:31:57Z) - A Temporal Neural Network Architecture for Online Learning [0.6091702876917281]
時間的ニューラルネットワーク(TNN)は、相対スパイク時間として符号化された情報を通信し、処理する。
TNNアーキテクチャを提案し、概念実証として、オンライン教師付き分類のより大きな文脈でTNNの動作を示す。
論文 参考訳(メタデータ) (2020-11-27T17:15:29Z) - Tensor train decompositions on recurrent networks [60.334946204107446]
マトリックス製品状態(MPS)テンソルトレインは、ストレージの削減と推論時の計算時間の観点から、MPOよりも魅力的な特徴を持つ。
理論解析により,MPSテンソル列車はLSTMネットワーク圧縮の最前線に置かれるべきであることを示す。
論文 参考訳(メタデータ) (2020-06-09T18:25:39Z) - The Microsoft Toolkit of Multi-Task Deep Neural Networks for Natural
Language Understanding [97.85957811603251]
MT-DNNはオープンソースの自然言語理解(NLU)ツールキットであり、研究者や開発者がカスタマイズされたディープラーニングモデルを訓練しやすくする。
PyTorchとTransformersをベースとして開発されたMT-DNNは、幅広いNLUタスクの迅速なカスタマイズを容易にするように設計されている。
MT-DNNのユニークな特徴は、対戦型マルチタスク学習パラダイムを用いた堅牢で移動可能な学習のサポートである。
論文 参考訳(メタデータ) (2020-02-19T03:05:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。