論文の概要: A Custom 7nm CMOS Standard Cell Library for Implementing TNN-based
Neuromorphic Processors
- arxiv url: http://arxiv.org/abs/2012.05419v1
- Date: Thu, 10 Dec 2020 02:31:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 06:06:47.130671
- Title: A Custom 7nm CMOS Standard Cell Library for Implementing TNN-based
Neuromorphic Processors
- Title(参考訳): TNNベースのニューロモルフィックプロセッサ実装のためのカスタム7nmCMOS標準セルライブラリ
- Authors: Harideep Nair, Prabhu Vellaisamy, Santha Bhasuthkar, and John Paul
Shen
- Abstract要約: 時間ニューラルネットワーク(TNN)を実装するための7nmCMOSセルライブラリのために,高度に最適化されたカスタムマクロ拡張セットを開発した。
MNISTのTNNプロトタイプ(13,750ニューロンと315,000シナプス)は1.56mm2ダイ面積しか必要とせず、1.69mWしか消費しない。
- 参考スコア(独自算出の注目度): 1.1834561744686023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A set of highly-optimized custom macro extensions is developed for a 7nm CMOS
cell library for implementing Temporal Neural Networks (TNNs) that can mimic
brain-like sensory processing with extreme energy efficiency. A TNN prototype
(13,750 neurons and 315,000 synapses) for MNIST requires only 1.56mm2 die area
and consumes only 1.69mW.
- Abstract(参考訳): 極端エネルギー効率で脳のような感覚処理を模倣できるテンポラルニューラルネットワーク(TNN)を実装するための7nm CMOSセルライブラリのために、高度に最適化されたカスタムマクロ拡張セットを開発した。
MNISTのTNNプロトタイプ(13,750ニューロンと315,000シナプス)は1.56mm2ダイ面積しか必要とせず、1.69mWしか消費しない。
関連論文リスト
- Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Fully Spiking Actor Network with Intra-layer Connections for
Reinforcement Learning [51.386945803485084]
エージェントが制御する多次元決定論的ポリシーを学習する必要があるタスクに焦点をあてる。
既存のスパイクベースのRL法は、SNNの出力として発火率を取り、完全に接続された層を通して連続的なアクション空間(つまり決定論的なポリシー)を表すように変換する。
浮動小数点行列操作を伴わない完全にスパイクするアクターネットワークを開発するため,昆虫に見られる非スパイク介在ニューロンからインスピレーションを得た。
論文 参考訳(メタデータ) (2024-01-09T07:31:34Z) - LaneSNNs: Spiking Neural Networks for Lane Detection on the Loihi
Neuromorphic Processor [12.47874622269824]
我々は、イベントベースのカメラ入力を用いて、道路にマークされた車線を検出するための新しいSNNベースのアプローチであるLaneSNNを提案する。
我々は、学習したSNNモデルをIntel Loihi Neuromorphic Research Chipに実装し、マッピングする。
損失関数に対して,重み付き二元交叉エントロピー(WCE)と平均二乗誤差(MSE)の線形合成に基づく新しい手法を開発した。
論文 参考訳(メタデータ) (2022-08-03T14:51:15Z) - TNN7: A Custom Macro Suite for Implementing Highly Optimized Designs of
Neuromorphic TNNs [2.9068923524970227]
TNN(Temporal Neural Networks)は、エネルギー効率の高いオンラインセンサ処理能力を示す。
TNN7は、予測 7nm Process Design Kit (PDK) を用いて開発された9つの高度に最適化されたカスタムマクロのスイートである。
競争性能を提供する教師なしの時系列クラスタリングTNNは40UWの電力と0.05mm2の領域で実装できる。
MNISTエラー率1%の4層TNNは18mWと24.63mm2しか消費しない。
論文 参考訳(メタデータ) (2022-05-16T01:03:41Z) - Sparse Compressed Spiking Neural Network Accelerator for Object
Detection [0.1246030133914898]
スパイキングニューラルネットワーク(SNN)は、人間の脳にインスパイアされ、バイナリスパイクと非常にスパースなアクティベーションマップを送信する。
本稿では, 活性化マップと重みの疎度を生かした, スパース圧縮スパイクニューラルネットワーク加速器を提案する。
ニューラルネットワークの実験結果は、71.5$%$mAPで、ISV 3clsデータセットの混合(1,3)タイムステップを示している。
論文 参考訳(メタデータ) (2022-05-02T09:56:55Z) - Event-based Video Reconstruction via Potential-assisted Spiking Neural
Network [48.88510552931186]
バイオインスパイアされたニューラルネットワークは、イベント駆動ハードウェア上での計算効率の向上につながる可能性がある。
完全スパイキングニューラルネットワーク(EVSNN)に基づくイベントベースビデオ再構成フレームワークを提案する。
スパイクニューロンは、そのような時間依存タスクを完了させるために有用な時間情報(メモリ)を格納する可能性がある。
論文 参考訳(メタデータ) (2022-01-25T02:05:20Z) - A Microarchitecture Implementation Framework for Online Learning with
Temporal Neural Networks [1.4530235554268331]
時間的ニューラルネットワーク(TNN)は、情報を表現し処理するためのリソースとして時間を使用するニューラルネットワークをスパイクしている。
本研究では,標準CMOSを用いたTNN実装のためのマイクロアーキテクチャフレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-27T15:59:54Z) - Direct CMOS Implementation of Neuromorphic Temporal Neural Networks for
Sensory Processing [4.084672048082021]
時間的ニューラルネットワーク(TNN)は、哺乳類の新皮質の行動を模倣し、情報を表現し、処理するためのリソースとして時間を使用する。
本研究は,市販のディジタルCMOS技術を用いたTNNの実装に焦点を当てる。
論文 参考訳(メタデータ) (2020-08-27T20:36:34Z) - Flexible Transmitter Network [84.90891046882213]
現在のニューラルネットワークはMPモデルに基づいて構築されており、通常はニューロンを他のニューロンから受信した信号の実際の重み付け集約上での活性化関数の実行として定式化する。
本稿では,フレキシブル・トランスミッタ(FT)モデルを提案する。
本稿では、最も一般的な完全接続型フィードフォワードアーキテクチャ上に構築された、フレキシブルトランスミッタネットワーク(FTNet)について述べる。
論文 参考訳(メタデータ) (2020-04-08T06:55:12Z) - The Microsoft Toolkit of Multi-Task Deep Neural Networks for Natural
Language Understanding [97.85957811603251]
MT-DNNはオープンソースの自然言語理解(NLU)ツールキットであり、研究者や開発者がカスタマイズされたディープラーニングモデルを訓練しやすくする。
PyTorchとTransformersをベースとして開発されたMT-DNNは、幅広いNLUタスクの迅速なカスタマイズを容易にするように設計されている。
MT-DNNのユニークな特徴は、対戦型マルチタスク学習パラダイムを用いた堅牢で移動可能な学習のサポートである。
論文 参考訳(メタデータ) (2020-02-19T03:05:28Z) - Tensor-to-Vector Regression for Multi-channel Speech Enhancement based
on Tensor-Train Network [53.47564132861866]
マルチチャネル音声強調のためのテンソル-ベクトル回帰手法を提案する。
キーとなる考え方は、従来のディープニューラルネットワーク(DNN)ベースのベクトル-ベクトル回帰の定式化を、テンソル-トレインネットワーク(TTN)フレームワークで行うことである。
8チャンネル条件では、3.12のPSSQはTTNの2000万のパラメータを使用して達成されるが、6800万のパラメータを持つDNNは3.06のPSSQしか達成できない。
論文 参考訳(メタデータ) (2020-02-03T02:58:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。