論文の概要: An Investigation into Neuromorphic ICs using Memristor-CMOS Hybrid
Circuits
- arxiv url: http://arxiv.org/abs/2210.15593v1
- Date: Fri, 19 Aug 2022 18:04:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-30 11:49:39.926378
- Title: An Investigation into Neuromorphic ICs using Memristor-CMOS Hybrid
Circuits
- Title(参考訳): Memristor-CMOSハイブリッド回路を用いたニューロモルフィックICの検討
- Authors: Udit Kumar Agarwal, Shikhar Makhija, Varun Tripathi and Kunwar Singh
- Abstract要約: CMOS-Memristorベースのニューラルネットワークアクセラレータは、ニューラルネットワークを高速化する方法を提供する。
様々なメムリスタプログラミング回路と基本的なニューロモルフィック回路がシミュレーションされている。
プロジェクトの次のフェーズは、ニューラルネットワークの設計に使用できる基本的なビルディングブロックの設計に関するものです。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The memristance of a memristor depends on the amount of charge flowing
through it and when current stops flowing through it, it remembers the state.
Thus, memristors are extremely suited for implementation of memory units.
Memristors find great application in neuromorphic circuits as it is possible to
couple memory and processing, compared to traditional Von-Neumann digital
architectures where memory and processing are separate. Neural networks have a
layered structure where information passes from one layer to another and each
of these layers have the possibility of a high degree of parallelism.
CMOS-Memristor based neural network accelerators provide a method of speeding
up neural networks by making use of this parallelism and analog computation. In
this project we have conducted an initial investigation into the current state
of the art implementation of memristor based programming circuits. Various
memristor programming circuits and basic neuromorphic circuits have been
simulated. The next phase of our project revolved around designing basic
building blocks which can be used to design neural networks. A memristor bridge
based synaptic weighting block, a operational transconductor based summing
block were initially designed. We then designed activation function blocks
which are used to introduce controlled non-linearity. Blocks for a basic
rectified linear unit and a novel implementation for tan-hyperbolic function
have been proposed. An artificial neural network has been designed using these
blocks to validate and test their performance. We have also used these
fundamental blocks to design basic layers of Convolutional Neural Networks.
Convolutional Neural Networks are heavily used in image processing
applications. The core convolutional block has been designed and it has been
used as an image processing kernel to test its performance.
- Abstract(参考訳): メムリスタの分裂は、その中を流れる電荷の量と、その中を流れる電流が止まったときに状態が記憶される。
したがって、メモリユニットの実装に非常に適している。
メモリと処理が分離された従来のフォン・ノイマンのデジタルアーキテクチャと比較すると、メモリと処理の結合が可能なため、メムリスタはニューロモルフィック回路に優れた応用がある。
ニューラルネットワークは、情報がある層から別の層に渡される階層構造を持ち、これらの各層は高い並列性の可能性を秘めている。
cmos-memristorベースのニューラルネットワークアクセラレータは、この並列性とアナログ計算を利用してニューラルネットワークを高速化する方法を提供する。
本研究では,memristorを用いたプログラミング回路の技術実装の現状について,初期調査を行った。
様々なメムリスタプログラミング回路と基本的なニューロモルフィック回路がシミュレーションされている。
プロジェクトの次のフェーズは、ニューラルネットワークの設計に使用できる基本的なビルディングブロックの設計に関するものです。
memristor bridgeベースのシナプス重み付けブロックと運用上のトランスコンダクタベースの和み上げブロックが当初設計された。
次に、制御された非線形性を導入するために使用されるアクティベーション関数ブロックを設計した。
基本整流線形単位のブロックとタン双曲関数の新たな実装が提案されている。
これらのブロックを使用して、その性能を検証およびテストするために、人工ニューラルネットワークが設計されている。
また、これらの基本ブロックを使って畳み込みニューラルネットワークの基本層を設計しました。
畳み込みニューラルネットワークは画像処理アプリケーションで多用されている。
コア畳み込みブロックは設計され、その性能をテストするために画像処理カーネルとして使用されている。
関連論文リスト
- Lipschitz constant estimation for general neural network architectures using control tools [0.05120567378386613]
本稿では,半定値プログラミングを用いた一般ニューラルネットワークアーキテクチャのリプシッツ定数の推定について述べる。
我々はニューラルネットワークを時間変動力学系と解釈し、そこでは、$k$th層は、時間で$k$の力学に対応する。
論文 参考訳(メタデータ) (2024-05-02T09:38:16Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Construction of a spike-based memory using neural-like logic gates based
on Spiking Neural Networks on SpiNNaker [0.0]
この研究は、コンピュータアーキテクチャにおいて最も重要なコンポーネントの1つであるメモリのスパイク実装を示す。
実験はSpiNNakerのニューロモルフィックプラットフォーム上で行われ、提示されたブロックの構築に使用されるアプローチを検証することができた。
論文 参考訳(メタデータ) (2022-06-08T15:22:41Z) - Neuromorphic Artificial Intelligence Systems [58.1806704582023]
フォン・ノイマンアーキテクチャと古典的ニューラルネットワークに基づく現代のAIシステムは、脳と比較して多くの基本的な制限がある。
この記事では、そのような制限と、それらが緩和される方法について論じる。
これは、これらの制限が克服されている現在利用可能なニューロモーフィックAIプロジェクトの概要を示す。
論文 参考訳(メタデータ) (2022-05-25T20:16:05Z) - Monolithic Silicon Photonic Architecture for Training Deep Neural
Networks with Direct Feedback Alignment [0.6501025489527172]
CMOS互換シリコンフォトニックアーキテクチャによって実現されたニューラルネットワークのオンチップトレーニングを提案する。
提案手法では,エラーのバックプロパゲーションではなく,エラーフィードバックを用いてニューラルネットワークをトレーニングする,直接フィードバックアライメントトレーニングアルゴリズムを用いる。
オンチップMAC演算結果を用いて,MNISTデータセットを用いたディープニューラルネットワークのトレーニング実験を行った。
論文 参考訳(メタデータ) (2021-11-12T18:31:51Z) - On-Chip Error-triggered Learning of Multi-layer Memristive Spiking
Neural Networks [1.7958576850695402]
オンライン3次重み更新を用いた局所的,勾配に基づく,エラートリガー付き学習アルゴリズムを提案する。
提案アルゴリズムは,多層SNNを記憶型ニューロモルフィックハードウェアでオンライントレーニングすることを可能にする。
論文 参考訳(メタデータ) (2020-11-21T19:44:19Z) - Neurocoder: Learning General-Purpose Computation Using Stored Neural
Programs [64.56890245622822]
ニューロコーダ(Neurocoder)は、汎用計算機の全く新しいクラスである。
共有可能なモジュール型プログラムのセットから関連するプログラムを構成することで、データ応答性のある方法で“コード”を行う。
モジュールプログラムを学習し、パターンシフトを厳しく処理し、新しいプログラムが学習されると、古いプログラムを記憶する新しい能力を示す。
論文 参考訳(メタデータ) (2020-09-24T01:39:16Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z) - Training End-to-End Analog Neural Networks with Equilibrium Propagation [64.0476282000118]
本稿では,勾配降下による終端から終端までのアナログニューラルネットワークの学習法を提案する。
数学的には、アナログニューラルネットワークのクラス(非線形抵抗性ネットワークと呼ばれる)がエネルギーベースモデルであることが示される。
我々の研究は、オンチップ学習をサポートする、超高速でコンパクトで低消費電力のニューラルネットワークの新世代の開発を導くことができる。
論文 参考訳(メタデータ) (2020-06-02T23:38:35Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z) - Exposing Hardware Building Blocks to Machine Learning Frameworks [4.56877715768796]
我々は、そのようなニューロンをユニークな関数として補完するトポロジーを設計する方法に焦点をあてる。
我々は、カスタムの空間性と量子化によるニューラルネットワークのトレーニングを支援するライブラリを開発する。
論文 参考訳(メタデータ) (2020-04-10T14:26:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。