論文の概要: Hybrid Synaptic Structure for Spiking Neural Network Realization
- arxiv url: http://arxiv.org/abs/2311.07787v1
- Date: Mon, 13 Nov 2023 22:42:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 16:07:06.609962
- Title: Hybrid Synaptic Structure for Spiking Neural Network Realization
- Title(参考訳): スパイクニューラルネットワーク実現のためのハイブリッドシナプス構造
- Authors: Sasan Razmkhah, Mustafa Altay Karamuftuoglu and Ali Bozbey
- Abstract要約: 本稿では, JJ-Soma に対して正および負の重み付き入力を適用可能なコンパクトな SFQ ベースのシナプス設計を提案する。
JJ-Synapseは超高周波数で動作でき、CMOSよりも消費電力が桁違いに小さく、商用Nbプロセスで便利に製造できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks and neuromorphic computing play pivotal roles in deep
learning and machine vision. Due to their dissipative nature and inherent
limitations, traditional semiconductor-based circuits face challenges in
realizing ultra-fast and low-power neural networks. However, the spiking
behavior characteristic of single flux quantum (SFQ) circuits positions them as
promising candidates for spiking neural networks (SNNs). Our previous work
showcased a JJ-Soma design capable of operating at tens of gigahertz while
consuming only a fraction of the power compared to traditional circuits, as
documented in [1]. This paper introduces a compact SFQ-based synapse design
that applies positive and negative weighted inputs to the JJ-Soma. Using an
RSFQ synapse empowers us to replicate the functionality of a biological neuron,
a crucial step in realizing a complete SNN. The JJ-Synapse can operate at
ultra-high frequencies, exhibits orders of magnitude lower power consumption
than CMOS counterparts, and can be conveniently fabricated using commercial Nb
processes. Furthermore, the network's flexibility enables modifications by
incorporating cryo-CMOS circuits for weight value adjustments. In our endeavor,
we have successfully designed, fabricated, and partially tested the JJ-Synapse
within our cryocooler system. Integration with the JJ-Soma further facilitates
the realization of a high-speed inference SNN.
- Abstract(参考訳): ニューラルネットワークとニューロモルフィックコンピューティングは、ディープラーニングと機械学習において重要な役割を果たす。
その散逸性の性質と固有の制限のため、従来の半導体ベースの回路は超高速で低消費電力のニューラルネットワークを実現する上で困難に直面している。
しかし、単一磁束量子(SFQ)回路のスパイク特性は、これらをスパイクニューラルネットワーク(SNN)の候補として位置づけている。
以前の研究では、従来の回路に比べて消費電力のほんの一部しか消費せず、数十ギガヘルツで動作可能なjj-soma設計を示しました[1]。
本稿では, JJ-Soma に対して正および負の重み付き入力を適用可能なコンパクトな SFQ ベースのシナプス設計を提案する。
RSFQシナプスを使用することで、完全なSNNを実現するための重要なステップである生物学的ニューロンの機能の複製が可能になる。
JJ-Synapseは超高周波数で動作でき、CMOSよりも消費電力が大幅に小さく、商用Nbプロセスで便利に製造できる。
さらに,ネットワークの柔軟性により,cryo-cmos回路を組み込んだ重み値調整による修正が可能となった。
我々の試みでは、クライオクーラーシステム内でjj-synapseの設計、製造、部分的にテストに成功しました。
JJ-Somaとの統合により、高速推論SNNの実現がさらに促進される。
関連論文リスト
- Exploiting Heterogeneity in Timescales for Sparse Recurrent Spiking Neural Networks for Energy-Efficient Edge Computing [16.60622265961373]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックコンピューティングの最前線である。
本稿では,SNNのパフォーマンスに革命をもたらす3つの画期的な研究をまとめる。
論文 参考訳(メタデータ) (2024-07-08T23:33:12Z) - Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Scalable Superconductor Neuron with Ternary Synaptic Connections for
Ultra-Fast SNN Hardware [4.216765320139095]
超高性能スパイキングニューラルネットワーク(SNN)加速器のための新しい高ファンイン微分超伝導体ニューロン構造を設計する。
提案したニューロン設計は超伝導エレクトロニクスファブリックに基づいており、それぞれ2つのジョセフソン接合を持つ複数の超伝導ループが組み込まれている。
ネットワークのスループットは8.92GHzで、1回の推論で1.5nJしか消費せず、冷却に伴うエネルギー消費量は4Kである。
論文 参考訳(メタデータ) (2024-02-26T08:10:14Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Efficient and quantum-adaptive machine learning with fermion neural
networks [8.537841858846082]
入力が初期層として組み込まれると、物理特性が出力として機能するフェルミオンニューラルネットワーク(FNN)を提案する。
我々は、FNNに挑戦する機械学習ベンチマークの競合性能を付与する効率的な最適化を確立する。
論文 参考訳(メタデータ) (2022-11-10T19:00:02Z) - A Resource-efficient Spiking Neural Network Accelerator Supporting
Emerging Neural Encoding [6.047137174639418]
スパイキングニューラルネットワーク(SNN)は、その低消費電力乗算自由コンピューティングにより、最近勢いを増している。
SNNは、大規模なモデルのための人工知能ニューラルネットワーク(ANN)と同様の精度に達するために、非常に長いスパイク列車(1000台まで)を必要とする。
ニューラルエンコーディングでSNNを効率的にサポートできる新しいハードウェアアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-06-06T10:56:25Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Flexible Transmitter Network [84.90891046882213]
現在のニューラルネットワークはMPモデルに基づいて構築されており、通常はニューロンを他のニューロンから受信した信号の実際の重み付け集約上での活性化関数の実行として定式化する。
本稿では,フレキシブル・トランスミッタ(FT)モデルを提案する。
本稿では、最も一般的な完全接続型フィードフォワードアーキテクチャ上に構築された、フレキシブルトランスミッタネットワーク(FTNet)について述べる。
論文 参考訳(メタデータ) (2020-04-08T06:55:12Z) - LogicNets: Co-Designed Neural Networks and Circuits for
Extreme-Throughput Applications [6.9276012494882835]
本稿では,高効率FPGA実装に直接マップするニューラルネットワークトポロジを設計する新しい手法を提案する。
その結果,低ビット化と疎結合化の両立により,論理深度が小さく,LUTコストが低い高速回路が実現された。
論文 参考訳(メタデータ) (2020-04-06T22:15:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。