論文の概要: A complete, parallel and autonomous photonic neural network in a
semiconductor multimode laser
- arxiv url: http://arxiv.org/abs/2012.11153v1
- Date: Mon, 21 Dec 2020 07:03:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-29 09:21:29.627648
- Title: A complete, parallel and autonomous photonic neural network in a
semiconductor multimode laser
- Title(参考訳): 半導体マルチモードレーザーにおける完全かつ並列かつ自律的なフォトニックニューラルネットワーク
- Authors: Xavier Porte, Anas Skalli, Nasibeh Haghighi, Stephan Reitzenstein,
James A. Lott, Daniel Brunner
- Abstract要約: 本稿では,効率良く高速な半導体レーザの空間分布モードを用いて,完全並列かつ完全に実装されたフォトニックニューラルネットワークを実現する方法を示す。
重要なことは、すべてのニューラルネットワーク接続はハードウェアで実現され、プロセッサは前処理または後処理なしで結果を生成します。
読み出し重みを訓練して、2ビットヘッダ認識、2ビットXOR、2ビットデジタルアナログ変換を行い、0.9-103と2.9 10-2の誤り率をそれぞれ取得する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks are one of the disruptive computing concepts of our time.
However, they fundamentally differ from classical, algorithmic computing in a
number of fundamental aspects. These differences result in equally fundamental,
severe and relevant challenges for neural network computing using current
computing substrates. Neural networks urge for parallelism across the entire
processor and for a co-location of memory and arithmetic, i.e. beyond von
Neumann architectures. Parallelism in particular made photonics a highly
promising platform, yet until now scalable and integratable concepts are
scarce. Here, we demonstrate for the first time how a fully parallel and fully
implemented photonic neural network can be realized using spatially distributed
modes of an efficient and fast semiconductor laser. Importantly, all neural
network connections are realized in hardware, and our processor produces
results without pre- or post-processing. 130+ nodes are implemented in a
large-area vertical cavity surface emitting laser, input and output weights are
realized via the complex transmission matrix of a multimode fiber and a digital
micro-mirror array, respectively. We train the readout weights to perform 2-bit
header recognition, a 2-bit XOR and 2-bit digital analog conversion, and obtain
< 0.9 10^-3 and 2.9 10^-2 error rates for digit recognition and XOR,
respectively. Finally, the digital analog conversion can be realized with a
standard deviation of only 5.4 10^-2. Our system is scalable to much larger
sizes and to bandwidths in excess of 20 GHz.
- Abstract(参考訳): ニューラルネットワークは、私たちの時代の破壊的なコンピューティング概念の1つです。
しかし、これらは古典的なアルゴリズムコンピューティングとは、多くの基本的な側面において根本的に異なる。
これらの違いは、現在のコンピューティング基盤を用いたニューラルネットワークコンピューティングにおいて、等しく基本的な、重大で関連する課題をもたらす。
ニューラルネットワークはプロセッサ全体にわたって並列性を求め、メモリと算術の同時配置を求める。
ノイマン建築以外のもの
特に並列性はフォトニクスを非常に有望なプラットフォームとしたが、これまではスケーラブルで統合可能な概念は乏しい。
本稿では,高効率かつ高速な半導体レーザの空間分散モードを用いて,完全並列で完全に実装されたフォトニックニューラルネットワークをいかに実現できるかを初めて示す。
重要なのは、すべてのニューラルネットワーク接続がハードウェアで実現され、プロセッサが前処理や後処理なしで結果を生成することです。
130以上のノードを大面積の垂直キャビティ面発光レーザに実装し、多モードファイバの複合伝送行列とデジタルマイクロミラーアレイを介して入力および出力重みをそれぞれ実現した。
読み出し重みを2ビットヘッダ認識,2ビットxor,2ビットディジタルアナログ変換に訓練し,それぞれ<0.910^-3と2.910^-2の誤り率を得た。
最後に、デジタルアナログ変換は5.410^-2の標準偏差で実現できる。
我々のシステムは、非常に大きなサイズと20GHzを超える帯域幅にスケーラブルです。
関連論文リスト
- Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングでは、スパイクニューラルネットワーク(SNN)が推論タスクを実行し、シーケンシャルデータを含むワークロードの大幅な効率向上を提供する。
ハードウェアとソフトウェアの最近の進歩は、スパイクニューロン間で交換された各スパイクに数ビットのペイロードを埋め込むことにより、推論精度をさらに高めることを示した。
本稿では,マルチレベルSNNを用いた無線ニューロモルフィック分割計算アーキテクチャについて検討する。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - RF-Photonic Deep Learning Processor with Shannon-Limited Data Movement [0.0]
光ニューラルネットワーク(ONN)は、超低レイテンシとエネルギー消費を持つ有望な加速器である。
我々は、周波数領域のデータを符号化する乗法的アナログ周波数変換ONN(MAFT-ONN)を導入する。
我々は、生のRF信号で完全にアナログのディープラーニングを演算する最初のハードウェアアクセラレータを実験的に実証した。
論文 参考訳(メタデータ) (2022-07-08T16:37:13Z) - Single-Shot Optical Neural Network [55.41644538483948]
深層ニューラルネットワークに必要な計算資源を削減するために,「重定常」アナログ光学・電子ハードウェアが提案されている。
我々は、スケーラブルで1層当たり単発の重み付き光学プロセッサを提案する。
論文 参考訳(メタデータ) (2022-05-18T17:49:49Z) - Instant Neural Graphics Primitives with a Multiresolution Hash Encoding [67.33850633281803]
品質を犠牲にすることなく、より小さなネットワークを使用できる汎用的な新しい入力符号化を提案する。
小さなニューラルネットワークは、勾配降下によって値が最適化された訓練可能な特徴ベクトルの多分解能ハッシュテーブルによって拡張される。
数桁の高速化を実現し、高品質なニューラルネットワークプリミティブを数秒でトレーニングすることができる。
論文 参考訳(メタデータ) (2022-01-16T07:22:47Z) - Monolithic Silicon Photonic Architecture for Training Deep Neural
Networks with Direct Feedback Alignment [0.6501025489527172]
CMOS互換シリコンフォトニックアーキテクチャによって実現されたニューラルネットワークのオンチップトレーニングを提案する。
提案手法では,エラーのバックプロパゲーションではなく,エラーフィードバックを用いてニューラルネットワークをトレーニングする,直接フィードバックアライメントトレーニングアルゴリズムを用いる。
オンチップMAC演算結果を用いて,MNISTデータセットを用いたディープニューラルネットワークのトレーニング実験を行った。
論文 参考訳(メタデータ) (2021-11-12T18:31:51Z) - Parallel Simulation of Quantum Networks with Distributed Quantum State
Management [56.24769206561207]
我々は、量子ネットワークの並列シミュレーションの要件を特定し、最初の並列離散事象量子ネットワークシミュレータを開発する。
コントリビューションには、複数のプロセスに分散した共有量子情報を維持する量子状態マネージャの設計と開発が含まれています。
既存のシーケンシャルバージョンと並行してオープンソースツールとして,並列SeQUeNCeシミュレータをリリースする。
論文 参考訳(メタデータ) (2021-11-06T16:51:17Z) - BEANNA: A Binary-Enabled Architecture for Neural Network Acceleration [0.0]
本稿では,浮動小数点層とバイナリネットワーク層の両方を処理可能なニューラルネットワークハードウェアアクセラレータを提案し,評価する。
BEANNAは100MHzのクロック速度で動作し、ピークスループットは52.8ギガOps/秒である。
論文 参考訳(メタデータ) (2021-08-04T23:17:34Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Inference with Artificial Neural Networks on Analog Neuromorphic
Hardware [0.0]
BrainScaleS-2 ASICは混合信号ニューロンとシナプス回路から構成される。
システムは、人工ニューラルネットワークのベクトル行列乗算と累積モードでも動作する。
論文 参考訳(メタデータ) (2020-06-23T17:25:06Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。