論文の概要: Neural Computing with Coherent Laser Networks
- arxiv url: http://arxiv.org/abs/2204.02224v1
- Date: Tue, 5 Apr 2022 13:56:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-06 17:29:50.700744
- Title: Neural Computing with Coherent Laser Networks
- Title(参考訳): コヒーレントレーザーネットワークを用いたニューラルコンピューティング
- Authors: Mohammad-Ali Miri, and Vinod Menon
- Abstract要約: レーザーのコヒーレントなネットワークは、創発的なニューラルコンピューティング能力を示すことを示す。
新たなエネルギーベースのリカレントニューラルネットワークは、ホップフィールドネットワークやボルツマンマシンとは対照的に、連続したデータを処理している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We show that a coherent network of lasers exhibits emergent neural computing
capabilities. The proposed scheme is built on harnessing the collective
behavior of laser networks for storing a number of phase patterns as stable
fixed points of the governing dynamical equations and retrieving such patterns
through proper excitation conditions, thus exhibiting an associative memory
property. The associative memory functionality is first discussed in the strong
pumping regime of a network of passive dissipatively coupled lasers which
simulate the classical XY model. It is discussed that despite the large storage
capacity of the network, the large overlap between fixed-point patterns
effectively limits pattern retrieval to only two images. Next, we show that
this restriction can be uplifted by using nonreciprocal coupling between lasers
and this allows for utilizing a large storage capacity. This work opens new
possibilities for neural computation with coherent laser networks as novel
analog processors. In addition, the underlying dynamical model discussed here
suggests a novel energy-based recurrent neural network that handles continuous
data as opposed to Hopfield networks and Boltzmann machines which are
intrinsically binary systems.
- Abstract(参考訳): レーザーのコヒーレントなネットワークは、創発的なニューラルコンピューティング能力を示す。
提案手法は,複数の位相パターンを安定な動的方程式の固定点として保存し,適切な励起条件でそれらのパターンを検索し,連想記憶特性を示すためのレーザネットワークの集合的挙動を利用する。
連想記憶機能は、古典的XYモデルをシミュレートするパッシブ散逸結合レーザーのネットワークの強いポンプ機構で最初に議論される。
ネットワークの容量が大きいにもかかわらず,固定点パターン間の重なりが大きいため,2つの画像のみのパターン検索が効果的に制限される。
次に,レーザ間の非相互結合を用いることで,この制限を引き上げることが可能であることを示す。
この研究は、新しいアナログプロセッサとしてコヒーレントレーザーネットワークを用いたニューラル計算の新しい可能性を開く。
さらに、ここで議論されている動的モデルは、本質的に二元系であるホップフィールドネットワークやボルツマンマシンとは対照的に、連続データを扱う新しいエネルギーベースのリカレントニューラルネットワークを提案する。
関連論文リスト
- Dense Associative Memory Through the Lens of Random Features [48.17520168244209]
Dense Associative Memoriesはホップフィールドネットワークの高容量版である。
このネットワークは,従来のDense Associative Memoriesのエネルギー関数と力学を密接に近似していることを示す。
論文 参考訳(メタデータ) (2024-10-31T17:10:57Z) - Explosive neural networks via higher-order interactions in curved statistical manifolds [43.496401697112695]
我々は、高次現象を研究するためのプロトタイプモデルのクラスとして、曲面ニューラルネットワークを紹介した。
これらの曲線ニューラルネットワークは、メモリ検索を高速化する自己制御プロセスを実装している。
論文 参考訳(メタデータ) (2024-08-05T09:10:29Z) - Approximating nonlinear functions with latent boundaries in low-rank
excitatory-inhibitory spiking networks [5.955727366271805]
スパイクに基づく興奮抑制スパイクネットワークのための新しいフレームワークを考案した。
本研究は,生体スパイクに基づく計算の力学的理解の出発点となるスパイクネットワークの新しい視点を提案する。
論文 参考訳(メタデータ) (2023-07-18T15:17:00Z) - Long Sequence Hopfield Memory [32.28395813801847]
シーケンスメモリは、エージェントが複雑な刺激や行動のシーケンスをエンコードし、保存し、取り出すことを可能にする。
非線形相互作用項を導入し、パターン間の分離を強化する。
このモデルを拡張して、状態遷移間の変動タイミングでシーケンスを格納する。
論文 参考訳(メタデータ) (2023-06-07T15:41:03Z) - Exploring the Approximation Capabilities of Multiplicative Neural
Networks for Smooth Functions [9.936974568429173]
対象関数のクラスは、一般化帯域制限関数とソボレフ型球である。
以上の結果から、乗法ニューラルネットワークは、これらの関数をはるかに少ない層とニューロンで近似できることを示した。
これらの結果は、乗法ゲートが標準フィードフォワード層より優れ、ニューラルネットワーク設計を改善する可能性があることを示唆している。
論文 参考訳(メタデータ) (2023-01-11T17:57:33Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Kernel Memory Networks: A Unifying Framework for Memory Modeling [9.142894972380216]
我々は、ニューラルネットワークをトレーニングして、最大ノイズロバスト性を持つパターンの集合を格納する問題を考察する。
解は、各ニューロンにカーネル分類または最小重量ノルムの実行を訓練することで導出される。
我々は、カーネルメモリネットワークと呼ばれる最適なモデル、特に、異種および自己連想型メモリモデルの多くを含むものを導出する。
論文 参考訳(メタデータ) (2022-08-19T16:01:09Z) - Cross-Frequency Coupling Increases Memory Capacity in Oscillatory Neural
Networks [69.42260428921436]
クロス周波数カップリング(CFC)は、ニューロンの集団間での情報統合と関連している。
我々は,海馬および大脳皮質における観測された$theta - gamma$振動回路の計算的役割を予測するCFCのモデルを構築した。
CFCの存在は, 可塑性シナプスによって結合された神経細胞のメモリ容量を増加させることを示す。
論文 参考訳(メタデータ) (2022-04-05T17:13:36Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - Training End-to-End Analog Neural Networks with Equilibrium Propagation [64.0476282000118]
本稿では,勾配降下による終端から終端までのアナログニューラルネットワークの学習法を提案する。
数学的には、アナログニューラルネットワークのクラス(非線形抵抗性ネットワークと呼ばれる)がエネルギーベースモデルであることが示される。
我々の研究は、オンチップ学習をサポートする、超高速でコンパクトで低消費電力のニューラルネットワークの新世代の開発を導くことができる。
論文 参考訳(メタデータ) (2020-06-02T23:38:35Z) - Flexible Transmitter Network [84.90891046882213]
現在のニューラルネットワークはMPモデルに基づいて構築されており、通常はニューロンを他のニューロンから受信した信号の実際の重み付け集約上での活性化関数の実行として定式化する。
本稿では,フレキシブル・トランスミッタ(FT)モデルを提案する。
本稿では、最も一般的な完全接続型フィードフォワードアーキテクチャ上に構築された、フレキシブルトランスミッタネットワーク(FTNet)について述べる。
論文 参考訳(メタデータ) (2020-04-08T06:55:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。