論文の概要: An exact mathematical description of computation with transient
spatiotemporal dynamics in a complex-valued neural network
- arxiv url: http://arxiv.org/abs/2311.16431v1
- Date: Tue, 28 Nov 2023 02:23:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 20:38:43.619273
- Title: An exact mathematical description of computation with transient
spatiotemporal dynamics in a complex-valued neural network
- Title(参考訳): 複素値ニューラルネットワークにおける過渡時空間ダイナミクスを用いた計算の厳密な数学的記述
- Authors: Roberto C. Budzinski, Alexandra N. Busch, Samuel Mestern, Erwan
Martin, Luisa H. B. Liboni, Federico W. Pasini, J\'an Min\'a\v{c}, Todd
Coleman, Wataru Inoue, Lyle E. Muller
- Abstract要約: 線形時間遅延相互作用を持つ複素数値ニューラルネットワーク(-NN)について検討する。
cv-NNは、部分的に同期したキメラ適応状態を含む洗練されたダイナミクスを表示する。
我々は,生体ニューロンによってcv-NN計算の計算が可能であることが実証された。
- 参考スコア(独自算出の注目度): 33.7054351451505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study a complex-valued neural network (cv-NN) with linear, time-delayed
interactions. We report the cv-NN displays sophisticated spatiotemporal
dynamics, including partially synchronized ``chimera'' states. We then use
these spatiotemporal dynamics, in combination with a nonlinear readout, for
computation. The cv-NN can instantiate dynamics-based logic gates, encode
short-term memories, and mediate secure message passing through a combination
of interactions and time delays. The computations in this system can be fully
described in an exact, closed-form mathematical expression. Finally, using
direct intracellular recordings of neurons in slices from neocortex, we
demonstrate that computations in the cv-NN are decodable by living biological
neurons. These results demonstrate that complex-valued linear systems can
perform sophisticated computations, while also being exactly solvable. Taken
together, these results open future avenues for design of highly adaptable,
bio-hybrid computing systems that can interface seamlessly with other neural
networks.
- Abstract(参考訳): 線形時間遅延相互作用を持つ複素値ニューラルネットワーク(cv-nn)について検討した。
cv-nnは,'chimera'状態の部分同期を含む,洗練された時空間ダイナミクスを示す。
次に、これらの時空間力学と非線形読み出しを併用して計算を行う。
cv-NNは動的論理ゲートをインスタンス化し、短期記憶を符号化し、対話と時間遅延を組み合わせたセキュアなメッセージパッシングを仲介する。
このシステムの計算は、正確に閉形式の数学的表現で完全に記述することができる。
最後に、新皮質からスライスした神経細胞の直接細胞内記録を用いて、生体神経細胞によるcv-NNの計算が可能であることを実証した。
これらの結果は、複雑な値の線形系が洗練された計算を行いながら、正確に解けることを示した。
まとめると、これらの結果は、他のニューラルネットワークとシームレスに対話できる高度に適応可能なバイオハイブリッドコンピューティングシステムの設計のための将来の道を開く。
関連論文リスト
- On the Computational Complexities of Complex-valued Neural Networks [0.0]
複素数値ニューラルネットワーク(CVNN)は、複素領域データのデジタル信号処理に使用される非線形フィルタである。
本稿では,CVNNの量的および計算的複雑さについて述べる。
論文 参考訳(メタデータ) (2023-10-19T18:14:04Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive
Phenomenological Neuron Model Can Solve Long-Horizon Tasks [34.00839616915719]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Leaky Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力出力関係を10分の1以下のトレーニング可能なパラメータと正確に一致させることができる。
本研究では,Long Range Arenaデータセットなど,時間構造を必要とするタスクについて評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Biological neurons act as generalization filters in reservoir computing [0.0]
貯留層計算(Reservoir computing)は、時系列データを処理するための高次元非線形システムの過渡ダイナミクスを変換する機械学習パラダイムである。
ここでは、オプトジェネティクスと蛍光カルシウムイメージングを用いて、培養生体神経ネットワーク(BNN)の多細胞応答を記録する。
線形デコーダを用いて静的な入力パターンの分類にモジュールBNNを用いることができ、BNNのモジュラリティは分類精度と正に相関することを示す。
論文 参考訳(メタデータ) (2022-10-06T13:32:26Z) - POPPINS : A Population-Based Digital Spiking Neuromorphic Processor with
Integer Quadratic Integrate-and-Fire Neurons [50.591267188664666]
2つの階層構造を持つ180nmプロセス技術において,集団に基づくディジタルスパイキングニューロモルフィックプロセッサを提案する。
提案手法は,生体模倣型ニューロモルフィックシステム,低消費電力,低遅延推論処理アプリケーションの開発を可能にする。
論文 参考訳(メタデータ) (2022-01-19T09:26:34Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Neuromorphic Algorithm-hardware Codesign for Temporal Pattern Learning [11.781094547718595]
複雑な空間時間パターンを学習するためにSNNを訓練できるLeaky IntegrateとFireニューロンの効率的なトレーニングアルゴリズムを導出する。
我々は,ニューロンとシナプスのメムリスタに基づくネットワークのためのCMOS回路実装を開発した。
論文 参考訳(メタデータ) (2021-04-21T18:23:31Z) - Nonlinear computations in spiking neural networks through multiplicative
synapses [3.1498833540989413]
非線形計算は、スパイクニューラルネットワークでうまく実装できる。
これは教師付きトレーニングを必要とし、その結果の接続性は解釈が難しい。
いくつかの非線形力学系において, 必要な接続性を直接導出する方法を示す。
論文 参考訳(メタデータ) (2020-09-08T16:47:27Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。