論文の概要: Continuous-Time Neural Networks Can Stably Memorize Random Spike Trains
- arxiv url: http://arxiv.org/abs/2408.01166v1
- Date: Fri, 2 Aug 2024 10:33:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-05 13:47:29.374550
- Title: Continuous-Time Neural Networks Can Stably Memorize Random Spike Trains
- Title(参考訳): 連続時間ニューラルネットワークは、ランダムスパイク列車を安定的に記憶できる
- Authors: Hugo Aguettaz, Hans-Andrea Loeliger,
- Abstract要約: 連続時間リカレントニューラルネットワークは、スパイクパターンを正確に保存し、リコールすることができることを示す。
あるパラメータの範囲内では、スパイク列車の任意のランダムスコアは、頑健に記憶され、自律的に再生することができる。
- 参考スコア(独自算出の注目度): 8.99315381791428
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The paper explores the capability of continuous-time recurrent neural networks to store and recall precisely timed spike patterns. We show (by numerical experiments) that this is indeed possible: within some range of parameters, any random score of spike trains (for all neurons in the network) can be robustly memorized and autonomously reproduced with stable accurate relative timing of all spikes, with probability close to one. We also demonstrate associative recall under noisy conditions. In these experiments, the required synaptic weights are computed offline, to satisfy a template that encourages temporal stability.
- Abstract(参考訳): 本稿では,連続時間リカレントニューラルネットワークによるスパイクパターンの保存とリコール能力について検討する。
ある種のパラメータにおいて、スパイク列(ネットワーク内のすべてのニューロン)のランダムスコアは、全てのスパイクの安定した正確な相対時間で頑健に記憶され、自律的に再生され、確率は1に近い。
また,ノイズ条件下での連想的リコールも示す。
これらの実験では、必要なシナプス重みはオフラインで計算され、時間的安定性を促進するテンプレートを満たす。
関連論文リスト
- ELiSe: Efficient Learning of Sequences in Structured Recurrent Networks [1.5931140598271163]
局所的な常時オンおよび位相自由可塑性のみを用いて,効率的な学習シーケンスのモデルを構築した。
鳥の鳴き声学習のモックアップでELiSeの能力を実証し、パラメトリゼーションに関してその柔軟性を実証する。
論文 参考訳(メタデータ) (2024-02-26T17:30:34Z) - Long Short-term Memory with Two-Compartment Spiking Neuron [64.02161577259426]
LSTM-LIFとよばれる,生物学的にインスパイアされたLong Short-Term Memory Leaky Integrate-and-Fireのスパイキングニューロンモデルを提案する。
実験結果は,時間的分類タスクの多種多様な範囲において,優れた時間的分類能力,迅速な訓練収束,ネットワークの一般化性,LSTM-LIFモデルの高エネルギー化を実証した。
したがって、この研究は、新しいニューロモルフィック・コンピューティング・マシンにおいて、困難な時間的処理タスクを解決するための、無数の機会を開放する。
論文 参考訳(メタデータ) (2023-07-14T08:51:03Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Universal Time-Uniform Trajectory Approximation for Random Dynamical
Systems with Recurrent Neural Networks [0.7614628596146599]
無限の時間的地平線上のランダムな軌道は、特定の種類の深い再帰ニューラルネットワークによって、一様に、任意の所望の精度に近似することができることを示す。
ここで必要なモデル条件は自然で、穏やかで、テストが簡単で、証明は非常に簡単です。
論文 参考訳(メタデータ) (2022-11-15T10:03:45Z) - Deep Impulse Responses: Estimating and Parameterizing Filters with Deep
Networks [76.830358429947]
高雑音および地中設定におけるインパルス応答推定は難しい問題である。
本稿では,ニューラル表現学習の最近の進歩に基づいて,インパルス応答のパラメータ化と推定を行う新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T18:57:23Z) - Data-Driven Time Propagation of Quantum Systems with Neural Networks [0.0]
時間内に量子システムを伝播する教師あり機械学習の可能性について検討する。
ニューラルネットワークは、将来いつでもタイムプロパゲータとして機能し、自動回帰を形成する時間内に寝ることを示します。
論文 参考訳(メタデータ) (2022-01-27T17:08:30Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z) - Point process models for sequence detection in high-dimensional neural
spike trains [29.073129195368235]
本研究では,個々のスパイクレベルにおける微細なシーケンスを特徴付ける点過程モデルを開発する。
この超スパースなシーケンスイベント表現は、スパイクトレインモデリングの新しい可能性を開く。
論文 参考訳(メタデータ) (2020-10-10T02:21:44Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - Coarse scale representation of spiking neural networks: backpropagation
through spikes and application to neuromorphic hardware [0.0]
絶対屈折時間に等しい時間スケールで作動する漏洩積分と発火ニューロンの繰り返し表現について検討する。
繰り返しモデルでは,訓練中に4本のスパイク列車のみを用いて,高い分類精度が得られることがわかった。
我々はまた、漏れやすい統合と発火ニューロンの継続的な実装への良い回帰も観察した。
論文 参考訳(メタデータ) (2020-07-13T04:02:35Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。