論文の概要: Neuronal architecture extracts statistical temporal patterns
- arxiv url: http://arxiv.org/abs/2301.10203v1
- Date: Tue, 24 Jan 2023 18:21:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-25 12:39:28.483935
- Title: Neuronal architecture extracts statistical temporal patterns
- Title(参考訳): 統計的時間パターンを抽出する神経構造
- Authors: Sandra Nestler, Moritz Helias and Matthieu Gilson
- Abstract要約: 情報表現や処理に高次時間的(コ-)ゆらぎをいかに利用できるかを示す。
単純な生物学的にインスパイアされたフィードフォワードニューロンモデルでは、時系列分類を行うために3階までの累積から情報を抽出することができる。
- 参考スコア(独自算出の注目度): 1.9662978733004601
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neuronal systems need to process temporal signals. We here show how
higher-order temporal (co-)fluctuations can be employed to represent and
process information. Concretely, we demonstrate that a simple biologically
inspired feedforward neuronal model is able to extract information from up to
the third order cumulant to perform time series classification. This model
relies on a weighted linear summation of synaptic inputs followed by a
nonlinear gain function. Training both - the synaptic weights and the nonlinear
gain function - exposes how the non-linearity allows for the transfer of higher
order correlations to the mean, which in turn enables the synergistic use of
information encoded in multiple cumulants to maximize the classification
accuracy. The approach is demonstrated both on a synthetic and on real world
datasets of multivariate time series. Moreover, we show that the biologically
inspired architecture makes better use of the number of trainable parameters as
compared to a classical machine-learning scheme. Our findings emphasize the
benefit of biological neuronal architectures, paired with dedicated learning
algorithms, for the processing of information embedded in higher-order
statistical cumulants of temporal (co-)fluctuations.
- Abstract(参考訳): 神経系は時間的信号を処理する必要がある。
ここでは、情報表現や処理に高次時間的(コ-)ゆらぎを用いる方法を示す。
具体的には,単純で生物学的にインスパイアされたフィードフォワードニューロンモデルを用いて,3次累積体から情報を抽出し,時系列分類を行うことを実証する。
このモデルは、非線形ゲイン関数に続くシナプス入力の重み付き線形和に依存する。
シナプス重みと非線形利得関数の両方を訓練することで、非線形性が平均に高次相関を移すことを可能にし、その結果、複数の累積体にエンコードされた情報を相乗的に使用することで分類精度を最大化することができる。
このアプローチは多変量時系列の合成および実世界のデータセット上で実証される。
さらに,生物にインスパイアされたアーキテクチャは,従来の機械学習手法と比較して,トレーニング可能なパラメータの数をより多く活用できることを示す。
本研究は,時間的変動の高次統計累積に埋め込まれた情報処理のための,専用学習アルゴリズムと組み合わせた生体神経アーキテクチャの利点を強調した。
関連論文リスト
- Deep Learning for real-time neural decoding of grasp [0.0]
本稿では,ニューラルネットワークの復号化のためのDeep Learningに基づく手法を提案する。
提案手法の主な目的は、これまでの神経科学知識に頼ることなく、最先端の復号精度を改善することである。
論文 参考訳(メタデータ) (2023-11-02T08:26:29Z) - Neural Koopman prior for data assimilation [7.875955593012905]
ニューラルネットワークアーキテクチャを使って、潜在空間に動的システムを埋め込む。
本研究では,このようなモデルを長期の継続的再構築のために訓練する手法を提案する。
また,変動データ同化手法の先行として,訓練された動的モデルの有望な利用を示すとともに,自己教師型学習の可能性も示された。
論文 参考訳(メタデータ) (2023-09-11T09:04:36Z) - On the Trade-off Between Efficiency and Precision of Neural Abstraction [62.046646433536104]
ニューラル抽象化は、最近、複雑な非線形力学モデルの形式近似として導入されている。
我々は形式的帰納的合成法を用いて、これらのセマンティクスを用いた動的モデルをもたらすニューラル抽象化を生成する。
論文 参考訳(メタデータ) (2023-07-28T13:22:32Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - Impact of spiking neurons leakages and network recurrences on
event-based spatio-temporal pattern recognition [0.0]
ニューロモルフィックハードウェアとイベントベースのセンサーを組み合わせたスパイクニューラルネットワークは、エッジにおける低レイテンシと低パワー推論への関心が高まっている。
スパイキングニューロンにおけるシナプスおよび膜漏れの影響について検討する。
論文 参考訳(メタデータ) (2022-11-14T21:34:02Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Leveraging the structure of dynamical systems for data-driven modeling [111.45324708884813]
トレーニングセットとその構造が長期予測の品質に与える影響を考察する。
トレーニングセットのインフォームドデザインは,システムの不変性と基盤となるアトラクションの構造に基づいて,結果のモデルを大幅に改善することを示す。
論文 参考訳(メタデータ) (2021-12-15T20:09:20Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Dynamic Adaptive Spatio-temporal Graph Convolution for fMRI Modelling [0.0]
本稿では,動的適応時間グラフ畳み込み(DASTGCN)モデルを提案する。
提案手法により,レイヤワイドグラフ構造学習モジュールによる脳領域間の動的接続のエンドツーエンド推論が可能となる。
我々は,安静時機能スキャンを用いて,英国ビオバンクのパイプラインを年齢・性別分類タスクとして評価した。
論文 参考訳(メタデータ) (2021-09-26T07:19:47Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z) - Efficient Inference of Flexible Interaction in Spiking-neuron Networks [41.83710212492543]
非線形ホークス法を用いて、ニューロン間の興奮的または抑制的な相互作用をモデル化する。
提案アルゴリズムは, 相互作用の時間的ダイナミクスを推定し, ニューラルスパイク列の根底にある機能的接続を明らかにする。
論文 参考訳(メタデータ) (2020-06-23T09:10:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。