論文の概要: Adapting to time: why nature evolved a diverse set of neurons
- arxiv url: http://arxiv.org/abs/2404.14325v2
- Date: Tue, 21 May 2024 11:53:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-22 18:02:40.405776
- Title: Adapting to time: why nature evolved a diverse set of neurons
- Title(参考訳): 時間に適応する:なぜ自然は多様なニューロン群を進化させたのか
- Authors: Karim G. Habashy, Benjamin D. Evans, Dan F. M. Goodman, Jeffrey S. Bowers,
- Abstract要約: 我々は時間的スパイクの複雑さをニューラルネットワークでトレーニングし、パラメータの異なるサブセットを一定に保持する。
厳密な資源制約のある環境では、すべてのテスト条件を解決するために導電遅延を適用することが不可欠である。
私たちが研究した最も複雑な時間的タスクでは、適応可能なバーストパラメータが不可欠であることが分かりました。
- 参考スコア(独自算出の注目度): 5.024813922014977
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Brains have evolved a diverse set of neurons with varying morphologies, physiological properties and rich dynamics that impact their processing of temporal information. By contrast, most neural network models include a homogeneous set of units that only vary in terms of their spatial parameters (weights and biases). To investigate the importance of temporal parameters to neural function, we trained spiking neural networks on tasks of varying temporal complexity, with different subsets of parameters held constant. We find that in a tightly resource constrained setting, adapting conduction delays is essential to solve all test conditions, and indeed that it is possible to solve these tasks using only temporal parameters (delays and time constants) with weights held constant. In the most complex spatio-temporal task we studied, we found that an adaptable bursting parameter was essential. More generally, allowing for adaptation of both temporal and spatial parameters increases network robustness to noise, an important feature for both biological brains and neuromorphic computing systems. In summary, our findings highlight how rich and adaptable dynamics are key to solving temporally structured tasks at a low neural resource cost, which may be part of the reason why biological neurons vary so dramatically in their physiological properties.
- Abstract(参考訳): 脳は、時間情報の処理に影響を及ぼす様々な形態、生理的特性、豊かなダイナミクスを持つ多様なニューロン群を進化させてきた。
対照的に、ほとんどのニューラルネットワークモデルは、空間的パラメータ(重みと偏り)の点でのみ異なる均一な単位の集合を含んでいる。
神経機能に対する時間的パラメータの重要性を調べるために,パラメータのサブセットが一定に保たれた時間的複雑性のタスクに対して,スパイクニューラルネットワークを訓練した。
厳密なリソース制約のある環境では、全てのテスト条件を解くために導電遅延を適用することが不可欠であり、実際、重みを一定に保った時間パラメータ(遅延と時間定数)のみを用いてこれらのタスクを解くことができる。
私たちが研究した最も複雑な時空間的タスクでは、適応可能なバーストパラメータが不可欠であることが分かりました。
より一般的には、時間的パラメータと空間的パラメータの両方を適応させることは、生物学的脳とニューロモルフィックコンピューティングシステムの両方にとって重要な特徴であるノイズに対するネットワークロバスト性を高める。
まとめると、我々の研究は、ニューラルネットワークのコストが低くて時間的に構造化されたタスクを解く上で、リッチで適応可能なダイナミクスがいかに重要であるかを強調した。
関連論文リスト
- Backpropagation through space, time, and the brain [2.10686639478348]
我々は、ニューロンの物理的、動的ネットワークにおける完全局所的時間的クレジット割り当てのための計算フレームワークであるGeneral Latent Equilibriumを紹介する。
特に、GLEは樹状樹の形態を利用して、単一ニューロンのより複雑な情報保存と処理を可能にしている。
論文 参考訳(メタデータ) (2024-03-25T16:57:02Z) - Astrocytes as a mechanism for meta-plasticity and contextually-guided
network function [2.66269503676104]
アストロサイトは、ユビキタスでエニグマティックな非神経細胞である。
アストロサイトは脳機能や神経計算においてより直接的で活発な役割を果たす。
論文 参考訳(メタデータ) (2023-11-06T20:31:01Z) - Long Short-term Memory with Two-Compartment Spiking Neuron [64.02161577259426]
LSTM-LIFとよばれる,生物学的にインスパイアされたLong Short-Term Memory Leaky Integrate-and-Fireのスパイキングニューロンモデルを提案する。
実験結果は,時間的分類タスクの多種多様な範囲において,優れた時間的分類能力,迅速な訓練収束,ネットワークの一般化性,LSTM-LIFモデルの高エネルギー化を実証した。
したがって、この研究は、新しいニューロモルフィック・コンピューティング・マシンにおいて、困難な時間的処理タスクを解決するための、無数の機会を開放する。
論文 参考訳(メタデータ) (2023-07-14T08:51:03Z) - Individualized Dosing Dynamics via Neural Eigen Decomposition [51.62933814971523]
ニューラル固有微分方程式アルゴリズム(NESDE)を導入する。
NESDEは個別化モデリング、新しい治療ポリシーへの調整可能な一般化、高速で連続的でクローズドな予測を提供する。
本研究は, 総合的・現実的な医療問題におけるNESDEの堅牢性を実証し, 学習力学を用いて, 模擬医療体育環境の公開を行う。
論文 参考訳(メタデータ) (2023-06-24T17:01:51Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - Learning to Act through Evolution of Neural Diversity in Random Neural
Networks [9.387749254963595]
ほとんどの人工ニューラルネットワーク(ANN)では、神経計算は通常すべてのニューロン間で共有される活性化関数に抽象化される。
本稿では,複雑な計算を行うことができる多様なニューロンの集合を実現するために,神経中心パラメータの最適化を提案する。
論文 参考訳(メタデータ) (2023-05-25T11:33:04Z) - Physically constrained neural networks to solve the inverse problem for
neuron models [0.29005223064604074]
システム生物学とシステム神経生理学は、生体医学科学における多くの重要な応用のための強力なツールである。
ディープニューラルネットワークの分野における最近の進歩は、非線形で普遍的な近似を定式化する可能性を示している。
論文 参考訳(メタデータ) (2022-09-24T12:51:15Z) - POPPINS : A Population-Based Digital Spiking Neuromorphic Processor with
Integer Quadratic Integrate-and-Fire Neurons [50.591267188664666]
2つの階層構造を持つ180nmプロセス技術において,集団に基づくディジタルスパイキングニューロモルフィックプロセッサを提案する。
提案手法は,生体模倣型ニューロモルフィックシステム,低消費電力,低遅延推論処理アプリケーションの開発を可能にする。
論文 参考訳(メタデータ) (2022-01-19T09:26:34Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - Continuous Learning and Adaptation with Membrane Potential and
Activation Threshold Homeostasis [91.3755431537592]
本稿では,MPATH(Membrane Potential and Activation Threshold Homeostasis)ニューロンモデルを提案する。
このモデルにより、ニューロンは入力が提示されたときに自動的に活性を調節することで動的平衡の形式を維持することができる。
実験は、モデルがその入力から適応し、継続的に学習する能力を示す。
論文 参考訳(メタデータ) (2021-04-22T04:01:32Z) - Exploring weight initialization, diversity of solutions, and degradation
in recurrent neural networks trained for temporal and decision-making tasks [0.0]
リカレントニューラルネットワーク(Recurrent Neural Networks, RNN)は、脳機能と構造をモデル化するために頻繁に使用される。
本研究では,時間変化刺激による時間・流れ制御タスクを行うために,小型完全接続型RNNを訓練した。
論文 参考訳(メタデータ) (2019-06-03T21:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。