論文の概要: Neural timescales from a computational perspective
- arxiv url: http://arxiv.org/abs/2409.02684v2
- Date: Mon, 12 May 2025 10:25:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:48.665669
- Title: Neural timescales from a computational perspective
- Title(参考訳): 計算的観点からのニューラル・タイムスケール
- Authors: Roxana Zeraati, Anna Levina, Jakob H. Macke, Richard Gao,
- Abstract要約: 神経活動は、脳領域内および全領域にわたる幅広い時間スケールで変動する。
脳の記録からどのようにタイムスケールが定義され、測定されるかは、文献によって異なる。
- 参考スコア(独自算出の注目度): 5.390514665166601
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural activity fluctuates over a wide range of timescales within and across brain areas. Experimental observations suggest that diverse neural timescales reflect information in dynamic environments. However, how timescales are defined and measured from brain recordings vary across the literature. Moreover, these observations do not specify the mechanisms underlying timescale variations, nor whether specific timescales are necessary for neural computation and brain function. Here, we synthesize three directions where computational approaches can distill the broad set of empirical observations into quantitative and testable theories: We review (i) how different data analysis methods quantify timescales across distinct behavioral states and recording modalities, (ii) how biophysical models provide mechanistic explanations for the emergence of diverse timescales, and (iii) how task-performing networks and machine learning models uncover the functional relevance of neural timescales. This integrative computational perspective thus complements experimental investigations, providing a holistic view on how neural timescales reflect the relationship between brain structure, dynamics, and behavior.
- Abstract(参考訳): 神経活動は、脳領域内および全領域にわたる幅広い時間スケールで変動する。
実験的な観察により、様々な神経の時間スケールが動的環境の情報を反映していることが示唆される。
しかし、脳の記録からタイムスケールがどのように定義され、測定されるかは、文献によって異なる。
さらに、これらの観測は、時間スケールの変動の基礎となるメカニズムや、神経計算や脳機能に特定の時間スケールが必要かどうかを規定していない。
ここでは、計算的アプローチが幅広い経験的観測を定量的かつ検証可能な理論に蒸留できる3つの方向を合成する。
i) 異なるデータ分析手法が、異なる行動状態にわたる時間スケールを定量化し、モダリティを記録する方法。
二 生物物理学モデルが多様な時間スケールの出現に関する力学的説明を提供する方法、及び
3) タスクパフォーマンスネットワークと機械学習モデルが,ニューラルネットワークの時間スケールの機能的関連を明らかにする方法。
この積分的な計算の観点は、実験的な研究を補完し、神経の時間スケールが脳の構造、力学、行動の関係をどのように反映するかに関する全体論的な見解を提供する。
関連論文リスト
- QuantFormer: Learning to Quantize for Neural Activity Forecasting in Mouse Visual Cortex [26.499583552980248]
QuantFormerは、2光子カルシウムイメージングデータから神経活動を予測するために特別に設計されたトランスフォーマーベースのモデルである。
QuantFormerは、マウス視覚野の活動を予測する新しいベンチマークを設定している。
様々な刺激や個人に対して、堅牢なパフォーマンスと一般化を示す。
論文 参考訳(メタデータ) (2024-12-10T07:44:35Z) - Hebbian Learning based Orthogonal Projection for Continual Learning of
Spiking Neural Networks [74.3099028063756]
我々は,側方接続とヘビアン学習に基づくニューラル操作を用いた新しい手法を開発した。
我々は,反復する側方接続におけるヘビアン学習と反ヘビアン学習が,神経活動の主部分空間を効果的に抽出できることを示した。
我々の手法は、ほとんど忘れることなくニューラルネットワークをスパイクするために一貫して解決する。
論文 参考訳(メタデータ) (2024-02-19T09:29:37Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - Neuroformer: Multimodal and Multitask Generative Pretraining for Brain Data [3.46029409929709]
最先端のシステム神経科学実験は大規模なマルチモーダルデータを生み出し、これらのデータセットは分析のための新しいツールを必要とする。
視覚領域と言語領域における大きな事前学習モデルの成功に触発されて、我々は大規模な細胞分解性神経スパイクデータの解析を自己回帰生成問題に再構成した。
我々はまず、シミュレーションデータセットでNeuroformerを訓練し、本質的なシミュレートされた神経回路の動作を正確に予測し、方向を含む基盤となる神経回路の接続性を推定した。
論文 参考訳(メタデータ) (2023-10-31T20:17:32Z) - Inferring Inference [7.11780383076327]
我々は,大規模神経活動パターンから標準分散計算を推定するフレームワークを開発した。
確率的グラフィカルモデルに近似推論アルゴリズムを暗黙的に実装したモデル脳のための記録をシミュレートする。
全体として、このフレームワークはニューラル記録の解釈可能な構造を発見するための新しいツールを提供する。
論文 参考訳(メタデータ) (2023-10-04T22:12:11Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - Interpretable statistical representations of neural population dynamics and geometry [4.459704414303749]
そこで我々は,manifold dynamics を局所流れ場に分解し,それらを共通潜在空間にマッピングする表現学習手法 MARBLE を提案する。
シミュレーションされた非線形力学系,リカレントニューラルネットワーク,および霊長類および歯列類からの実験的単一ニューロン記録において,創発的低次元潜伏表現が発見された。
これらの表現はニューラルネットワークや動物間で一貫性があり、認知計算の堅牢な比較を可能にする。
論文 参考訳(メタデータ) (2023-04-06T21:11:04Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Neuronal Learning Analysis using Cycle-Consistent Adversarial Networks [4.874780144224057]
我々は、-CycleGANと呼ばれる深層生成モデルを用いて、前学習と後学習の神経活動の間の未知のマッピングを学習する。
我々は,カルシウム蛍光信号を前処理し,訓練し,評価するためのエンドツーエンドパイプラインを開発し,その結果の深層学習モデルを解釈する手法を開発した。
論文 参考訳(メタデータ) (2021-11-25T13:24:19Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - Understanding Information Processing in Human Brain by Interpreting
Machine Learning Models [1.14219428942199]
この論文は、ニューラルネットワークの直感的な計算モデルを作成する上で、機械学習メソッドが果たす役割を探求している。
この視点は、コンピュータ神経科学に対する探索的およびデータ駆動のアプローチが果たす大きな役割を支持する。
論文 参考訳(メタデータ) (2020-10-17T04:37:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。