論文の概要: Understanding Neural Coding on Latent Manifolds by Sharing Features and
Dividing Ensembles
- arxiv url: http://arxiv.org/abs/2210.03155v1
- Date: Thu, 6 Oct 2022 18:37:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 13:34:58.833400
- Title: Understanding Neural Coding on Latent Manifolds by Sharing Features and
Dividing Ensembles
- Title(参考訳): 特徴共有と分割アンサンブルによる潜在多様体上のニューラルコーディングの理解
- Authors: Martin Bjerke, Lukas Schott, Kristopher T. Jensen, Claudia Battistin,
David A. Klindt, Benjamin A. Dunn
- Abstract要約: システム神経科学は、単一ニューロンのチューニング曲線と集団活動の分析を特徴とする2つの相補的な神経データ観に依存している。
これらの2つの視点は、潜伏変数とニューラルアクティビティの関係を制約するニューラル潜伏変数モデルにおいてエレガントに結合する。
ニューラルチューニング曲線にまたがる機能共有を提案し、性能を大幅に改善し、より良い最適化を実現する。
- 参考スコア(独自算出の注目度): 3.625425081454343
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Systems neuroscience relies on two complementary views of neural data,
characterized by single neuron tuning curves and analysis of population
activity. These two perspectives combine elegantly in neural latent variable
models that constrain the relationship between latent variables and neural
activity, modeled by simple tuning curve functions. This has recently been
demonstrated using Gaussian processes, with applications to realistic and
topologically relevant latent manifolds. Those and previous models, however,
missed crucial shared coding properties of neural populations. We propose
feature sharing across neural tuning curves, which significantly improves
performance and leads to better-behaved optimization. We also propose a
solution to the problem of ensemble detection, whereby different groups of
neurons, i.e., ensembles, can be modulated by different latent manifolds. This
is achieved through a soft clustering of neurons during training, thus allowing
for the separation of mixed neural populations in an unsupervised manner. These
innovations lead to more interpretable models of neural population activity
that train well and perform better even on mixtures of complex latent
manifolds. Finally, we apply our method on a recently published grid cell
dataset, recovering distinct ensembles, inferring toroidal latents and
predicting neural tuning curves all in a single integrated modeling framework.
- Abstract(参考訳): システム神経科学は、単一ニューロンチューニング曲線と集団活動の分析を特徴とする2つの相補的な神経データ観に依存している。
これらの2つの視点は、単純なチューニング曲線関数によってモデル化された潜在変数と神経活動の関係を制約するニューラル潜在変数モデルにおいてエレガントに結合する。
これは最近、現実的かつ位相的に関連する潜在多様体への応用を含むガウス過程を用いて実証されている。
しかし、これらのモデルと以前のモデルは、神経集団の重要な共有符号化特性を欠いた。
ニューラルチューニング曲線にまたがる機能共有を提案し、性能を大幅に改善し、より良い最適化を実現する。
また、異なるニューロン群、すなわちアンサンブル群が異なる潜在多様体によって変調できるアンサンブル検出の問題に対する解決策を提案する。
これはトレーニング中のニューロンのソフトクラスタリングによって達成され、教師なしの方法で混合神経集団を分離することができる。
これらの革新は、複雑な潜在多様体の混合でもよく訓練され、より良く機能する神経集団活動のより解釈可能なモデルへと繋がる。
最後に,本手法を最近公開されたグリッドセルデータセットに適用し,異なるアンサンブルを復元し,トロイダル潜伏剤を推定し,ニューラルネットワークのチューニング曲線を1つの統合モデリングフレームワークで予測する。
関連論文リスト
- Neuroformer: Multimodal and Multitask Generative Pretraining for Brain
Data [3.712362524473752]
最先端のシステム神経科学実験は大規模なマルチモーダルデータを生み出し、これらのデータセットは分析のための新しいツールを必要とする。
視覚領域と言語領域における大きな事前学習モデルの成功に触発されて、我々は大規模な細胞分解性神経スパイクデータの解析を自己回帰生成問題に再構成した。
我々はまず、シミュレーションデータセットでNeuroformerを訓練し、本質的なシミュレートされた神経回路の動作を正確に予測し、方向を含む基盤となる神経回路の接続性を推定した。
論文 参考訳(メタデータ) (2023-10-31T20:17:32Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Modeling Implicit Bias with Fuzzy Cognitive Maps [0.0]
本稿では、構造化データセットにおける暗黙バイアスを定量化するファジィ認知マップモデルを提案する。
本稿では,ニューロンの飽和を防止する正規化様伝達関数を備えた新しい推論機構を提案する。
論文 参考訳(メタデータ) (2021-12-23T17:04:12Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - Online neural connectivity estimation with ensemble stimulation [5.156484100374058]
スパースネットワークにおけるこのプロセスの効率を大幅に向上させる,ノイズの多いグループテストに基づく手法を提案する。
人口規模に比例して対数的にしか成長しない多数のテストにより、二項化ネットワーク接続を回復可能であることを示す。
また、ネット上の数万のニューロンのネットワークに対して、接続性を推測する可能性も示しています。
論文 参考訳(メタデータ) (2020-07-27T23:47:03Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Measuring Model Complexity of Neural Networks with Curve Activation
Functions [100.98319505253797]
本稿では,線形近似ニューラルネットワーク(LANN)を提案する。
ニューラルネットワークのトレーニングプロセスを実験的に検討し、オーバーフィッティングを検出する。
我々は、$L1$と$L2$正規化がモデルの複雑さの増加を抑制することを発見した。
論文 参考訳(メタデータ) (2020-06-16T07:38:06Z) - A new inference approach for training shallow and deep generalized
linear models of noisy interacting neurons [4.899818550820575]
我々は2段階の推論戦略を開発し、相互作用するニューロンの堅牢な一般化線形モデルを訓練する。
古典的手法と比較して、この方法で訓練されたモデルは性能が向上していることが示される。
この手法は深部畳み込みニューラルネットワークに拡張することができ、ニューロンの発火速度とその相関の予測精度の高いモデルが得られる。
論文 参考訳(メタデータ) (2020-06-11T15:09:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。