論文の概要: Neural Latent Aligner: Cross-trial Alignment for Learning
Representations of Complex, Naturalistic Neural Data
- arxiv url: http://arxiv.org/abs/2308.06443v1
- Date: Sat, 12 Aug 2023 02:35:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 17:22:59.045065
- Title: Neural Latent Aligner: Cross-trial Alignment for Learning
Representations of Complex, Naturalistic Neural Data
- Title(参考訳): neural latent aligner: 複雑で自然主義的なニューラルネットワークデータの学習表現のための対地的アライメント
- Authors: Cheol Jun Cho, Edward F. Chang, and Gopala K. Anumanchipalli
- Abstract要約: そこで本稿では, 複雑な振る舞いをよく拘束し, 行動に関連のある神経表現を見つけるために, 教師なし学習フレームワークNeural Latent Aligner(NLA)を提案する。
提案するフレームワークは, ベースラインよりも地上横断的な一貫した表現を学習し, 可視化すると, 試行錯誤による共有神経軌道が明らかにされる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding the neural implementation of complex human behaviors is one of
the major goals in neuroscience. To this end, it is crucial to find a true
representation of the neural data, which is challenging due to the high
complexity of behaviors and the low signal-to-ratio (SNR) of the signals. Here,
we propose a novel unsupervised learning framework, Neural Latent Aligner
(NLA), to find well-constrained, behaviorally relevant neural representations
of complex behaviors. The key idea is to align representations across repeated
trials to learn cross-trial consistent information. Furthermore, we propose a
novel, fully differentiable time warping model (TWM) to resolve the temporal
misalignment of trials. When applied to intracranial electrocorticography
(ECoG) of natural speaking, our model learns better representations for
decoding behaviors than the baseline models, especially in lower dimensional
space. The TWM is empirically validated by measuring behavioral coherence
between aligned trials. The proposed framework learns more cross-trial
consistent representations than the baselines, and when visualized, the
manifold reveals shared neural trajectories across trials.
- Abstract(参考訳): 複雑な人間の行動の神経的実装を理解することは神経科学の主要な目標の1つである。
この目的のためには、行動の複雑さや信号のsnr(signal-to-ratio)が低いため、ニューラルネットワークの真の表現を見つけることが不可欠である。
そこで本研究では,複雑な振る舞いをよく拘束し,行動に関連のある神経表現を見つけるために,教師なし学習フレームワークNeural Latent Aligner(NLA)を提案する。
鍵となるアイデアは、裁判間の一貫性のある情報を学ぶために、繰り返し行われる試行をまたいで表現を調整することである。
さらに, 治験の時間的不均衡を解消するための新しい, 完全微分可能な時間ウォーピングモデル(twm)を提案する。
自然発声の頭蓋内皮質電図(ecog)に適用すると,本モデルはベースラインモデル,特に低次元空間におけるデコード行動に対する優れた表現を学習する。
TWMは、整列試行間の挙動コヒーレンスを測定することにより、実証的に検証される。
提案するフレームワークは, ベースラインよりも地上横断的な一貫した表現を学習し, 可視化すると, 実験全体での共有神経軌道を明らかにする。
関連論文リスト
- Neuroformer: Multimodal and Multitask Generative Pretraining for Brain
Data [3.712362524473752]
最先端のシステム神経科学実験は大規模なマルチモーダルデータを生み出し、これらのデータセットは分析のための新しいツールを必要とする。
視覚領域と言語領域における大きな事前学習モデルの成功に触発されて、我々は大規模な細胞分解性神経スパイクデータの解析を自己回帰生成問題に再構成した。
我々はまず、シミュレーションデータセットでNeuroformerを訓練し、本質的なシミュレートされた神経回路の動作を正確に予測し、方向を含む基盤となる神経回路の接続性を推定した。
論文 参考訳(メタデータ) (2023-10-31T20:17:32Z) - A Spiking Binary Neuron -- Detector of Causal Links [0.0]
因果関係認識は、学習行動、行動計画、外界ダイナミクスの推論を目的としたニューラルネットワークの基本的な操作である。
本研究は、単純なスパイク二元性ニューロンを用いた因果関係認識を実現するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-15T15:34:17Z) - Language Knowledge-Assisted Representation Learning for Skeleton-Based
Action Recognition [71.35205097460124]
人間が他人の行動を理解して認識する方法は、複雑な神経科学の問題である。
LA-GCNは、大規模言語モデル(LLM)知識アシストを用いたグラフ畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-21T08:29:16Z) - Contrastive-Signal-Dependent Plasticity: Forward-Forward Learning of
Spiking Neural Systems [73.18020682258606]
我々は、ニューロンの個々の層が並列に機能する、スパイキングニューロンユニットからなる神経模倣アーキテクチャを開発する。
コントラスト信号依存塑性(CSDP)と呼ばれるイベントベース前方学習の一般化を提案する。
いくつかのパターンデータセットに対する実験結果から,CSDPプロセスは分類と再構成の両方が可能な動的再帰スパイクネットワークのトレーニングに有効であることが示された。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Learnable latent embeddings for joint behavioral and neural analysis [3.6062449190184136]
CEBRAは、空間のマッピング、複雑なキネマティックな特徴の発見、視覚野からの自然映画の高速かつ高精度な復号化に利用できることを示す。
我々は、その精度を検証し、カルシウムと電気生理学の両方のデータセット、感覚と運動のタスク、そして種全体にわたる単純または複雑な振る舞いにその有用性を実証する。
論文 参考訳(メタデータ) (2022-04-01T19:19:33Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Neuronal Learning Analysis using Cycle-Consistent Adversarial Networks [4.874780144224057]
我々は、-CycleGANと呼ばれる深層生成モデルを用いて、前学習と後学習の神経活動の間の未知のマッピングを学習する。
我々は,カルシウム蛍光信号を前処理し,訓練し,評価するためのエンドツーエンドパイプラインを開発し,その結果の深層学習モデルを解釈する手法を開発した。
論文 参考訳(メタデータ) (2021-11-25T13:24:19Z) - Drop, Swap, and Generate: A Self-Supervised Approach for Generating
Neural Activity [33.06823702945747]
我々はSwap-VAEと呼ばれる神経活動の不整合表現を学習するための新しい教師なしアプローチを導入する。
このアプローチは、生成モデリングフレームワークとインスタンス固有のアライメント損失を組み合わせたものです。
我々は、行動に関連付けられた関連する潜在次元に沿って、ニューラルネットワークをアンタングルする表現を構築することが可能であることを示す。
論文 参考訳(メタデータ) (2021-11-03T16:39:43Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Measuring Model Complexity of Neural Networks with Curve Activation
Functions [100.98319505253797]
本稿では,線形近似ニューラルネットワーク(LANN)を提案する。
ニューラルネットワークのトレーニングプロセスを実験的に検討し、オーバーフィッティングを検出する。
我々は、$L1$と$L2$正規化がモデルの複雑さの増加を抑制することを発見した。
論文 参考訳(メタデータ) (2020-06-16T07:38:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。