論文の概要: Neuronal Learning Analysis using Cycle-Consistent Adversarial Networks
- arxiv url: http://arxiv.org/abs/2111.13073v1
- Date: Thu, 25 Nov 2021 13:24:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-29 18:24:27.898725
- Title: Neuronal Learning Analysis using Cycle-Consistent Adversarial Networks
- Title(参考訳): サイクル一貫性対向ネットワークを用いた神経学習解析
- Authors: Bryan M. Li, Theoklitos Amvrosiadis, Nathalie Rochefort, Arno Onken
- Abstract要約: 我々は、-CycleGANと呼ばれる深層生成モデルを用いて、前学習と後学習の神経活動の間の未知のマッピングを学習する。
我々は,カルシウム蛍光信号を前処理し,訓練し,評価するためのエンドツーエンドパイプラインを開発し,その結果の深層学習モデルを解釈する手法を開発した。
- 参考スコア(独自算出の注目度): 4.874780144224057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding how activity in neural circuits reshapes following task
learning could reveal fundamental mechanisms of learning. Thanks to the recent
advances in neural imaging technologies, high-quality recordings can be
obtained from hundreds of neurons over multiple days or even weeks. However,
the complexity and dimensionality of population responses pose significant
challenges for analysis. Existing methods of studying neuronal adaptation and
learning often impose strong assumptions on the data or model, resulting in
biased descriptions that do not generalize. In this work, we use a variant of
deep generative models called - CycleGAN, to learn the unknown mapping between
pre- and post-learning neural activities recorded $\textit{in vivo}$. We
develop an end-to-end pipeline to preprocess, train and evaluate calcium
fluorescence signals, and a procedure to interpret the resulting deep learning
models. To assess the validity of our method, we first test our framework on a
synthetic dataset with known ground-truth transformation. Subsequently, we
applied our method to neural activities recorded from the primary visual cortex
of behaving mice, where the mice transition from novice to expert-level
performance in a visual-based virtual reality experiment. We evaluate model
performance on generated calcium signals and their inferred spike trains. To
maximize performance, we derive a novel approach to pre-sort neurons such that
convolutional-based networks can take advantage of the spatial information that
exists in neural activities. In addition, we incorporate visual explanation
methods to improve the interpretability of our work and gain insights into the
learning process as manifested in the cellular activities. Together, our
results demonstrate that analyzing neuronal learning processes with data-driven
deep unsupervised methods holds the potential to unravel changes in an unbiased
way.
- Abstract(参考訳): タスク学習後に神経回路がどう変化するかを理解することで、学習の基本的なメカニズムを明らかにすることができる。
ニューラルイメージング技術の最近の進歩により、数百のニューロンから、数日から数週間にわたって高品質な記録が得られている。
しかし、人口応答の複雑さと寸法は分析に重大な課題をもたらす。
既存の神経適応と学習の研究方法は、しばしばデータやモデルに強い仮定を課し、一般化しないバイアスのある記述をもたらす。
本研究では,学習前の神経活動と学習後の神経活動の未知のマッピングを学習するために,-cyclegan と呼ばれる深層生成モデルを用いた。
本研究では,カルシウム蛍光信号を前処理し,訓練し,評価するためのエンド・ツー・エンドのパイプラインを開発した。
本手法の有効性を評価するために,我々はまず,既知の基底変換を持つ合成データセット上での枠組みをテストした。
その後,本手法をマウスの一次視覚野から記録された神経活動に応用し,視覚ベースのバーチャルリアリティ実験において,マウスは初頭から専門家レベルのパフォーマンスに移行した。
生成したカルシウム信号とその推定スパイク列車のモデル性能を評価する。
性能を最大化するために、畳み込み型ネットワークが神経活動に存在する空間情報を活用できるように、プリソートニューロンに対する新しいアプローチを導出する。
さらに,作業の解釈性を向上させるために視覚的な説明手法を導入し,細胞活動に現れる学習プロセスへの洞察を得る。
この結果から,データ駆動型深層学習手法による神経学習プロセスの解析が,偏りのない方法で変化を起こす可能性を示唆している。
関連論文リスト
- Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond [61.18736646013446]
その驚くべき振る舞いをより深く理解するために、トレーニングされたニューラルネットワークの単純かつ正確なモデルの有用性について検討する。
3つのケーススタディで、様々な顕著な現象に関する新しい経験的洞察を導き出すためにどのように適用できるかを説明します。
論文 参考訳(メタデータ) (2024-10-31T22:54:34Z) - Simple and Effective Transfer Learning for Neuro-Symbolic Integration [50.592338727912946]
この問題の潜在的な解決策はNeuro-Symbolic Integration (NeSy)であり、ニューラルアプローチとシンボリック推論を組み合わせる。
これらの手法のほとんどは、認識をシンボルにマッピングするニューラルネットワークと、下流タスクの出力を予測する論理的論理的推論を利用する。
それらは、緩やかな収束、複雑な知覚タスクの学習困難、局所的なミニマへの収束など、いくつかの問題に悩まされている。
本稿では,これらの問題を改善するための簡易かつ効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-02-21T15:51:01Z) - Hebbian Learning based Orthogonal Projection for Continual Learning of
Spiking Neural Networks [74.3099028063756]
我々は,側方接続とヘビアン学習に基づくニューラル操作を用いた新しい手法を開発した。
我々は,反復する側方接続におけるヘビアン学習と反ヘビアン学習が,神経活動の主部分空間を効果的に抽出できることを示した。
我々の手法は、ほとんど忘れることなくニューラルネットワークをスパイクするために一貫して解決する。
論文 参考訳(メタデータ) (2024-02-19T09:29:37Z) - Neuroformer: Multimodal and Multitask Generative Pretraining for Brain Data [3.46029409929709]
最先端のシステム神経科学実験は大規模なマルチモーダルデータを生み出し、これらのデータセットは分析のための新しいツールを必要とする。
視覚領域と言語領域における大きな事前学習モデルの成功に触発されて、我々は大規模な細胞分解性神経スパイクデータの解析を自己回帰生成問題に再構成した。
我々はまず、シミュレーションデータセットでNeuroformerを訓練し、本質的なシミュレートされた神経回路の動作を正確に予測し、方向を含む基盤となる神経回路の接続性を推定した。
論文 参考訳(メタデータ) (2023-10-31T20:17:32Z) - Understanding Activation Patterns in Artificial Neural Networks by
Exploring Stochastic Processes [0.0]
我々はこれまで未利用であったプロセスの枠組みを活用することを提案する。
我々は、実際のニューロンスパイク列車に使用される神経科学技術を活用した、アクティベーション周波数のみに焦点をあてる。
各ネットワークにおけるアクティベーションパターンを記述するパラメータを導出し、アーキテクチャとトレーニングセット間で一貫した差異を明らかにする。
論文 参考訳(メタデータ) (2023-08-01T22:12:30Z) - Interpretable statistical representations of neural population dynamics and geometry [4.459704414303749]
そこで我々は,manifold dynamics を局所流れ場に分解し,それらを共通潜在空間にマッピングする表現学習手法 MARBLE を提案する。
シミュレーションされた非線形力学系,リカレントニューラルネットワーク,および霊長類および歯列類からの実験的単一ニューロン記録において,創発的低次元潜伏表現が発見された。
これらの表現はニューラルネットワークや動物間で一貫性があり、認知計算の堅牢な比較を可能にする。
論文 参考訳(メタデータ) (2023-04-06T21:11:04Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - On the Evolution of Neuron Communities in a Deep Learning Architecture [0.7106986689736827]
本稿では,ディープラーニングに基づく分類モデルのニューロン活性化パターンについて検討する。
コミュニティの品質(モジュラリティ)とエントロピーの両方が、ディープラーニングモデルのパフォーマンスと密接に関連していることを示す。
論文 参考訳(メタデータ) (2021-06-08T21:09:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。