論文の概要: Factorized Neural Processes for Neural Processes: $K$-Shot Prediction of
Neural Responses
- arxiv url: http://arxiv.org/abs/2010.11810v1
- Date: Thu, 22 Oct 2020 15:43:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 05:02:28.797150
- Title: Factorized Neural Processes for Neural Processes: $K$-Shot Prediction of
Neural Responses
- Title(参考訳): 神経プロセスの因子化ニューラルプロセス:$k$-shotによる神経応答の予測
- Authors: R. James Cotton, Fabian H. Sinz, Andreas S. Tolias
- Abstract要約: 我々は,小さな刺激応答対からニューロンのチューニング関数を推定するファクトリズ・ニューラル・プロセスを開発した。
本稿では,ニューラルプロセスからの予測および再構成された受容場が,試行数の増加とともに真理に近づいたことをシミュレートした応答を示す。
この新しいディープラーニングシステム識別フレームワークは、ニューラルネットワークモデリングを神経科学実験にリアルタイムに組み込むのに役立つと信じている。
- 参考スコア(独自算出の注目度): 9.792408261365043
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, artificial neural networks have achieved state-of-the-art
performance for predicting the responses of neurons in the visual cortex to
natural stimuli. However, they require a time consuming parameter optimization
process for accurately modeling the tuning function of newly observed neurons,
which prohibits many applications including real-time, closed-loop experiments.
We overcome this limitation by formulating the problem as $K$-shot prediction
to directly infer a neuron's tuning function from a small set of
stimulus-response pairs using a Neural Process. This required us to developed a
Factorized Neural Process, which embeds the observed set into a latent space
partitioned into the receptive field location and the tuning function
properties. We show on simulated responses that the predictions and
reconstructed receptive fields from the Factorized Neural Process approach
ground truth with increasing number of trials. Critically, the latent
representation that summarizes the tuning function of a neuron is inferred in a
quick, single forward pass through the network. Finally, we validate this
approach on real neural data from visual cortex and find that the predictive
accuracy is comparable to -- and for small $K$ even greater than --
optimization based approaches, while being substantially faster. We believe
this novel deep learning systems identification framework will facilitate
better real-time integration of artificial neural network modeling into
neuroscience experiments.
- Abstract(参考訳): 近年、人工ニューラルネットワークは視覚野のニューロンの自然な刺激に対する応答を予測するために最先端のパフォーマンスを達成している。
しかし、新たに観測されたニューロンのチューニング関数を正確にモデル化するにはパラメータ最適化に時間を要するため、リアルタイム閉ループ実験を含む多くの応用が禁止されている。
我々は、この問題をk$-shot予測として定式化し、神経プロセスを用いて小さな刺激応答対からニューロンのチューニング関数を直接推測することで、この制限を克服した。
これにより、観測された集合を受容場位置とチューニング関数特性に分割した潜在空間に埋め込むファクトリズ・ニューラル・プロセスを開発した。
因子化ニューラルプロセスから予測および再構成された受容野が、試行回数の増加とともに真理に近づくことをシミュレートした応答を示す。
臨界的に、ニューロンのチューニング関数を要約する潜在表現は、ネットワークを高速かつ単一のフォワードパスで推論される。
最後に、このアプローチを視覚野からの実際の神経データで検証し、予測精度が---optimizationベースのアプローチよりも小さい$K$と同等であり、かなり高速であることを示す。
この新たなディープラーニングシステム識別フレームワークは、ニューラルネットワークモデリングを神経科学実験にリアルタイムに統合するのに役立つと考えています。
関連論文リスト
- Growing Deep Neural Network Considering with Similarity between Neurons [4.32776344138537]
我々は、訓練段階におけるコンパクトモデルにおいて、ニューロン数を漸進的に増加させる新しいアプローチを探求する。
本稿では,ニューロン類似性分布に基づく制約を導入することにより,特徴抽出バイアスと神経冗長性を低減する手法を提案する。
CIFAR-10とCIFAR-100データセットの結果、精度が向上した。
論文 参考訳(メタデータ) (2024-08-23T11:16:37Z) - Convolutional Conditional Neural Processes [6.532867867011488]
この理論は神経過程を3つの方法で前進させる。
ConvNPは、変換分散と呼ばれる対称性で構築することで、データ効率を向上させる。
GNPは神経過程の予測において依存関係を直接パラメライズする。
AR CNPは、モデルやトレーニング手順を変更することなく、ニューラルネットワークをトレーニングし、テスト時には、自己回帰的な方法でモデルをロールアウトする。
論文 参考訳(メタデータ) (2024-08-18T19:53:38Z) - Neuroformer: Multimodal and Multitask Generative Pretraining for Brain Data [3.46029409929709]
最先端のシステム神経科学実験は大規模なマルチモーダルデータを生み出し、これらのデータセットは分析のための新しいツールを必要とする。
視覚領域と言語領域における大きな事前学習モデルの成功に触発されて、我々は大規模な細胞分解性神経スパイクデータの解析を自己回帰生成問題に再構成した。
我々はまず、シミュレーションデータセットでNeuroformerを訓練し、本質的なシミュレートされた神経回路の動作を正確に予測し、方向を含む基盤となる神経回路の接続性を推定した。
論文 参考訳(メタデータ) (2023-10-31T20:17:32Z) - Automated Natural Language Explanation of Deep Visual Neurons with Large
Models [43.178568768100305]
本稿では,大きな基礎モデルを持つニューロンの意味的説明を生成するための,新しいポストホックフレームワークを提案する。
我々のフレームワークは、様々なモデルアーキテクチャやデータセット、自動化されたスケーラブルなニューロン解釈と互換性があるように設計されています。
論文 参考訳(メタデータ) (2023-10-16T17:04:51Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Neuronal Learning Analysis using Cycle-Consistent Adversarial Networks [4.874780144224057]
我々は、-CycleGANと呼ばれる深層生成モデルを用いて、前学習と後学習の神経活動の間の未知のマッピングを学習する。
我々は,カルシウム蛍光信号を前処理し,訓練し,評価するためのエンドツーエンドパイプラインを開発し,その結果の深層学習モデルを解釈する手法を開発した。
論文 参考訳(メタデータ) (2021-11-25T13:24:19Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。