論文の概要: Recurrent networks improve neural response prediction and provide
insights into underlying cortical circuits
- arxiv url: http://arxiv.org/abs/2110.00825v2
- Date: Sun, 13 Nov 2022 21:08:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-12 18:01:23.580148
- Title: Recurrent networks improve neural response prediction and provide
insights into underlying cortical circuits
- Title(参考訳): リカレントネットワークは神経応答予測を改善し、基礎となる皮質回路に対する洞察を提供する
- Authors: Yimeng Zhang, Harold Rockwell, Sicheng Dai, Ge Huang, Stephen Tsou,
Yuanyuan Wei, Tai Sing Lee
- Abstract要約: CNNモデルは、初期の視覚皮質ニューロンの自然画像に対する単一ニューロンの反応を予測する最先端モデルとして証明されている。
我々はこれらのモデルを反復的な畳み込み層で拡張し、よく知られた大脳皮質の大規模な再発を反映する。
V1ニューロンで見られるような時間的応答ダイナミクスと古典的文脈変調を,長期にわたる広視野画像提示のトレーニングにおいて,適切なモデルの繰り返し回路に隠された単位が示されることが判明した。
- 参考スコア(独自算出の注目度): 3.340380180141713
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Feedforward CNN models have proven themselves in recent years as
state-of-the-art models for predicting single-neuron responses to natural
images in early visual cortical neurons. In this paper, we extend these models
with recurrent convolutional layers, reflecting the well-known massive
recurrence in the cortex, and show robust increases in predictive performance
over feedforward models across thousands of hyperparameter combinations in
three datasets of macaque V1 and V2 single-neuron responses. We propose the
recurrent circuit can be conceptualized as a form of ensemble computing, with
each iteration generating more effective feedforward paths of various path
lengths to allow a combination of solutions in the final approximation. The
statistics of the paths in the ensemble provide insights to the differential
performance increases among our recurrent models. We also assess whether the
recurrent circuits learned for neural response prediction can be related to
cortical circuits. We find that the hidden units in the recurrent circuits of
the appropriate models, when trained on long-duration wide-field image
presentations, exhibit similar temporal response dynamics and classical
contextual modulations as observed in V1 neurons. This work provides insights
to the computational rationale of recurrent circuits and suggests that neural
response prediction could be useful for characterizing the recurrent neural
circuits in the visual cortex.
- Abstract(参考訳): フィードフォワードCNNモデルは、初期の視覚皮質ニューロンの自然画像に対する単一ニューロンの反応を予測する最先端モデルとして近年証明されている。
本稿では,これらのモデルを繰り返し畳み込み層で拡張し,大脳皮質の大規模再発を反映し,マカクv1およびv2単一ニューロン応答の3つのデータセットにおいて,数千のハイパーパラメータの組み合わせでフィードフォワードモデルよりも高い予測性能を示す。
本稿では,回路をアンサンブル計算の一形態として概念化し,各回路が様々な経路長のフィードフォワードパスを生成し,解の組み合わせを最終近似で可能にする。
アンサンブル内の経路の統計は、リカレントモデル間の差分性能の増大に関する洞察を与える。
また、ニューラル応答予測のために学習したリカレント回路が皮質回路に関連があるかどうかを評価する。
適切なモデルのリカレント回路の隠れた単位は、長距離広視野画像提示で訓練された場合、v1ニューロンで観察されるような時間的応答ダイナミクスと古典的な文脈的変調を示す。
この研究は、リカレント回路の計算理論に対する洞察を提供し、神経応答予測が視覚野におけるリカレント神経回路の特徴付けに有用であることを示唆している。
関連論文リスト
- Relating Superconducting Optoelectronic Networks to Classical Neurodynamics [0.0]
超伝導ループニューロンの現象論的モデルとして,シナプスとデンドライトを記述したジョセフソン回路方程式を解く必要がなくなる。
いくつかの回路パラメータでは、単一のスパイクに対する下流の樹状反応と、偶然またはスパイクのシーケンスを表現できる。
支配方程式は、漏洩積分体デンドライトと神経細胞をモデル化するための神経科学の文献において、ほぼ同一であることが示されている。
論文 参考訳(メタデータ) (2024-09-26T16:23:53Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - A predictive physics-aware hybrid reduced order model for reacting flows [65.73506571113623]
反応流問題の解法として,新しいハイブリッド型予測次数モデル (ROM) を提案する。
自由度は、数千の時間的点から、対応する時間的係数を持ついくつかのPODモードへと減少する。
時間係数を予測するために、2つの異なるディープラーニングアーキテクチャがテストされている。
論文 参考訳(メタデータ) (2023-01-24T08:39:20Z) - NRTR: Neuron Reconstruction with Transformer from 3D Optical Microscopy
Images [5.724034347184251]
本稿では,ニューロン再構成を直接予測問題とみなすニューロン再構成変換器(NRTR)を提案する。
NRTRは、エンド・ツー・エンドのニューロン再構築のための最初の画像-セット深層学習モデルである。
論文 参考訳(メタデータ) (2022-12-08T09:35:22Z) - Phenomenological Model of Superconducting Optoelectronic Loop Neurons [0.0]
超伝導光電子ループニューロン(英: Superconducting optoelectronic loop neurons)は、大規模人工認知のためのネットワークに導かれる回路の一種である。
これまで、ループニューロンの全てのシミュレーションは、シナプス、デンドライト、ニューロンの挙動をモデル化するために第一原理回路解析を用いてきた。
ここでは、関連するシナプス、樹状突起、神経回路の挙動を捉えるためのモデリングフレームワークを紹介する。
論文 参考訳(メタデータ) (2022-10-18T16:38:35Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - An advanced spatio-temporal convolutional recurrent neural network for
storm surge predictions [73.4962254843935]
本研究では, 人工ニューラルネットワークモデルを用いて, 嵐の軌跡/規模/強度履歴に基づいて, 強風をエミュレートする能力について検討する。
本研究では, 人工嵐シミュレーションのデータベースを用いて, 強風を予測できるニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2022-04-18T23:42:18Z) - Hybrid Predictive Coding: Inferring, Fast and Slow [62.997667081978825]
本稿では,反復型と償却型の両方を原則的に組み合わせたハイブリッド予測符号化ネットワークを提案する。
我々は,本モデルが本質的に不確実性に敏感であり,最小計算費用を用いて正確な信念を得るためにバランスを適応的にバランスさせることを実証した。
論文 参考訳(メタデータ) (2022-04-05T12:52:45Z) - Towards performant and reliable undersampled MR reconstruction via
diffusion model sampling [67.73698021297022]
DiffuseReconは拡散モデルに基づく新しいMR再構成法である。
観測された信号に基づいて生成過程を導出する。
特定の加速因子に関する追加の訓練は必要としない。
論文 参考訳(メタデータ) (2022-03-08T02:25:38Z) - Factorized Neural Processes for Neural Processes: $K$-Shot Prediction of
Neural Responses [9.792408261365043]
我々は,小さな刺激応答対からニューロンのチューニング関数を推定するファクトリズ・ニューラル・プロセスを開発した。
本稿では,ニューラルプロセスからの予測および再構成された受容場が,試行数の増加とともに真理に近づいたことをシミュレートした応答を示す。
この新しいディープラーニングシステム識別フレームワークは、ニューラルネットワークモデリングを神経科学実験にリアルタイムに組み込むのに役立つと信じている。
論文 参考訳(メタデータ) (2020-10-22T15:43:59Z) - A new inference approach for training shallow and deep generalized
linear models of noisy interacting neurons [4.899818550820575]
我々は2段階の推論戦略を開発し、相互作用するニューロンの堅牢な一般化線形モデルを訓練する。
古典的手法と比較して、この方法で訓練されたモデルは性能が向上していることが示される。
この手法は深部畳み込みニューラルネットワークに拡張することができ、ニューロンの発火速度とその相関の予測精度の高いモデルが得られる。
論文 参考訳(メタデータ) (2020-06-11T15:09:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。