論文の概要: Estimating smooth and sparse neural receptive fields with a flexible
spline basis
- arxiv url: http://arxiv.org/abs/2108.07537v1
- Date: Tue, 17 Aug 2021 09:49:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-18 19:36:56.103747
- Title: Estimating smooth and sparse neural receptive fields with a flexible
spline basis
- Title(参考訳): 柔軟なスプラインベースによる滑らかでスパースな神経受容野の推定
- Authors: Ziwei Huang, Yanli Ran, Jonathan Oesterle, Thomas Euler, Philipp
Berens
- Abstract要約: 時空間受容野(STRF)モデルは感覚ニューロンによって実行される計算を近似するために頻繁に使用される。
経験的ベイズに基づくSTRFを推定するための現在の最先端のアプローチは、高次元環境では計算効率が良くないことが多い。
そこで本研究では,所望の特性を持つ基底関数の集合を選択することにより,STRF推定のための事前知識を符号化する手法を提案する。
- 参考スコア(独自算出の注目度): 5.612292166628669
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spatio-temporal receptive field (STRF) models are frequently used to
approximate the computation implemented by a sensory neuron. Typically, such
STRFs are assumed to be smooth and sparse. Current state-of-the-art approaches
for estimating STRFs based on empirical Bayes are often not computationally
efficient in high-dimensional settings, as encountered in sensory neuroscience.
Here we pursued an alternative approach and encode prior knowledge for
estimation of STRFs by choosing a set of basis functions with the desired
properties: natural cubic splines. Our method is computationally efficient and
can be easily applied to a wide range of existing models. We compared the
performance of spline-based methods to non-spline ones on simulated and
experimental data, showing that spline-based methods consistently outperform
the non-spline versions.
- Abstract(参考訳): 時空間受容野(STRF)モデルは感覚ニューロンによって実行される計算を近似するために頻繁に使用される。
通常、そのようなSTRFは滑らかでスパースであると仮定される。
経験ベイズに基づくstrf推定の現在の最先端手法は、感覚神経科学で見られるように、高次元環境では計算効率が良くないことが多い。
そこで本研究では, 自然立方晶スプラインという, 所望の性質を持つ基底関数の集合を選択することにより, strf 推定のための事前知識をエンコードした。
本手法は計算効率が高く,既存モデルにも容易に適用可能である。
シミュレーションデータと実験データでスプラインベース法と非スプライン法の比較を行い,スプラインベース法が非スプラインバージョンを一貫して上回っていることを示した。
関連論文リスト
- A variational neural Bayes framework for inference on intractable posterior distributions [1.0801976288811024]
トレーニングされたニューラルネットワークに観測データを供給することにより、モデルパラメータの後方分布を効率的に取得する。
理論的には、我々の後部はKulback-Leiblerの発散において真の後部に収束することを示す。
論文 参考訳(メタデータ) (2024-04-16T20:40:15Z) - Diffusion posterior sampling for simulation-based inference in tall data settings [53.17563688225137]
シミュレーションベース推論(SBI)は、入力パラメータを所定の観測に関連付ける後部分布を近似することができる。
本研究では、モデルのパラメータをより正確に推測するために、複数の観測値が利用できる、背の高いデータ拡張について考察する。
提案手法を,最近提案した各種数値実験の競合手法と比較し,数値安定性と計算コストの観点から,その優位性を実証した。
論文 参考訳(メタデータ) (2024-04-11T09:23:36Z) - Rapid Bayesian identification of sparse nonlinear dynamics from scarce and noisy data [2.3018169548556977]
我々はベイジアンフレームワーク内でSINDy法をリキャストし、ガウス近似を用いて計算を高速化する。
ベイジアン・シンディは推定したパラメータの不確かさを定量化するが、限られたノイズのあるデータから正しいモデルを学ぶ際にもより堅牢である。
論文 参考訳(メタデータ) (2024-02-23T14:41:35Z) - The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - Pseudo-Likelihood Inference [16.934708242852558]
Pseudo-Likelihood Inference (PLI)は、ABCに神経近似をもたらす新しい方法であり、ベイズシステムの識別に挑戦するタスクと競合する。
PLIは、勾配降下による神経後葉の最適化を可能にし、要約統計に頼らず、入力として複数の観察を可能にする。
PLIの有効性は、4つの古典的SBIベンチマークタスクと非常にダイナミックな物理システムで評価される。
論文 参考訳(メタデータ) (2023-11-28T10:17:52Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - Simulation-based inference using surjective sequential neural likelihood
estimation [50.24983453990065]
主観的逐次的ニューラルネットワーク類似度推定はシミュレーションに基づく推論の新しい手法である。
データを低次元空間に埋め込むことで、SSNLは高次元データセットに適用する際の従来の可能性ベースの手法が抱えるいくつかの問題を解く。
論文 参考訳(メタデータ) (2023-08-02T10:02:38Z) - Variational Linearized Laplace Approximation for Bayesian Deep Learning [11.22428369342346]
変分スパースガウス過程(GP)を用いた線形ラプラス近似(LLA)の近似法を提案する。
本手法はGPの2つのRKHSの定式化に基づいており、予測平均として元のDNNの出力を保持する。
効率のよい最適化が可能で、結果としてトレーニングデータセットのサイズのサブ線形トレーニング時間が短縮される。
論文 参考訳(メタデータ) (2023-02-24T10:32:30Z) - DeepBayes -- an estimator for parameter estimation in stochastic
nonlinear dynamical models [11.917949887615567]
本研究では,DeepBayes推定器を提案する。
ディープリカレントニューラルネットワークアーキテクチャはオフラインでトレーニングでき、推論中にかなりの時間を節約できる。
提案手法の異なる実例モデルへの適用性を実証し, 最先端手法との詳細な比較を行う。
論文 参考訳(メタデータ) (2022-05-04T18:12:17Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Leveraging Global Parameters for Flow-based Neural Posterior Estimation [90.21090932619695]
実験観測に基づくモデルのパラメータを推定することは、科学的方法の中心である。
特に困難な設定は、モデルが強く不確定であるとき、すなわち、パラメータの異なるセットが同一の観測をもたらすときである。
本稿では,グローバルパラメータを共有する観測の補助的セットによって伝達される付加情報を利用して,その不確定性を破る手法を提案する。
論文 参考訳(メタデータ) (2021-02-12T12:23:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。