論文の概要: Inferring Inference
- arxiv url: http://arxiv.org/abs/2310.03186v1
- Date: Wed, 4 Oct 2023 22:12:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 20:10:33.848810
- Title: Inferring Inference
- Title(参考訳): 推論
- Authors: Rajkumar Vasudeva Raju, Zhe Li, Scott Linderman, Xaq Pitkow
- Abstract要約: 我々は,大規模神経活動パターンから標準分散計算を推定するフレームワークを開発した。
確率的グラフィカルモデルに近似推論アルゴリズムを暗黙的に実装したモデル脳のための記録をシミュレートする。
全体として、このフレームワークはニューラル記録の解釈可能な構造を発見するための新しいツールを提供する。
- 参考スコア(独自算出の注目度): 7.11780383076327
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Patterns of microcircuitry suggest that the brain has an array of repeated
canonical computational units. Yet neural representations are distributed, so
the relevant computations may only be related indirectly to single-neuron
transformations. It thus remains an open challenge how to define canonical
distributed computations. We integrate normative and algorithmic theories of
neural computation into a mathematical framework for inferring canonical
distributed computations from large-scale neural activity patterns. At the
normative level, we hypothesize that the brain creates a structured internal
model of its environment, positing latent causes that explain its sensory
inputs, and uses those sensory inputs to infer the latent causes. At the
algorithmic level, we propose that this inference process is a nonlinear
message-passing algorithm on a graph-structured model of the world. Given a
time series of neural activity during a perceptual inference task, our
framework finds (i) the neural representation of relevant latent variables,
(ii) interactions between these variables that define the brain's internal
model of the world, and (iii) message-functions specifying the inference
algorithm. These targeted computational properties are then statistically
distinguishable due to the symmetries inherent in any canonical computation, up
to a global transformation. As a demonstration, we simulate recordings for a
model brain that implicitly implements an approximate inference algorithm on a
probabilistic graphical model. Given its external inputs and noisy neural
activity, we recover the latent variables, their neural representation and
dynamics, and canonical message-functions. We highlight features of
experimental design needed to successfully extract canonical computations from
neural data. Overall, this framework provides a new tool for discovering
interpretable structure in neural recordings.
- Abstract(参考訳): マイクロサーキットのパターンは、脳が一連の正準計算ユニットを持っていることを示唆している。
しかし、神経表現は分散しているため、関連する計算は単一ニューロン変換と間接的にのみ関連付けられる。
したがって、標準的な分散計算を定義するにはオープンな課題である。
ニューラル計算の規範的およびアルゴリズム的理論を数学的枠組みに統合し,大規模神経活動パターンから正準分散計算を推定する。
規範レベルでは、脳は環境の構造化された内部モデルを作成し、感覚入力を説明する潜在原因を仮定し、その知覚入力を使って潜在原因を推測する。
アルゴリズムレベルでは、この推論プロセスが世界のグラフ構造モデル上での非線形メッセージパッシングアルゴリズムであることを示す。
知覚的推論タスク中の神経活動の時系列から、我々のフレームワークが発見する
(i)関連潜在変数の神経表現。
(ii)脳の内部モデルを定義するこれらの変数間の相互作用、及び
(iii)推論アルゴリズムを指定するメッセージ機能。
対象とする計算特性は、任意の標準計算に内在する対称性から、大域変換まで統計的に区別できる。
実演として,確率的グラフィカルモデル上で近似推論アルゴリズムを暗黙的に実装したモデル脳の記録をシミュレートする。
外部入力とノイズの神経活動を考えると、潜在変数、その神経表現とダイナミクス、および標準メッセージ関数を回復する。
ニューラルデータから標準計算を抽出するのに必要な実験設計の特徴を強調した。
全体として、このフレームワークはニューラル記録の解釈可能な構造を発見するための新しいツールを提供する。
関連論文リスト
- Neural timescales from a computational perspective [5.390514665166601]
神経活動の時間スケールは、脳領域内および脳領域で多様であり、実験的観察により、神経活動の時間スケールが動的環境の情報反映を示唆している。
ここでは、相補的な視点を採り、計算手法が幅広い経験的観察を定量的かつ検証可能な理論に抽出できる3つの方向を合成する。
論文 参考訳(メタデータ) (2024-09-04T13:16:20Z) - Latent Variable Sequence Identification for Cognitive Models with Neural Bayes Estimation [7.7227297059345466]
本稿では,ニューラルベイズ推定を拡張して,実験データと対象変数空間との直接マッピングを学習する手法を提案する。
我々の研究は、リカレントニューラルネットワークとシミュレーションベースの推論を組み合わせることで、潜在変数配列を特定することで、研究者がより広範な認知モデルにアクセスできるようになることを強調している。
論文 参考訳(メタデータ) (2024-06-20T21:13:39Z) - Linearization Turns Neural Operators into Function-Valued Gaussian Processes [23.85470417458593]
ニューラル作用素におけるベイズの不確かさを近似する新しい枠組みを導入する。
我々の手法は関数型プログラミングからカリー化の概念の確率論的類似体と解釈できる。
我々は、異なるタイプの偏微分方程式への応用を通して、我々のアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-06-07T16:43:54Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - Invariants for neural automata [0.0]
我々は,異なる符号化条件下でのニューラルオートマトンの対称性と不変性を調べるための公式な枠組みを開発する。
我々の研究は、ニューロシンボリックプロセッサを用いた実世界の実測値の回帰研究において極めて重要である可能性がある。
論文 参考訳(メタデータ) (2023-02-04T11:40:40Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - A Neural Dynamic Model based on Activation Diffusion and a
Micro-Explanation for Cognitive Operations [4.416484585765028]
記憶の神経機構は、人工知能における表現の問題と非常に密接な関係を持っている。
脳内のニューロンのネットワークとその情報処理のシミュレーションを行う計算モデルが提案された。
論文 参考訳(メタデータ) (2020-11-27T01:34:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。