論文の概要: Amortised Inference in Structured Generative Models with Explaining Away
- arxiv url: http://arxiv.org/abs/2209.05212v1
- Date: Mon, 12 Sep 2022 12:52:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 14:14:14.090743
- Title: Amortised Inference in Structured Generative Models with Explaining Away
- Title(参考訳): 説明通路を有する構造的生成モデルにおける補正推論
- Authors: Changmin Yu and Hugo Soulat and Neil Burgess and Maneesh Sahani
- Abstract要約: 我々は、複数の変数に対して構造化因子を組み込むために、償却変分推論の出力を拡張した。
パラメータ化された因子は、複雑な図形構造における変分メッセージパッシングと効率的に結合可能であることを示す。
次に、構造化されたモデルと、自由に動くげっ歯類の海馬からの高次元神経スパイク時系列を適合させる。
- 参考スコア(独自算出の注目度): 16.92791301062903
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A key goal of unsupervised learning is to go beyond density estimation and
sample generation to reveal the structure inherent within observed data. Such
structure can be expressed in the pattern of interactions between explanatory
latent variables captured through a probabilistic graphical model. Although the
learning of structured graphical models has a long history, much recent work in
unsupervised modelling has instead emphasised flexible deep-network-based
generation, either transforming independent latent generators to model complex
data or assuming that distinct observed variables are derived from different
latent nodes. Here, we extend the output of amortised variational inference to
incorporate structured factors over multiple variables, able to capture the
observation-induced posterior dependence between latents that results from
"explaining away" and thus allow complex observations to depend on multiple
nodes of a structured graph. We show that appropriately parameterised factors
can be combined efficiently with variational message passing in elaborate
graphical structures. We instantiate the framework based on Gaussian Process
Factor Analysis models, and empirically evaluate its improvement over existing
methods on synthetic data with known generative processes. We then fit the
structured model to high-dimensional neural spiking time-series from the
hippocampus of freely moving rodents, demonstrating that the model identifies
latent signals that correlate with behavioural covariates.
- Abstract(参考訳): 教師なし学習の重要な目標は、密度推定とサンプル生成を超えて、観測データに固有の構造を明らかにすることである。
このような構造は、確率的グラフィカルモデルを通して得られた説明的潜在変数間の相互作用パターンで表現することができる。
構造化グラフィカルモデルの学習には長い歴史があるが、教師なしモデリングにおける最近の研究は、独立した潜伏生成器を複雑なデータに変換するか、異なる観測変数が異なる潜伏ノードから導出されることを仮定して、柔軟な深層ネットワークベースの生成を強調している。
ここでは,複数変数にまたがる構造化因子を組み込むために,補正された変分推論の出力を拡張し,"説明"から生じる潜伏者間の観測誘起後続依存性を捉え,構造化グラフの複数のノードに依存する複雑な観測を可能にする。
パラメータ化された因子は、複雑な図形構造における変分メッセージパッシングと効率的に結合可能であることを示す。
ガウス過程因子分析モデルに基づくフレームワークのインスタンス化を行い、既知生成過程を持つ合成データに対する既存の手法に対する改善を実証的に評価する。
次に, 構造モデルを用いて, 海馬の運動野の高次元神経スパイキング時系列に適応し, モデルが行動的共変量と相関する潜在シグナルを同定することを示す。
関連論文リスト
- Estimating Causal Effects from Learned Causal Networks [56.14597641617531]
本稿では、離散可観測変数に対する因果影響クエリに応答する代替パラダイムを提案する。
観測データから直接因果ベイズネットワークとその共起潜伏変数を学習する。
本手法は, 推定手法よりも有効であることを示す。
論文 参考訳(メタデータ) (2024-08-26T08:39:09Z) - Latent Variable Sequence Identification for Cognitive Models with Neural Bayes Estimation [7.7227297059345466]
本稿では,ニューラルベイズ推定を拡張して,実験データと対象変数空間との直接マッピングを学習する手法を提案する。
我々の研究は、リカレントニューラルネットワークとシミュレーションベースの推論を組み合わせることで、潜在変数配列を特定することで、研究者がより広範な認知モデルにアクセスできるようになることを強調している。
論文 参考訳(メタデータ) (2024-06-20T21:13:39Z) - Learning Divergence Fields for Shift-Robust Graph Representations [73.11818515795761]
本研究では,相互依存データに対する問題に対して,学習可能な分散場を持つ幾何学的拡散モデルを提案する。
因果推論によって新たな学習目標が導出され、ドメイン間で無神経な相互依存の一般化可能なパターンを学習するためのモデルが導出される。
論文 参考訳(メタデータ) (2024-06-07T14:29:21Z) - Cyclic Directed Probabilistic Graphical Model: A Proposal Based on
Structured Outcomes [0.0]
本稿では,指向性周期依存を直接キャプチャ可能な確率的グラフィカルモデル(確率的関係ネットワーク)について述べる。
このモデルは確率公理に違反せず、観測データからの学習をサポートする。
特に、確率的推論をサポートし、データ分析やエキスパートおよび設計アプリケーションにおいて、将来的なツールとなる。
論文 参考訳(メタデータ) (2023-10-25T10:19:03Z) - Bayesian learning of Causal Structure and Mechanisms with GFlowNets and Variational Bayes [51.84122462615402]
本研究では,変分ベイズ-DAG-GFlowNetを用いて因果モデルの構造と機構を学習する手法を提案する。
我々は,GFlowNetを用いたベイズ因果構造学習の手法を拡張し,線形ガウスモデルのパラメータを学習する。
論文 参考訳(メタデータ) (2022-11-04T21:57:39Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - MoReL: Multi-omics Relational Learning [26.484803417186384]
ヘテロジニアスビューの分子間相互作用をコードする多部グラフを効率的に推定する新しいディープベイズ生成モデルを提案する。
このようなディープベイズ生成モデルにおける最適輸送正則化により、ビュー固有側情報を組み込むだけでなく、分布ベース正則化によるモデルの柔軟性も向上する。
論文 参考訳(メタデータ) (2022-03-15T02:50:07Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Learning Exponential Family Graphical Models with Latent Variables using
Regularized Conditional Likelihood [10.21814909876358]
遅延可変グラフィカルモデリングのための正規化条件付き確率に基づく新しい凸緩和フレームワークを提案する。
我々は、実データだけでなく、合成に関する数値実験を通じて、我々のフレームワークの有用性と柔軟性を実証する。
論文 参考訳(メタデータ) (2020-10-19T11:16:26Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z) - Learning Structured Latent Factors from Dependent Data:A Generative
Model Framework from Information-Theoretic Perspective [18.88255368184596]
本稿では,潜在空間における様々な基盤構造を持つ生成モデル学習のための新しいフレームワークを提案する。
我々のモデルは、様々なタイプの望まれる構造を反映した意味論的に意味のある潜在因子の集合を学習するための原則化されたアプローチを提供する。
論文 参考訳(メタデータ) (2020-07-21T06:59:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。