論文の概要: PAVI: Plate-Amortized Variational Inference
- arxiv url: http://arxiv.org/abs/2206.05111v1
- Date: Fri, 10 Jun 2022 13:55:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-13 15:37:57.311060
- Title: PAVI: Plate-Amortized Variational Inference
- Title(参考訳): PAVI:プレート補正変分推論
- Authors: Louis Rouillard (PARIETAL, Inria), Thomas Moreau (PARIETAL), Demian
Wassermann (PARIETAL)
- Abstract要約: 変分推論は、数百人の被験者のコホート上で何千もの測定が行われる大規模な研究にとって難しい。
本研究では,大集団研究に効果的に取り組むことができる構造型VIファミリーを設計する。
我々はこの概念をプレート・アモーティゼーション(英語版)と名付け、それが持つ強力なシナジーを描写し、その結果、大規模階層的変動分布を訓練するために、表現的、パロニカルにパラメータ化され、桁数が桁違いに速くなった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given some observed data and a probabilistic generative model, Bayesian
inference aims at obtaining the distribution of a model's latent parameters
that could have yielded the data. This task is challenging for large population
studies where thousands of measurements are performed over a cohort of hundreds
of subjects, resulting in a massive latent parameter space. This large
cardinality renders off-the-shelf Variational Inference (VI) computationally
impractical. In this work, we design structured VI families that can
efficiently tackle large population studies. To this end, our main idea is to
share the parameterization and learning across the different i.i.d. variables
in a generative model -symbolized by the model's plates. We name this concept
plate amortization, and illustrate the powerful synergies it entitles,
resulting in expressive, parsimoniously parameterized and orders of magnitude
faster to train large scale hierarchical variational distributions. We
illustrate the practical utility of PAVI through a challenging Neuroimaging
example featuring a million latent parameters, demonstrating a significant step
towards scalable and expressive Variational Inference.
- Abstract(参考訳): いくつかの観測データと確率的生成モデルを考えると、ベイジアン推論は、データを得ることのできるモデルの潜在パラメータの分布を得ることを目的としている。
この課題は、数百の被験者からなるコホート上で何千もの測定が行われ、巨大な潜伏パラメータ空間をもたらす、大規模な集団研究にとって挑戦である。
この大きな濃度は、オフザシェルフ変分推論(VI)を計算的に非現実的である。
本研究では,大集団研究に効果的に取り組むことができる構造VIファミリーを設計する。
この目的のために、我々の主なアイデアは、モデルのプレートによって象徴される生成モデルにおける異なるi.i.d.変数のパラメータ化と学習を共有することである。
我々はこの概念をプレート・アモーティゼーション(英語版)と名付け、それが持つ強力なシナジーを描写し、その結果、大規模階層的変動分布を訓練するために、表現的、パロニカルにパラメータ化され、桁数が桁違いに速くなった。
我々は,100万の潜伏パラメータを特徴とする難解なニューロイメージングの例を通して,PAVIの実用性を説明し,スケーラブルで表現力のある変分推論に向けた重要なステップを示す。
関連論文リスト
- Revealing Multimodal Contrastive Representation Learning through Latent
Partial Causal Models [85.67870425656368]
マルチモーダルデータに特化して設計された統一因果モデルを提案する。
マルチモーダル・コントラスト表現学習は潜在結合変数の同定に優れていることを示す。
実験では、仮定が破られたとしても、我々の発見の堅牢性を示す。
論文 参考訳(メタデータ) (2024-02-09T07:18:06Z) - Forward $\chi^2$ Divergence Based Variational Importance Sampling [2.841087763205822]
本稿では,ログ類似度を直接推定し,最大化する新しい変動重要度サンプリング(VIS)手法を提案する。
我々は、混合モデル、変分自動エンコーダ、部分的に観測可能な一般化線形モデルなど、様々な一般的な潜在変数モデルにVISを適用する。
論文 参考訳(メタデータ) (2023-11-04T21:46:28Z) - PAVI: Plate-Amortized Variational Inference [55.975832957404556]
数百人の被験者のコホート上で何百万もの計測が行われる大集団研究において、推論は困難である。
この大きな濃度は、オフザシェルフ変分推論(VI)を計算的に非現実的である。
本研究では,大集団研究に効率よく取り組む構造VIファミリーを設計する。
論文 参考訳(メタデータ) (2023-08-30T13:22:20Z) - Bayesian Additive Main Effects and Multiplicative Interaction Models
using Tensor Regression for Multi-environmental Trials [0.0]
本稿では,複数の因子が表現型予測に与える影響を考慮したベイズテンソル回帰モデルを提案する。
我々は、モデルのパラメータ間で生じる可能性のある識別可能性の問題を解決するための、事前分布のセットを採用する。
我々は2010年から2019年までのアイルランドにおける小麦生産に関する実世界のデータを分析して、我々のモデルの適用性を探る。
論文 参考訳(メタデータ) (2023-01-09T19:54:50Z) - Harnessing Perceptual Adversarial Patches for Crowd Counting [92.79051296850405]
群衆のカウントは、物理的な世界の敵の例に弱い。
本稿では,モデル間での知覚的特徴の共有を学習するためのPAP(Perceptual Adrial Patch)生成フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:51:39Z) - Variational Causal Networks: Approximate Bayesian Inference over Causal
Structures [132.74509389517203]
離散DAG空間上の自己回帰分布をモデル化したパラメトリック変分族を導入する。
実験では,提案した変分後部が真の後部を良好に近似できることを示した。
論文 参考訳(メタデータ) (2021-06-14T17:52:49Z) - Probabilistic Circuits for Variational Inference in Discrete Graphical
Models [101.28528515775842]
変分法による離散的グラフィカルモデルの推論は困難である。
エビデンス・ロウアーバウンド(ELBO)を推定するためのサンプリングに基づく多くの手法が提案されている。
Sum Product Networks (SPN) のような確率的回路モデルのトラクタビリティを活用する新しい手法を提案する。
選択的SPNが表現的変動分布として適していることを示し、対象モデルの対数密度が重み付けされた場合、対応するELBOを解析的に計算可能であることを示す。
論文 参考訳(メタデータ) (2020-10-22T05:04:38Z) - Learning Disentangled Representations with Latent Variation
Predictability [102.4163768995288]
本稿では,潜在不整合表現の変動予測可能性について述べる。
逆生成プロセス内では、潜時変動と対応する画像対の相互情報を最大化することにより、変動予測可能性を高める。
本研究では,潜在表現の絡み合いを測るために,基礎的構造的生成因子に依存しない評価指標を開発する。
論文 参考訳(メタデータ) (2020-07-25T08:54:26Z) - Learning Invariances for Interpretability using Supervised VAE [0.0]
我々はモデルを解釈する手段としてモデル不変性を学習する。
可変オートエンコーダ(VAE)の教師型形式を提案する。
我々は、我々のモデルと特徴属性の手法を組み合わせることで、モデルの意思決定プロセスについてよりきめ細やかな理解を得られることを示す。
論文 参考訳(メタデータ) (2020-07-15T10:14:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。