論文の概要: Partially factorized variational inference for high-dimensional mixed
models
- arxiv url: http://arxiv.org/abs/2312.13148v1
- Date: Wed, 20 Dec 2023 16:12:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 14:51:12.037668
- Title: Partially factorized variational inference for high-dimensional mixed
models
- Title(参考訳): 高次元混合モデルに対する部分分解変分推論
- Authors: Max Goplerud, Omiros Papaspiliopoulos, Giacomo Zanella
- Abstract要約: 変分推論(VI)法はそのような計算を行う一般的な方法である。
標準VI(平均場)は、高次元における後方の不確かさを劇的に過小評価していることを示す。
次に、平均場仮定を適切に緩和すると、不確かさの定量化が高次元で悪化しないVI法が得られることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While generalized linear mixed models (GLMMs) are a fundamental tool in
applied statistics, many specifications -- such as those involving categorical
factors with many levels or interaction terms -- can be computationally
challenging to estimate due to the need to compute or approximate
high-dimensional integrals. Variational inference (VI) methods are a popular
way to perform such computations, especially in the Bayesian context. However,
naive VI methods can provide unreliable uncertainty quantification. We show
that this is indeed the case in the GLMM context, proving that standard VI
(i.e. mean-field) dramatically underestimates posterior uncertainty in
high-dimensions. We then show how appropriately relaxing the mean-field
assumption leads to VI methods whose uncertainty quantification does not
deteriorate in high-dimensions, and whose total computational cost scales
linearly with the number of parameters and observations. Our theoretical and
numerical results focus on GLMMs with Gaussian or binomial likelihoods, and
rely on connections to random graph theory to obtain sharp high-dimensional
asymptotic analysis. We also provide generic results, which are of independent
interest, relating the accuracy of variational inference to the convergence
rate of the corresponding coordinate ascent variational inference (CAVI)
algorithm for Gaussian targets. Our proposed partially-factorized VI (PF-VI)
methodology for GLMMs is implemented in the R package vglmer, see
https://github.com/mgoplerud/vglmer . Numerical results with simulated and real
data examples illustrate the favourable computation cost versus accuracy
trade-off of PF-VI.
- Abstract(参考訳): 一般化線形混合モデル(glmms)は応用統計学における基本的なツールであるが、多数のレベルや相互作用項を持つ分類因子を含む多くの仕様は、高次元積分の計算や近似の必要性から計算的に難しい。
変分推論(VI)法は、特にベイズ文脈において、そのような計算を行う一般的な方法である。
しかし、ナイーブVI法は信頼できない不確実性を定量化することができる。
GLMMの文脈では、標準VI(平均場)が高次元の後方の不確かさを劇的に過小評価していることが示される。
次に, 平均場推定がいかに適切に緩和され, 高次元では不確かさの定量化が低下せず, 計算コストがパラメータ数や観測値と線形に縮まるvi法が導かれるかを示す。
我々の理論的および数値的な結果はガウス的あるいは二項的確率を持つGLMMに焦点をあて、急激な高次元漸近解析を得るためにランダムグラフ理論への接続に依存する。
また,変分推定の精度をガウス目標に対するCAVIアルゴリズムの収束率に関連付ける,独立した関心を持つ総合的な結果も提供する。
GLMMのための部分分解VI(PF-VI)手法をRパッケージvglmerに実装した。
シミュレーションおよび実データ例を用いた数値結果はpf-viの計算コストと精度のトレードオフを示す。
関連論文リスト
- Multivariate root-n-consistent smoothing parameter free matching estimators and estimators of inverse density weighted expectations [51.000851088730684]
我々は、パラメトリックな$sqrt n $-rateで収束する、最も近い隣人の新しい修正とマッチング推定器を開発する。
我々は,非パラメトリック関数推定器は含まないこと,特に標本サイズ依存パラメータの平滑化には依存していないことを強調する。
論文 参考訳(メタデータ) (2024-07-11T13:28:34Z) - Variational Bayesian surrogate modelling with application to robust design optimisation [0.9626666671366836]
サロゲートモデルは複雑な計算モデルに対して素早く評価できる近似を提供する。
入力の不確かさと次元減少を伴う統計的代理を構築するためのベイズ推定について考察する。
コスト関数がモデル出力の平均および標準偏差の重み付け和に依存するような本質的で頑健な構造最適化問題を示す。
論文 参考訳(メタデータ) (2024-04-23T09:22:35Z) - Posterior and Computational Uncertainty in Gaussian Processes [52.26904059556759]
ガウスのプロセスはデータセットのサイズとともに違法にスケールする。
多くの近似法が開発されており、必然的に近似誤差を導入している。
この余分な不確実性の原因は、計算が限られているため、近似後部を使用すると完全に無視される。
本研究では,観測された有限個のデータと有限個の計算量の両方から生じる組合せ不確実性を一貫した推定を行う手法の開発を行う。
論文 参考訳(メタデータ) (2022-05-30T22:16:25Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - A similarity-based Bayesian mixture-of-experts model [0.5156484100374058]
多変量回帰問題に対する新しい非パラメトリック混合実験モデルを提案する。
条件付きモデルを用いて、サンプル外入力の予測は、観測された各データポイントと類似性に基づいて行われる。
混合物のパラメータと距離測定値に基づいて後部推論を行う。
論文 参考訳(メタデータ) (2020-12-03T18:08:30Z) - Instability, Computational Efficiency and Statistical Accuracy [101.32305022521024]
我々は,人口レベルでのアルゴリズムの決定論的収束率と,$n$サンプルに基づく経験的対象に適用した場合の(不安定性)の間の相互作用に基づいて,統計的精度を得るフレームワークを開発する。
本稿では,ガウス混合推定,非線形回帰モデル,情報的非応答モデルなど,いくつかの具体的なモデルに対する一般結果の応用について述べる。
論文 参考訳(メタデータ) (2020-05-22T22:30:52Z) - Machine learning for causal inference: on the use of cross-fit
estimators [77.34726150561087]
より優れた統計特性を得るために、二重ローバストなクロスフィット推定器が提案されている。
平均因果効果(ACE)に対する複数の推定器の性能評価のためのシミュレーション研究を行った。
機械学習で使用する場合、二重確率のクロスフィット推定器は、バイアス、分散、信頼区間のカバレッジで他のすべての推定器よりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-04-21T23:09:55Z) - Asymptotic Analysis of an Ensemble of Randomly Projected Linear
Discriminants [94.46276668068327]
[1]では、ランダムに投影された線形判別式のアンサンブルを用いてデータセットを分類する。
我々は,計算コストのかかるクロスバリデーション推定器の代替として,誤分類確率の一貫した推定器を開発する。
また、実データと合成データの両方で投影次元を調整するための推定器の使用を実証する。
論文 参考訳(メタデータ) (2020-04-17T12:47:04Z) - Maximum likelihood estimation and uncertainty quantification for
Gaussian process approximation of deterministic functions [10.319367855067476]
本稿は、ガウス過程の回帰の文脈において、ノイズのないデータセットを用いた最初の理論的分析の1つを提供する。
本稿では,スケールパラメータのみの最大推定がガウス過程モデルの不特定に対する顕著な適応をもたらすことを示す。
論文 参考訳(メタデータ) (2020-01-29T17:20:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。