論文の概要: Laplace Matching for fast Approximate Inference in Generalized Linear
Models
- arxiv url: http://arxiv.org/abs/2105.03109v1
- Date: Fri, 7 May 2021 08:25:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 18:31:26.375321
- Title: Laplace Matching for fast Approximate Inference in Generalized Linear
Models
- Title(参考訳): 一般化線形モデルにおける高速近似推論のためのラプラスマッチング
- Authors: Marius Hobbhahn, Philipp Hennig
- Abstract要約: 本論文では,高い近似品質を実現しつつ,計算的に安価に設計した近似推論フレームワークを提案する。
我々が emphLaplace Matching と呼ぶこの概念は、指数群のパラメータ空間間の閉形式、近似、双方向変換を含む。
これにより、GLMにおける推論を(小さな近似誤差で)共役推論に変換する。
- 参考スコア(独自算出の注目度): 27.70274403550477
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bayesian inference in generalized linear models (GLMs), i.e.~Gaussian
regression with non-Gaussian likelihoods, is generally non-analytic and
requires computationally expensive approximations, such as sampling or
variational inference. We propose an approximate inference framework primarily
designed to be computationally cheap while still achieving high approximation
quality. The concept, which we call \emph{Laplace Matching}, involves
closed-form, approximate, bi-directional transformations between the parameter
spaces of exponential families. These are constructed from Laplace
approximations under custom-designed basis transformations. The mappings can
then be leveraged to effectively turn a latent Gaussian distribution into a
conjugate prior for a rich class of observable variables. This effectively
turns inference in GLMs into conjugate inference (with small approximation
errors). We empirically evaluate the method in two different GLMs, showing
approximation quality comparable to state-of-the-art approximate inference
techniques at a drastic reduction in computational cost. More specifically, our
method has a cost comparable to the \emph{very first} step of the iterative
optimization usually employed in standard GLM inference.
- Abstract(参考訳): 一般化線形モデル(GLMs)におけるベイズ推論(英語版)、すなわち、非ガウス的確率を持つガウス回帰は一般に非解析的であり、サンプリングや変分推論のような計算コストのかかる近似を必要とする。
提案手法は,高い近似品質を保ちながら,計算量的に安価であるように設計された近似推論フレームワークを提案する。
この概念は \emph{laplace matching} と呼ばれ、指数関数族のパラメータ空間の間の閉形式、近似、双方向変換を含む。
これらはカスタム設計の基底変換の下でラプラス近似から構築される。
それらの写像は、可観測変数のリッチクラスの前に潜在ガウス分布を共役に効果的に変換するために利用できる。
これにより、GLMにおける推論は(近似誤差が小さい)共役推論へと効果的に変換される。
提案手法を2つの異なるGLMで実験的に評価し,計算コストの大幅な削減にあたり,最先端の近似推論手法に匹敵する近似品質を示す。
より具体的には、我々の手法は標準GLM推論で通常用いられる反復最適化のemph{very first}ステップに匹敵するコストを持つ。
関連論文リスト
- Likelihood approximations via Gaussian approximate inference [3.4991031406102238]
ガウス密度による非ガウス確率の影響を近似する効率的なスキームを提案する。
その結果,大規模な点推定および分布推定設定における二進分類と多進分類の近似精度が向上した。
副産物として,提案した近似ログ類似度は,ニューラルネットワーク分類のためのラベルの最小二乗よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-10-28T05:39:26Z) - Robust scalable initialization for Bayesian variational inference with
multi-modal Laplace approximations [0.0]
フル共分散構造を持つ変分混合は、パラメータ数による変動パラメータによる二次的な成長に苦しむ。
本稿では,変分推論のウォームスタートに使用できる初期ガウスモデル近似を構築する方法を提案する。
論文 参考訳(メタデータ) (2023-07-12T19:30:04Z) - Variational sparse inverse Cholesky approximation for latent Gaussian
processes via double Kullback-Leibler minimization [6.012173616364571]
後肢の変分近似とSIC制限したKulback-Leibler-Optimal近似を併用した。
この設定のために、我々の変分近似は反復毎の多対数時間で勾配降下によって計算できる。
本稿では,DKLGP(Double-Kullback-Leibler-Optimal Gaussian-process approximation)を提案する。
論文 参考訳(メタデータ) (2023-01-30T21:50:08Z) - Posterior and Computational Uncertainty in Gaussian Processes [52.26904059556759]
ガウスのプロセスはデータセットのサイズとともに違法にスケールする。
多くの近似法が開発されており、必然的に近似誤差を導入している。
この余分な不確実性の原因は、計算が限られているため、近似後部を使用すると完全に無視される。
本研究では,観測された有限個のデータと有限個の計算量の両方から生じる組合せ不確実性を一貫した推定を行う手法の開発を行う。
論文 参考訳(メタデータ) (2022-05-30T22:16:25Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Sparse Algorithms for Markovian Gaussian Processes [18.999495374836584]
スパースマルコフ過程は、誘導変数の使用と効率的なカルマンフィルタライク再帰を結合する。
我々は,局所ガウス項を用いて非ガウス的確率を近似する一般的なサイトベースアプローチであるsitesを導出する。
提案手法は,変動推論,期待伝播,古典非線形カルマンスムーサなど,機械学習と信号処理の両方から得られるアルゴリズムの新たなスパース拡張の一群を導出する。
派生した方法は、モデルが時間と空間の両方で別々の誘導点を持つ文学時間データに適しています。
論文 参考訳(メタデータ) (2021-03-19T09:50:53Z) - Pathwise Conditioning of Gaussian Processes [72.61885354624604]
ガウス過程後部をシミュレーションするための従来のアプローチでは、有限個の入力位置のプロセス値の限界分布からサンプルを抽出する。
この分布中心の特徴づけは、所望のランダムベクトルのサイズで3次スケールする生成戦略をもたらす。
条件付けのこのパスワイズ解釈が、ガウス過程の後部を効率的にサンプリングするのに役立てる近似の一般族をいかに生み出すかを示す。
論文 参考訳(メタデータ) (2020-11-08T17:09:37Z) - Improving predictions of Bayesian neural nets via local linearization [79.21517734364093]
ガウス・ニュートン近似は基礎となるベイズニューラルネットワーク(BNN)の局所線形化として理解されるべきである。
この線形化モデルを後部推論に使用するので、元のモデルではなく、この修正モデルを使用することも予測すべきである。
この修正された予測を"GLM predictive"と呼び、Laplace近似の共通不適合問題を効果的に解決することを示す。
論文 参考訳(メタデータ) (2020-08-19T12:35:55Z) - Disentangling the Gauss-Newton Method and Approximate Inference for
Neural Networks [96.87076679064499]
我々は一般化されたガウスニュートンを解き、ベイズ深層学習の近似推論を行う。
ガウス・ニュートン法は基礎となる確率モデルを大幅に単純化する。
ガウス過程への接続は、新しい関数空間推論アルゴリズムを可能にする。
論文 参考訳(メタデータ) (2020-07-21T17:42:58Z) - Mean-Field Approximation to Gaussian-Softmax Integral with Application
to Uncertainty Estimation [23.38076756988258]
ディープニューラルネットワークにおける不確実性を定量化するための,新しい単一モデルに基づくアプローチを提案する。
平均場近似式を用いて解析的に難解な積分を計算する。
実験的に,提案手法は最先端の手法と比較して競合的に機能する。
論文 参考訳(メタデータ) (2020-06-13T07:32:38Z) - SLEIPNIR: Deterministic and Provably Accurate Feature Expansion for
Gaussian Process Regression with Derivatives [86.01677297601624]
本稿では,2次フーリエ特徴に基づく導関数によるGP回帰のスケーリング手法を提案する。
我々は、近似されたカーネルと近似された後部の両方に適用される決定論的、非漸近的、指数関数的に高速な崩壊誤差境界を証明した。
論文 参考訳(メタデータ) (2020-03-05T14:33:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。