論文の概要: Convolutional Normalizing Flows for Deep Gaussian Processes
- arxiv url: http://arxiv.org/abs/2104.08472v1
- Date: Sat, 17 Apr 2021 07:25:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 13:44:01.563257
- Title: Convolutional Normalizing Flows for Deep Gaussian Processes
- Title(参考訳): 深いガウス過程に対する畳み込み正規化流れ
- Authors: Haibin Yu, Bryan Kian Hsiang Low, Patrick Jaillet, Dapeng Liu
- Abstract要約: 本稿では、柔軟で任意に複雑でスケーラブルな後方分布を特定するための新しいアプローチを提案する。
新しい畳み込み正規化フロー(CNF)が開発され、時間効率を改善し、層間の依存性を捉える。
経験的評価は、CNF DGPがDGPの最先端近似法より優れていることを示している。
- 参考スコア(独自算出の注目度): 40.10797051603641
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep Gaussian processes (DGPs), a hierarchical composition of GP models, have
successfully boosted the expressive power than the single-layer counterpart.
However, it is impossible to perform exact inference in DGPs, which has
motivated the recent development of variational inference based methods.
Unfortunately, these methods either yield a biased posterior belief or are
difficult to evaluate the convergence. This paper, on the contrary, introduces
a new approach for specifying flexible, arbitrarily complex, and scalable
approximate posterior distributions. The posterior distribution is constructed
through a normalizing flow (NF) which transforms a simple initial probability
into a more complex one through a sequence of invertible transformations.
Moreover, a novel convolutional normalizing flow (CNF) is developed to improve
the time efficiency and capture dependency between layers. Empirical evaluation
demonstrates that CNF DGP outperforms the state-of-the-art approximation
methods for DGPs.
- Abstract(参考訳): GPモデルの階層的な構成であるディープガウス過程(DGP)は、単層プロセスよりも表現力を高めることに成功した。
しかし、近年の変分推論に基づく手法の開発を動機づけたDGPでは正確な推論を行うことはできない。
残念ながら、これらの手法はバイアスのある後続の信念を生み出すか、収束を評価するのが難しい。
そこで本研究では, 柔軟で任意に複雑で, スケーラブルな後方分布を規定するための新しい手法を提案する。
後方分布は、単純な初期確率を可逆変換の列を通してより複雑なものに変換する正規化流れ(nf)によって構成される。
さらに,新しい畳み込み正規化流(CNF)を開発し,時間効率の向上と層間依存性の捕捉を図る。
CNF DGPはDGPの最先端近似法よりも優れていた。
関連論文リスト
- Amortized Variational Inference for Deep Gaussian Processes [0.0]
ディープガウス過程(DGP)はガウス過程(GP)の多層一般化である
本稿では,DGPに対して,各観測を変動パラメータにマッピングする推論関数を学習するアモータライズされた変分推論を導入する。
本手法は, 計算コストの低い従来の手法よりも, 同様に, あるいはより優れた性能を示す。
論文 参考訳(メタデータ) (2024-09-18T20:23:27Z) - Deep Transformed Gaussian Processes [0.0]
変換ガウス過程(英: Transformed Gaussian Processs、TGP)は、可逆変換を用いて、前者のプロセス(典型的にはGP)からサンプルを共分散から変換することによって定義される過程である。
本稿では,プロセスの階層化の傾向に従い,DTGP(Deep Transformed Gaussian Processs)と呼ばれるTGPの一般化を提案する。
実験では、提案したDTGPを複数の回帰データセットで評価し、優れたスケーラビリティと性能を実現した。
論文 参考訳(メタデータ) (2023-10-27T16:09:39Z) - Matching Normalizing Flows and Probability Paths on Manifolds [57.95251557443005]
連続正規化フロー (Continuous Normalizing Flows, CNFs) は、常微分方程式(ODE)を解くことによって、先行分布をモデル分布に変換する生成モデルである。
我々は,CNFが生成する確率密度パスと目標確率密度パスとの間に生じる新たな分岐系であるPPDを最小化して,CNFを訓練することを提案する。
PPDの最小化によって得られたCNFは、既存の低次元多様体のベンチマークにおいて、その可能性とサンプル品質が得られることを示す。
論文 参考訳(メタデータ) (2022-07-11T08:50:19Z) - Shallow and Deep Nonparametric Convolutions for Gaussian Processes [0.0]
GPの非パラメトリックプロセス畳み込み定式化を導入し,機能サンプリング手法を用いて弱点を緩和する。
古典的ディープGPモデルの代替となるこれらの非パラメトリック畳み込みの合成を提案する。
論文 参考訳(メタデータ) (2022-06-17T19:03:04Z) - Non-Gaussian Gaussian Processes for Few-Shot Regression [71.33730039795921]
乱変数ベクトルの各成分上で動作し,パラメータを全て共有する可逆なODEベースのマッピングを提案する。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-10-26T10:45:25Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Likelihood-Free Inference with Deep Gaussian Processes [70.74203794847344]
サーロゲートモデルは、シミュレータ評価の回数を減らすために、可能性のない推論に成功している。
本稿では,より不規則な対象分布を扱えるディープガウス過程(DGP)サロゲートモデルを提案する。
本実験は,DGPがマルチモーダル分布を持つ目的関数上でGPよりも優れ,単調な場合と同等の性能を維持できることを示す。
論文 参考訳(メタデータ) (2020-06-18T14:24:05Z) - Conditional Deep Gaussian Processes: multi-fidelity kernel learning [6.599344783327053]
固定された低忠実度データにより遅延GPを直接支持する条件付きDGPモデルを提案する。
合成および高次元データを用いた実験は、他の多次元回帰法と同等の性能を示す。
低忠実度データと階層DGP構造により、実効カーネルは真関数の帰納バイアスを符号化する。
論文 参考訳(メタデータ) (2020-02-07T14:56:11Z) - Learning Likelihoods with Conditional Normalizing Flows [54.60456010771409]
条件正規化フロー(CNF)はサンプリングと推論において効率的である。
出力空間写像に対する基底密度が入力 x 上で条件づけられた CNF について、条件密度 p(y|x) をモデル化する。
論文 参考訳(メタデータ) (2019-11-29T19:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。