論文の概要: Partially Observable Gaussian Process Network and Doubly Stochastic Variational Inference
- arxiv url: http://arxiv.org/abs/2502.13905v1
- Date: Wed, 19 Feb 2025 17:39:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-20 14:00:57.700397
- Title: Partially Observable Gaussian Process Network and Doubly Stochastic Variational Inference
- Title(参考訳): 部分観測可能なガウス過程ネットワークと二重確率変分推論
- Authors: Saksham Kiroriwal, Julius Pfrommer, Jürgen Beyerer,
- Abstract要約: 本研究は,実世界のプロセスネットワークをモデル化するための部分観測可能ガウスプロセスネットワーク(POGPN)を紹介する。
POGPNは観測レンズ(観測可能性)を深いガウス過程の確立した推論法に組み込む。
ベンチマーク問題への応用は、トレーニングと推論の間に部分的な観察を組み込むことによって、ネットワーク全体の予測性能が向上することを示す。
- 参考スコア(独自算出の注目度): 8.819080044832718
- License:
- Abstract: To reduce the curse of dimensionality for Gaussian processes (GP), they can be decomposed into a Gaussian Process Network (GPN) of coupled subprocesses with lower dimensionality. In some cases, intermediate observations are available within the GPN. However, intermediate observations are often indirect, noisy, and incomplete in most real-world systems. This work introduces the Partially Observable Gaussian Process Network (POGPN) to model real-world process networks. We model a joint distribution of latent functions of subprocesses and make inferences using observations from all subprocesses. POGPN incorporates observation lenses (observation likelihoods) into the well-established inference method of deep Gaussian processes. We also introduce two training methods for POPGN to make inferences on the whole network using node observations. The application to benchmark problems demonstrates how incorporating partial observations during training and inference can improve the predictive performance of the overall network, offering a promising outlook for its practical application.
- Abstract(参考訳): ガウス過程(GP)の次元性の呪いを軽減するために、より低次元の結合サブプロセスのガウス過程ネットワーク(GPN)に分解することができる。
いくつかの場合、中間観察はGPN内で可能である。
しかし、ほとんどの実世界のシステムでは、中間観測はしばしば間接的でノイズがあり、不完全である。
本研究は,実世界のプロセスネットワークをモデル化するための部分観測可能ガウスプロセスネットワーク(POGPN)を紹介する。
サブプロセスの潜在関数の連成分布をモデル化し,すべてのサブプロセスからの観測値を用いて推論を行う。
POGPNは観測レンズ(観測可能性)を深いガウス過程の確立した推論法に組み込む。
また、ノード観測を用いてネットワーク全体の推測を行うために、POPGNの2つのトレーニング手法も導入する。
ベンチマーク問題への応用は、トレーニングと推論の間に部分的な観察を組み込むことで、ネットワーク全体の予測性能が向上し、実用的な応用に期待できる見通しを提供する。
関連論文リスト
- Finite Neural Networks as Mixtures of Gaussian Processes: From Provable Error Bounds to Prior Selection [11.729744197698718]
有限幅と深さのニューラルネットワークを近似するアルゴリズム的枠組みを提案する。
ニューラルネットワークの各層の出力分布をガウス過程の混合として反復的に近似する。
我々の結果は、ニューラルネットワークの予測を理解するための重要なステップである。
論文 参考訳(メタデータ) (2024-07-26T12:45:53Z) - Posterior Contraction Rates for Mat\'ern Gaussian Processes on
Riemannian Manifolds [51.68005047958965]
我々は,本質的なガウス過程が実際により優れた性能を発揮することを示す。
我々の研究は、データ効率の異なるレベルを区別するために、よりきめ細かい分析が必要であることを示している。
論文 参考訳(メタデータ) (2023-09-19T20:30:58Z) - A Bayesian Take on Gaussian Process Networks [1.7188280334580197]
この研究はモンテカルロ法とマルコフ・チェイン・モンテカルロ法を実装し、ネットワーク構造の後方分布からサンプリングする。
提案手法は,ネットワークのグラフィカルな構造を復元する上で,最先端のアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-20T08:38:31Z) - Vecchia Gaussian Process Ensembles on Internal Representations of Deep
Neural Networks [0.0]
レグレッションタスクでは、標準ガウス過程(GP)は自然な不確実性定量化を提供し、ディープニューラルネットワーク(DNN)は表現学習に優れる。
本稿では,DNNの隠れ層の出力に基づいて構築されたGPのアンサンブルからなるハイブリッド手法で,これらの2つの手法を組み合わせることを提案する。
論文 参考訳(メタデータ) (2023-05-26T16:19:26Z) - Neural Diffusion Processes [12.744250155946503]
そこで我々は, 関数上の豊富な分布から, 有限限界を通してサンプルを学習するニューラル拡散過程 (NDP) を提案する。
我々はNDPが真のベイズ後部に近い機能的分布を捉えることを実証的に示す。
NDPは、回帰、暗黙のハイパーマージン化、非ガウスの後方予測、グローバル最適化など、様々な下流タスクを可能にする。
論文 参考訳(メタデータ) (2022-06-08T16:13:04Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Non-Gaussian Gaussian Processes for Few-Shot Regression [71.33730039795921]
乱変数ベクトルの各成分上で動作し,パラメータを全て共有する可逆なODEベースのマッピングを提案する。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-10-26T10:45:25Z) - Revisiting the Sample Complexity of Sparse Spectrum Approximation of
Gaussian Processes [60.479499225746295]
本稿では,ガウス過程に対して,パラメータ空間全体に対して同時に保持可能な保証付きスケーラブルな近似を導入する。
我々の近似は、スパーススペクトルガウス過程(SSGP)のための改良されたサンプル複雑性解析から得られる。
論文 参考訳(メタデータ) (2020-11-17T05:41:50Z) - Pathwise Conditioning of Gaussian Processes [72.61885354624604]
ガウス過程後部をシミュレーションするための従来のアプローチでは、有限個の入力位置のプロセス値の限界分布からサンプルを抽出する。
この分布中心の特徴づけは、所望のランダムベクトルのサイズで3次スケールする生成戦略をもたらす。
条件付けのこのパスワイズ解釈が、ガウス過程の後部を効率的にサンプリングするのに役立てる近似の一般族をいかに生み出すかを示す。
論文 参考訳(メタデータ) (2020-11-08T17:09:37Z) - MAGMA: Inference and Prediction with Multi-Task Gaussian Processes [4.368185344922342]
タスク間で情報を共有するための共通平均プロセスを用いて,新しいマルチタスクガウスプロセス(GP)フレームワークを提案する。
私たちの全体的なアルゴリズムは textscMagma と呼ばれています(MeAn を用いた Multi tAsk Gaussian プロセスに対応しています)。
論文 参考訳(メタデータ) (2020-07-21T11:43:54Z) - Infinitely Wide Graph Convolutional Networks: Semi-supervised Learning
via Gaussian Processes [144.6048446370369]
グラフ畳み込みニューラルネットワーク(GCN)は近年,グラフに基づく半教師付き半教師付き分類において有望な結果を示した。
グラフに基づく半教師付き学習のためのGCN(GPGC)を用いたGP回帰モデルを提案する。
GPGCを評価するための広範囲な実験を行い、他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-26T10:02:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。