論文の概要: GGMPs: Generalized Gaussian Mixture Processes
- arxiv url: http://arxiv.org/abs/2603.10442v1
- Date: Wed, 11 Mar 2026 05:50:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.79509
- Title: GGMPs: Generalized Gaussian Mixture Processes
- Title(参考訳): GGMPs:一般ガウス混合プロセス
- Authors: Vardaan Tekriwal, Mark D. Risser, Hengrui Luo, Marcus M. Noack,
- Abstract要約: 条件密度推定は多モード性、ヘテロセダスティック性、強い非ガウス性によって複雑である。
GPに基づくマルチモーダル条件密度推定法である一般化ガウス混合プロセス(GGMP)を提案する。
- 参考スコア(独自算出の注目度): 1.3066182802188202
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conditional density estimation is complicated by multimodality, heteroscedasticity, and strong non-Gaussianity. Gaussian processes (GPs) provide a principled nonparametric framework with calibrated uncertainty, but standard GP regression is limited by its unimodal Gaussian predictive form. We introduce the Generalized Gaussian Mixture Process (GGMP), a GP-based method for multimodal conditional density estimation in settings where each input may be associated with a complex output distribution rather than a single scalar response. GGMP combines local Gaussian mixture fitting, cross-input component alignment and per-component heteroscedastic GP training to produce a closed-form Gaussian mixture predictive density. The method is tractable, compatible with standard GP solvers and scalable methods, and avoids the exponentially large latent-assignment structure of naive multimodal GP formulations. Empirically, GGMPs improve distributional approximation on synthetic and real-world datasets with pronounced non-Gaussianity and multimodality.
- Abstract(参考訳): 条件密度推定は多モード性、ヘテロセダスティック性、強い非ガウス性によって複雑である。
ガウス過程(GP)は、キャリブレートされた不確実性を持つ原則化された非パラメトリックなフレームワークを提供するが、標準GP回帰はガウスの単項予測形式によって制限される。
本稿では,GPに基づくマルチモーダル条件密度推定法である一般化ガウス混合プロセス(GGMP)を提案する。
GGMPは、局所的なガウス混合フィッティング、クロスインプット成分アライメント、および成分ごとのヘテロセダスティックGPトレーニングを組み合わせて、クローズドフォームのガウス混合予測密度を生成する。
この方法は、通常のGPソルバやスケーラブルな手法と互換性があり、単純マルチモーダルGP定式化の指数関数的に大きな潜在割り当て構造を避けることができる。
実験的に、GGMPは非ガウス性および多モード性を示す合成および実世界のデータセットの分布近似を改善する。
関連論文リスト
- Toward Global Convergence of Gradient EM for Over-Parameterized Gaussian Mixture Models [47.294535652946095]
ガウス混合モデル(GMM)の勾配予測-最大化(EM)アルゴリズムについて検討する。
これは、2ドル以上の成分を持つガウス混合に対する最初の大域収束結果である。
論文 参考訳(メタデータ) (2024-06-29T16:44:29Z) - Gaussian Process Regression with Soft Inequality and Monotonicity Constraints [0.0]
確率的手法で物理制約を強制する新しいGP法を提案する。
このGPモデルは量子に着想を得たハミルトンモンテカルロ(QHMC)によって訓練される
論文 参考訳(メタデータ) (2024-04-03T17:09:25Z) - Deep Transformed Gaussian Processes [0.0]
変換ガウス過程(英: Transformed Gaussian Processs、TGP)は、可逆変換を用いて、前者のプロセス(典型的にはGP)からサンプルを共分散から変換することによって定義される過程である。
本稿では,プロセスの階層化の傾向に従い,DTGP(Deep Transformed Gaussian Processs)と呼ばれるTGPの一般化を提案する。
実験では、提案したDTGPを複数の回帰データセットで評価し、優れたスケーラビリティと性能を実現した。
論文 参考訳(メタデータ) (2023-10-27T16:09:39Z) - Deep Gaussian Mixture Ensembles [9.673093148930874]
この研究は、ディープガウス混合アンサンブル(DGME)と呼ばれる新しい確率的深層学習技術を導入している。
DGMEは、重み付き分布やマルチモーダル分布などの複雑な確率分布を近似することができる。
実験の結果,DGMEは複雑な予測密度を扱う深層学習モデルにおいて,最先端の不確実性よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-06-12T16:53:38Z) - Non-Gaussian Gaussian Processes for Few-Shot Regression [71.33730039795921]
乱変数ベクトルの各成分上で動作し,パラメータを全て共有する可逆なODEベースのマッピングを提案する。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-10-26T10:45:25Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Plug-And-Play Learned Gaussian-mixture Approximate Message Passing [71.74028918819046]
そこで本研究では,従来のi.i.d.ソースに適した圧縮圧縮センシング(CS)リカバリアルゴリズムを提案する。
我々のアルゴリズムは、Borgerdingの学習AMP(LAMP)に基づいて構築されるが、アルゴリズムに普遍的な復調関数を採用することにより、それを大幅に改善する。
数値評価により,L-GM-AMPアルゴリズムは事前の知識を必要とせず,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-11-18T16:40:45Z) - Revisiting the Sample Complexity of Sparse Spectrum Approximation of
Gaussian Processes [60.479499225746295]
本稿では,ガウス過程に対して,パラメータ空間全体に対して同時に保持可能な保証付きスケーラブルな近似を導入する。
我々の近似は、スパーススペクトルガウス過程(SSGP)のための改良されたサンプル複雑性解析から得られる。
論文 参考訳(メタデータ) (2020-11-17T05:41:50Z) - Modulating Scalable Gaussian Processes for Expressive Statistical
Learning [25.356503463916816]
ガウス過程(GP)は、入力と出力の間の統計的関係を学ぶことに興味がある。
本稿では,非定常ヘテロセダスティックGP,GPと潜在GPの混合を含む,スケーラブルなGPパラダイムについて検討し,よりリッチでガウス的でない統計表現を学習するために,出力や入力を変調する潜在変数を導入する。
論文 参考訳(メタデータ) (2020-08-29T06:41:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。