論文の概要: Latent Map Gaussian Processes for Mixed Variable Metamodeling
- arxiv url: http://arxiv.org/abs/2102.03935v1
- Date: Sun, 7 Feb 2021 22:21:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 14:31:06.312140
- Title: Latent Map Gaussian Processes for Mixed Variable Metamodeling
- Title(参考訳): 混合可変メタモデリングのための潜在マップガウス過程
- Authors: Nicholas Oune, Ramin Bostanabad
- Abstract要約: GPの魅力的な特性を継承するが、混合データにも適用できる潜在写像ガウス過程(LMGP)を導入する。
LMGPは可変長入力を処理でき、定性的入力が応答にどのように影響するか、相互に相互作用するかについての洞察を提供する。
また, LMGPのニューラルネットワーク解釈を行い, 先行潜時表現が性能に与える影響について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gaussian processes (GPs) are ubiquitously used in sciences and engineering as
metamodels. Standard GPs, however, can only handle numerical or quantitative
variables. In this paper, we introduce latent map Gaussian processes (LMGPs)
that inherit the attractive properties of GPs but are also applicable to mixed
data that have both quantitative and qualitative inputs. The core idea behind
LMGPs is to learn a low-dimensional manifold where all qualitative inputs are
represented by some quantitative features. To learn this manifold, we first
assign a unique prior vector representation to each combination of qualitative
inputs. We then use a linear map to project these priors on a manifold that
characterizes the posterior representations. As the posteriors are
quantitative, they can be straightforwardly used in any standard correlation
function such as the Gaussian. Hence, the optimal map and the corresponding
manifold can be efficiently learned by maximizing the Gaussian likelihood
function. Through a wide range of analytical and real-world examples, we
demonstrate the advantages of LMGPs over state-of-the-art methods in terms of
accuracy and versatility. In particular, we show that LMGPs can handle
variable-length inputs and provide insights into how qualitative inputs affect
the response or interact with each other. We also provide a neural network
interpretation of LMGPs and study the effect of prior latent representations on
their performance.
- Abstract(参考訳): ガウス過程(GP)は、科学や工学においてメタモデルとして広く使われている。
しかし、標準的なgpsは数値変数や量変数しか扱えない。
本稿では,GPの魅力的特性を継承する潜在写像ガウス過程(LMGP)を紹介するが,定量値と定性値の両方を持つ混合データにも適用可能である。
LMGPの背後にある基本的な考え方は、すべての定性的な入力がいくつかの定量的な特徴で表される低次元多様体を学ぶことである。
この多様体を学ぶために、まず定性入力の各組み合わせに一意な先行ベクトル表現を割り当てる。
次に、線型写像を用いてこれらの先行を後述表現を特徴づける多様体上に射影する。
後者は定量的であるため、ガウスのような任意の標準相関関数で簡単に使用できる。
したがって、最適写像と対応する多様体はガウス確率関数を最大化することで効率的に学習することができる。
解析的および実世界の幅広い例を通して、精度と汎用性の観点から、最先端の手法よりもLMGPの利点を実証する。
特に,lmgpsは可変長入力を処理し,質的入力が応答にどのように影響するか,あるいは相互に作用するかについての洞察を与える。
また, LMGPのニューラルネットワーク解釈を行い, 先行潜時表現が性能に与える影響について検討する。
関連論文リスト
- Domain Invariant Learning for Gaussian Processes and Bayesian
Exploration [39.83530605880014]
そこで本研究では,確率を最小限に最適化したガウス過程(DIL-GP)の領域不変学習アルゴリズムを提案する。
数値実験により、複数の合成および実世界のデータセットの予測におけるDIL-GPの優位性を示す。
論文 参考訳(メタデータ) (2023-12-18T16:13:34Z) - GP+: A Python Library for Kernel-based learning via Gaussian Processes [0.0]
ガウス過程(GP)を通したカーネルベースの学習用オープンソースライブラリGP+を紹介する。
GP+はPyTorch上に構築されており、確率的学習と推論のためのユーザフレンドリでオブジェクト指向のツールを提供する。
論文 参考訳(メタデータ) (2023-12-12T19:39:40Z) - Interactive Segmentation as Gaussian Process Classification [58.44673380545409]
クリックベースのインタラクティブセグメンテーション(IS)は、ユーザインタラクション下で対象オブジェクトを抽出することを目的としている。
現在のディープラーニング(DL)ベースの手法のほとんどは、主にセマンティックセグメンテーションの一般的なパイプラインに従っている。
本稿では,各画像上でガウス過程(GP)に基づく画素単位のバイナリ分類モデルとしてISタスクを定式化することを提案する。
論文 参考訳(メタデータ) (2023-02-28T14:01:01Z) - Weighted Ensembles for Active Learning with Adaptivity [60.84896785303314]
本稿では,ラベル付きデータに漸進的に適応した重み付きGPモデルのアンサンブルについて述べる。
この新しいEGPモデルに基づいて、不確実性および不一致ルールに基づいて、一連の取得関数が出現する。
適応的に重み付けされたEGPベースの取得関数のアンサンブルも、さらなる性能向上のために導入されている。
論文 参考訳(メタデータ) (2022-06-10T11:48:49Z) - A Sparse Expansion For Deep Gaussian Processes [33.29293167413832]
ガウス過程(TMGP)に基づいた高精度な推論と効率的なトレーニングのための効率的なスキームを提案する。
合成モデルと実データセットに関する数値実験により、既存のDGPモデルよりもDTMGPの計算効率が優れていることを示した。
論文 参考訳(メタデータ) (2021-12-11T00:59:33Z) - Non-Gaussian Gaussian Processes for Few-Shot Regression [71.33730039795921]
乱変数ベクトルの各成分上で動作し,パラメータを全て共有する可逆なODEベースのマッピングを提案する。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-10-26T10:45:25Z) - Incremental Ensemble Gaussian Processes [53.3291389385672]
本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
論文 参考訳(メタデータ) (2021-10-13T15:11:25Z) - Mat\'ern Gaussian Processes on Graphs [67.13902825728718]
我々は、マタン・ガウス過程の偏微分方程式のキャラクタリゼーションを利用して、そのアナログを無向グラフに対して研究する。
得られたガウス過程がユークリッドアナログやユークリッドアナログの様々な魅力的な性質を継承することを示す。
これにより、グラフのMat'ern Gaussianプロセスがミニバッチや非共役設定に使用できる。
論文 参考訳(メタデータ) (2020-10-29T13:08:07Z) - Graph Based Gaussian Processes on Restricted Domains [13.416168979487118]
非パラメトリック回帰では、入力はユークリッド空間の制限された部分集合に落ちるのが一般的である。
入力領域の幾何学を尊重する共分散を学習するグラフラプラシアン型GP(GL-GP)の新たなクラスを提案する。
本稿では,GL-GP手法の理論的サポートを提供し,各種アプリケーションの性能向上を示す。
論文 参考訳(メタデータ) (2020-10-14T17:01:29Z) - Infinitely Wide Graph Convolutional Networks: Semi-supervised Learning
via Gaussian Processes [144.6048446370369]
グラフ畳み込みニューラルネットワーク(GCN)は近年,グラフに基づく半教師付き半教師付き分類において有望な結果を示した。
グラフに基づく半教師付き学習のためのGCN(GPGC)を用いたGP回帰モデルを提案する。
GPGCを評価するための広範囲な実験を行い、他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-26T10:02:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。