論文の概要: Derivation of Output Correlation Inferences for Multi-Output (aka Multi-Task) Gaussian Process
- arxiv url: http://arxiv.org/abs/2501.07964v1
- Date: Tue, 14 Jan 2025 09:35:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-15 13:27:46.754257
- Title: Derivation of Output Correlation Inferences for Multi-Output (aka Multi-Task) Gaussian Process
- Title(参考訳): 多出力ガウス過程における出力相関推定の導出
- Authors: Shuhei Watanabe,
- Abstract要約: マルチタスクGP(MTGP)は、複数の出力の依存関係を考慮するために定式化される。
本稿ではMTGPの定式化とその勾配のフレンドリな導出を行う。
- 参考スコア(独自算出の注目度): 2.6868760903545863
- License:
- Abstract: Gaussian process (GP) is arguably one of the most widely used machine learning algorithms in practice. One of its prominent applications is Bayesian optimization (BO). Although the vanilla GP itself is already a powerful tool for BO, it is often beneficial to be able to consider the dependencies of multiple outputs. To do so, Multi-task GP (MTGP) is formulated, but it is not trivial to fully understand the derivations of its formulations and their gradients from the previous literature. This paper serves friendly derivations of the MTGP formulations and their gradients.
- Abstract(参考訳): ガウス過程(GP)は、おそらく最も広く使われている機械学習アルゴリズムの1つである。
その顕著な応用の1つはベイズ最適化(BO)である。
バニラGP自体は既にBOの強力なツールであるが、複数の出力の依存関係を考慮できることは、しばしば有益である。
そのため、Multi-task GP (MTGP) は定式化されるが、その定式化の導出とその勾配を以前の文献から完全に理解することは容易ではない。
本稿ではMTGPの定式化とその勾配のフレンドリな導出を行う。
関連論文リスト
- Domain Invariant Learning for Gaussian Processes and Bayesian
Exploration [39.83530605880014]
そこで本研究では,確率を最小限に最適化したガウス過程(DIL-GP)の領域不変学習アルゴリズムを提案する。
数値実験により、複数の合成および実世界のデータセットの予測におけるDIL-GPの優位性を示す。
論文 参考訳(メタデータ) (2023-12-18T16:13:34Z) - Interactive Segmentation as Gaussian Process Classification [58.44673380545409]
クリックベースのインタラクティブセグメンテーション(IS)は、ユーザインタラクション下で対象オブジェクトを抽出することを目的としている。
現在のディープラーニング(DL)ベースの手法のほとんどは、主にセマンティックセグメンテーションの一般的なパイプラインに従っている。
本稿では,各画像上でガウス過程(GP)に基づく画素単位のバイナリ分類モデルとしてISタスクを定式化することを提案する。
論文 参考訳(メタデータ) (2023-02-28T14:01:01Z) - Shallow and Deep Nonparametric Convolutions for Gaussian Processes [0.0]
GPの非パラメトリックプロセス畳み込み定式化を導入し,機能サンプリング手法を用いて弱点を緩和する。
古典的ディープGPモデルの代替となるこれらの非パラメトリック畳み込みの合成を提案する。
論文 参考訳(メタデータ) (2022-06-17T19:03:04Z) - Efficient Transformed Gaussian Processes for Non-Stationary Dependent
Multi-class Classification [0.0]
ETGP(Efficient Transformed Gaussian Process)は,1) Cプロセスは非定常的,2) Cプロセスは混合行列を必要としない構造に依存し,3) トレーニングと予測は非常に効率的である。
ETGPは、一般的に、GPに基づくマルチクラス分類における最先端の手法よりも優れており、計算コストが低いことを示す。
論文 参考訳(メタデータ) (2022-05-30T11:46:23Z) - Scaling Gaussian Process Optimization by Evaluating a Few Unique
Candidates Multiple Times [119.41129787351092]
GPに基づく逐次ブラックボックス最適化は,複数の評価ステップの候補解に固執することで効率よく行うことができることを示す。
GP-UCB と GP-EI の2つのよく確立されたGP-Opt アルゴリズムを改良し,バッチ化された GP-Opt の規則を適応させる。
論文 参考訳(メタデータ) (2022-01-30T20:42:14Z) - A Sparse Expansion For Deep Gaussian Processes [33.29293167413832]
ガウス過程(TMGP)に基づいた高精度な推論と効率的なトレーニングのための効率的なスキームを提案する。
合成モデルと実データセットに関する数値実験により、既存のDGPモデルよりもDTMGPの計算効率が優れていることを示した。
論文 参考訳(メタデータ) (2021-12-11T00:59:33Z) - Non-Gaussian Gaussian Processes for Few-Shot Regression [71.33730039795921]
乱変数ベクトルの各成分上で動作し,パラメータを全て共有する可逆なODEベースのマッピングを提案する。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-10-26T10:45:25Z) - Incremental Ensemble Gaussian Processes [53.3291389385672]
本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
論文 参考訳(メタデータ) (2021-10-13T15:11:25Z) - GP-Tree: A Gaussian Process Classifier for Few-Shot Incremental Learning [23.83961717568121]
GP-Treeはガウス過程と深層カーネル学習を用いた多クラス分類の新しい手法である。
木に基づく階層モデルを構築し,各内部ノードがデータにGPを適合させる。
我々の手法は、クラス数とデータサイズの両方でうまくスケールする。
論文 参考訳(メタデータ) (2021-02-15T22:16:27Z) - Likelihood-Free Inference with Deep Gaussian Processes [70.74203794847344]
サーロゲートモデルは、シミュレータ評価の回数を減らすために、可能性のない推論に成功している。
本稿では,より不規則な対象分布を扱えるディープガウス過程(DGP)サロゲートモデルを提案する。
本実験は,DGPがマルチモーダル分布を持つ目的関数上でGPよりも優れ,単調な場合と同等の性能を維持できることを示す。
論文 参考訳(メタデータ) (2020-06-18T14:24:05Z) - Mat\'ern Gaussian processes on Riemannian manifolds [81.15349473870816]
ガウス過程の広く用いられるマタン類を一般化する方法を示す。
また、Mat'ern から広く用いられる2乗指数過程への一般化も拡張する。
論文 参考訳(メタデータ) (2020-06-17T21:05:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。