論文の概要: Efficient Transformed Gaussian Processes for Non-Stationary Dependent
Multi-class Classification
- arxiv url: http://arxiv.org/abs/2205.15008v1
- Date: Mon, 30 May 2022 11:46:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-01 01:28:44.385651
- Title: Efficient Transformed Gaussian Processes for Non-Stationary Dependent
Multi-class Classification
- Title(参考訳): 非定常依存多クラス分類のための効率的な変換ガウス過程
- Authors: Juan Maro\~nas and Daniel Hern\'andez-Lobato
- Abstract要約: ETGP(Efficient Transformed Gaussian Process)は,1) Cプロセスは非定常的,2) Cプロセスは混合行列を必要としない構造に依存し,3) トレーニングと予測は非常に効率的である。
ETGPは、一般的に、GPに基づくマルチクラス分類における最先端の手法よりも優れており、計算コストが低いことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This work introduces the Efficient Transformed Gaussian Process (ETGP), a new
way of creating C stochastic processes characterized by: 1) the C processes are
non-stationary, 2) the C processes are dependent by construction without
needing a mixing matrix, 3) training and making predictions is very efficient
since the number of Gaussian Processes (GP) operations (e.g. inverting the
inducing point's covariance matrix) do not depend on the number of processes.
This makes the ETGP particularly suited for multi-class problems with a very
large number of classes, which are the problems studied in this work. ETGPs
exploit the recently proposed Transformed Gaussian Process (TGP), a stochastic
process specified by transforming a Gaussian Process using an invertible
transformation. However, unlike TGPs, ETGPs are constructed by transforming a
single sample from a GP using C invertible transformations. We derive an
efficient sparse variational inference algorithm for the proposed model and
demonstrate its utility in 5 classification tasks which include
low/medium/large datasets and a different number of classes, ranging from just
a few to hundreds. Our results show that ETGPs, in general, outperform
state-of-the-art methods for multi-class classification based on GPs, and have
a lower computational cost (around one order of magnitude smaller).
- Abstract(参考訳): この研究は、以下に特徴付けられるC確率過程を作成する新しい方法であるETGP(Efficient Transformed Gaussian Process)を紹介する。
1) C 過程は非定常である。
2) c過程は混合行列を必要とせずに構成に依存する。
3) ガウス過程(gp)の操作数(例えば、誘導点の共分散行列を反転させる)はプロセス数に依存しないため、トレーニングと予測は非常に効率的である。
これにより、ETGPは、非常に多くのクラスを持つマルチクラス問題に特に適しており、この研究で研究されている問題である。
ETGPは、最近提案された変換ガウス過程 (Transformed Gaussian Process, TGP) を利用する。
しかし、TGPとは異なり、ETGPはC可逆変換を用いて1つのサンプルをGPから変換することで構成される。
提案モデルの効率的なスパース変分推論アルゴリズムを導出し,低/中/大規模データセットと異なる数のクラスを含む5つの分類タスクにおいて,その有用性を示す。
以上の結果から,ETGP は,GP に基づくマルチクラス分類における最先端の手法よりも高い性能を示し,計算コストが低く(桁違いに小さい)。
関連論文リスト
- Sample-efficient Bayesian Optimisation Using Known Invariances [56.34916328814857]
バニラと制約付きBOアルゴリズムは、不変目的を最適化する際の非効率性を示す。
我々はこれらの不変カーネルの最大情報ゲインを導出する。
核融合炉用電流駆動システムの設計に本手法を用い, 高性能溶液の探索を行った。
論文 参考訳(メタデータ) (2024-10-22T12:51:46Z) - Gaussian Processes Sampling with Sparse Grids under Additive Schwarz Preconditioner [6.408773096179187]
本稿では,GPモデルの前と後をランダムに実現するためのスケーラブルなアルゴリズムを提案する。
提案アルゴリズムはスパースグリッドを用いた点近似と加法的シュワルツプレコンディショナーを利用する。
論文 参考訳(メタデータ) (2024-08-01T00:19:36Z) - Deep Transformed Gaussian Processes [0.0]
変換ガウス過程(英: Transformed Gaussian Processs、TGP)は、可逆変換を用いて、前者のプロセス(典型的にはGP)からサンプルを共分散から変換することによって定義される過程である。
本稿では,プロセスの階層化の傾向に従い,DTGP(Deep Transformed Gaussian Processs)と呼ばれるTGPの一般化を提案する。
実験では、提案したDTGPを複数の回帰データセットで評価し、優れたスケーラビリティと性能を実現した。
論文 参考訳(メタデータ) (2023-10-27T16:09:39Z) - Heterogeneous Multi-Task Gaussian Cox Processes [61.67344039414193]
異種相関タスクを共同でモデル化するためのマルチタスクガウスコックスプロセスの新たな拡張を提案する。
MOGPは、分類、回帰、ポイントプロセスタスクの専用可能性のパラメータに先行して、異種タスク間の情報の共有を容易にする。
モデルパラメータを推定するための閉形式反復更新を実現する平均場近似を導出する。
論文 参考訳(メタデータ) (2023-08-29T15:01:01Z) - Shallow and Deep Nonparametric Convolutions for Gaussian Processes [0.0]
GPの非パラメトリックプロセス畳み込み定式化を導入し,機能サンプリング手法を用いて弱点を緩和する。
古典的ディープGPモデルの代替となるこれらの非パラメトリック畳み込みの合成を提案する。
論文 参考訳(メタデータ) (2022-06-17T19:03:04Z) - Gaussian Processes and Statistical Decision-making in Non-Euclidean
Spaces [96.53463532832939]
我々はガウス過程の適用性を高める技術を開発した。
この観点から構築した効率的な近似を幅広く導入する。
非ユークリッド空間上のガウス過程モデルの集合を開発する。
論文 参考訳(メタデータ) (2022-02-22T01:42:57Z) - Scaling Gaussian Process Optimization by Evaluating a Few Unique
Candidates Multiple Times [119.41129787351092]
GPに基づく逐次ブラックボックス最適化は,複数の評価ステップの候補解に固執することで効率よく行うことができることを示す。
GP-UCB と GP-EI の2つのよく確立されたGP-Opt アルゴリズムを改良し,バッチ化された GP-Opt の規則を適応させる。
論文 参考訳(メタデータ) (2022-01-30T20:42:14Z) - Non-Gaussian Gaussian Processes for Few-Shot Regression [71.33730039795921]
乱変数ベクトルの各成分上で動作し,パラメータを全て共有する可逆なODEベースのマッピングを提案する。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-10-26T10:45:25Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - SigGPDE: Scaling Sparse Gaussian Processes on Sequential Data [16.463077353773603]
SigGPDEは,ガウス過程(GP)を逐次データに基づいて拡張可能な分散変動推論フレームワークである。
GPシグネチャカーネルの勾配は双曲偏微分方程式(PDE)の解であることを示す。
この理論的な洞察により、ELBOを最適化する効率的なバックプロパゲーションアルゴリズムを構築することができる。
論文 参考訳(メタデータ) (2021-05-10T09:10:17Z) - Sparse Orthogonal Variational Inference for Gaussian Processes [34.476453597078894]
誘導点を用いたガウス過程に対するスパース変分近似の新しい解釈を導入する。
この定式化は既存の近似を復元し、同時に限界確率と新しい変分推論アルゴリズムのより厳密な下界を得ることができることを示す。
論文 参考訳(メタデータ) (2019-10-23T15:01:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。