論文の概要: Incremental Ensemble Gaussian Processes
- arxiv url: http://arxiv.org/abs/2110.06777v1
- Date: Wed, 13 Oct 2021 15:11:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-14 18:44:07.220191
- Title: Incremental Ensemble Gaussian Processes
- Title(参考訳): 増分アンサンブルガウス過程
- Authors: Qin Lu, Georgios V. Karanikolas, and Georgios B. Giannakis
- Abstract要約: 本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
- 参考スコア(独自算出の注目度): 53.3291389385672
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Belonging to the family of Bayesian nonparametrics, Gaussian process (GP)
based approaches have well-documented merits not only in learning over a rich
class of nonlinear functions, but also in quantifying the associated
uncertainty. However, most GP methods rely on a single preselected kernel
function, which may fall short in characterizing data samples that arrive
sequentially in time-critical applications. To enable {\it online} kernel
adaptation, the present work advocates an incremental ensemble (IE-) GP
framework, where an EGP meta-learner employs an {\it ensemble} of GP learners,
each having a unique kernel belonging to a prescribed kernel dictionary. With
each GP expert leveraging the random feature-based approximation to perform
online prediction and model update with {\it scalability}, the EGP meta-learner
capitalizes on data-adaptive weights to synthesize the per-expert predictions.
Further, the novel IE-GP is generalized to accommodate time-varying functions
by modeling structured dynamics at the EGP meta-learner and within each GP
learner. To benchmark the performance of IE-GP and its dynamic variant in the
adversarial setting where the modeling assumptions are violated, rigorous
performance analysis has been conducted via the notion of regret, as the norm
in online convex optimization. Last but not the least, online unsupervised
learning for dimensionality reduction is explored under the novel IE-GP
framework. Synthetic and real data tests demonstrate the effectiveness of the
proposed schemes.
- Abstract(参考訳): ベイズ非パラメトリックスに属する、ガウス過程(gp)に基づくアプローチは、リッチな非線形関数のクラスを学習するだけでなく、関連する不確かさを定量化する上でも十分に文書化されている。
しかし、ほとんどのgpメソッドは、事前選択された単一のカーネル関数に依存しており、時間クリティカルなアプリケーションで順次到着するデータサンプルを特徴付けるのに不足する可能性がある。
そこで本研究では,egpメタリアナーがgp学習者の「itアンサンブル」を採用し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ,インクリメンタルアンサンブル(ie-)gpフレームワークを提唱する。
各gpエキスパートは、ランダムな特徴に基づく近似を利用してオンラインの予測とモデル更新を {\it scalability} で行い、egpメタリーナーはデータ適応重みに乗じて専門家一人当たりの予測を合成する。
さらに、新しいIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
オンライン凸最適化における標準として,IE-GPとその動的変種の性能を,モデリング仮定に反する逆条件で評価するために,後悔の概念を用いて厳密な性能解析を行った。
最後に,新しいIE-GPフレームワークの下で,次元削減のためのオンライン教師なし学習について検討した。
合成および実データテストは,提案手法の有効性を示す。
関連論文リスト
- Domain Invariant Learning for Gaussian Processes and Bayesian
Exploration [39.83530605880014]
そこで本研究では,確率を最小限に最適化したガウス過程(DIL-GP)の領域不変学習アルゴリズムを提案する。
数値実験により、複数の合成および実世界のデータセットの予測におけるDIL-GPの優位性を示す。
論文 参考訳(メタデータ) (2023-12-18T16:13:34Z) - A Kronecker product accelerated efficient sparse Gaussian Process
(E-SGP) for flow emulation [2.563626165548781]
本稿では,流体力学の代理モデリングのための効率的なスパースガウス法(E-SGP)を提案する。
これは、効率的なGP(E-GP)と変動エネルギーのないガウス過程(VEF-SGP)の概念を組み合わせた近似スパースGPアルゴリズムのさらなる発展である。
論文 参考訳(メタデータ) (2023-12-13T11:29:40Z) - Linear Time GPs for Inferring Latent Trajectories from Neural Spike
Trains [7.936841911281107]
我々は,Hida-Mat'ernカーネルと共役変分推論(CVI)を利用した潜在GPモデルの一般的な推論フレームワークであるcvHMを提案する。
我々は任意の確率で線形時間複雑性を持つ潜在神経軌道の変分推定を行うことができる。
論文 参考訳(メタデータ) (2023-06-01T16:31:36Z) - Interactive Segmentation as Gaussian Process Classification [58.44673380545409]
クリックベースのインタラクティブセグメンテーション(IS)は、ユーザインタラクション下で対象オブジェクトを抽出することを目的としている。
現在のディープラーニング(DL)ベースの手法のほとんどは、主にセマンティックセグメンテーションの一般的なパイプラインに従っている。
本稿では,各画像上でガウス過程(GP)に基づく画素単位のバイナリ分類モデルとしてISタスクを定式化することを提案する。
論文 参考訳(メタデータ) (2023-02-28T14:01:01Z) - Weighted Ensembles for Active Learning with Adaptivity [60.84896785303314]
本稿では,ラベル付きデータに漸進的に適応した重み付きGPモデルのアンサンブルについて述べる。
この新しいEGPモデルに基づいて、不確実性および不一致ルールに基づいて、一連の取得関数が出現する。
適応的に重み付けされたEGPベースの取得関数のアンサンブルも、さらなる性能向上のために導入されている。
論文 参考訳(メタデータ) (2022-06-10T11:48:49Z) - Surrogate modeling for Bayesian optimization beyond a single Gaussian
process [62.294228304646516]
本稿では,探索空間の活用と探索のバランスをとるための新しいベイズ代理モデルを提案する。
拡張性のある関数サンプリングを実現するため、GPモデル毎にランダムな特徴ベースのカーネル近似を利用する。
提案した EGP-TS を大域的最適に収束させるため,ベイズ的後悔の概念に基づいて解析を行う。
論文 参考訳(メタデータ) (2022-05-27T16:43:10Z) - Robust and Adaptive Temporal-Difference Learning Using An Ensemble of
Gaussian Processes [70.80716221080118]
本稿では、時間差学習(TD)による政策評価の世代的視点について考察する。
OS-GPTDアプローチは、状態-逆ペアのシーケンスを観測することにより、与えられたポリシーの値関数を推定するために開発された。
1つの固定カーネルに関連する限られた表現性を緩和するために、GP前の重み付けアンサンブル(E)を用いて代替のスキームを生成する。
論文 参考訳(メタデータ) (2021-12-01T23:15:09Z) - Non-Gaussian Gaussian Processes for Few-Shot Regression [71.33730039795921]
乱変数ベクトルの各成分上で動作し,パラメータを全て共有する可逆なODEベースのマッピングを提案する。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-10-26T10:45:25Z) - Sparse Gaussian Process Variational Autoencoders [24.86751422740643]
既存のGP-DGMにおける推論のアプローチは、点に基づくスパースGP近似をサポートしない。
我々は,スパースGP近似のパラメータ化に部分的推論ネットワークを用いることで特徴付けられるスパースガウス過程変動オートエンコーダ(GP-VAE)を開発した。
論文 参考訳(メタデータ) (2020-10-20T10:19:56Z) - Sequential Gaussian Processes for Online Learning of Nonstationary
Functions [9.997259201098602]
連続モンテカルロアルゴリズムは,オンラインの分散推論を可能としながら,非定常挙動を捉えたGPの無限混合に適合する。
提案手法は,時系列データにおける非定常性の存在下でのオンラインGP推定における最先端手法の性能を実証的に改善する。
論文 参考訳(メタデータ) (2019-05-24T02:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。