論文の概要: SigGPDE: Scaling Sparse Gaussian Processes on Sequential Data
- arxiv url: http://arxiv.org/abs/2105.04211v1
- Date: Mon, 10 May 2021 09:10:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 15:15:21.189172
- Title: SigGPDE: Scaling Sparse Gaussian Processes on Sequential Data
- Title(参考訳): SigGPDE:シーケンスデータに基づくスパースガウスプロセスのスケーリング
- Authors: Maud Lemercier, Cristopher Salvi, Thomas Cass, Edwin V. Bonilla,
Theodoros Damoulas, Terry Lyons
- Abstract要約: SigGPDEは,ガウス過程(GP)を逐次データに基づいて拡張可能な分散変動推論フレームワークである。
GPシグネチャカーネルの勾配は双曲偏微分方程式(PDE)の解であることを示す。
この理論的な洞察により、ELBOを最適化する効率的なバックプロパゲーションアルゴリズムを構築することができる。
- 参考スコア(独自算出の注目度): 16.463077353773603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Making predictions and quantifying their uncertainty when the input data is
sequential is a fundamental learning challenge, recently attracting increasing
attention. We develop SigGPDE, a new scalable sparse variational inference
framework for Gaussian Processes (GPs) on sequential data. Our contribution is
twofold. First, we construct inducing variables underpinning the sparse
approximation so that the resulting evidence lower bound (ELBO) does not
require any matrix inversion. Second, we show that the gradients of the GP
signature kernel are solutions of a hyperbolic partial differential equation
(PDE). This theoretical insight allows us to build an efficient
back-propagation algorithm to optimize the ELBO. We showcase the significant
computational gains of SigGPDE compared to existing methods, while achieving
state-of-the-art performance for classification tasks on large datasets of up
to 1 million multivariate time series.
- Abstract(参考訳): 入力データがシーケンシャルな場合の予測と不確かさの定量化は基本的な学習課題であり、近年は注目を集めている。
SigGPDEは,ガウス過程(GP)を逐次データに基づいて拡張可能な分散変動推論フレームワークである。
私たちの貢献は2倍です。
まず、スパース近似の根底にある変数を誘導し、その結果のエビデンスの下限(ELBO)が行列反転を必要としないように構成する。
次に,GPシグネチャカーネルの勾配は双曲偏微分方程式(PDE)の解であることを示す。
この理論的洞察により、ELBOを最適化する効率的なバックプロパゲーションアルゴリズムを構築することができる。
本稿では,SigGPDEの計算精度を既存手法と比較し,最大100万個の多変量時系列の大規模データセット上での分類タスクの最先端性能を示す。
関連論文リスト
- Domain Invariant Learning for Gaussian Processes and Bayesian
Exploration [39.83530605880014]
そこで本研究では,確率を最小限に最適化したガウス過程(DIL-GP)の領域不変学習アルゴリズムを提案する。
数値実験により、複数の合成および実世界のデータセットの予測におけるDIL-GPの優位性を示す。
論文 参考訳(メタデータ) (2023-12-18T16:13:34Z) - Large-Scale Gaussian Processes via Alternating Projection [23.79090469387859]
本稿では,カーネル行列のサブブロックのみにアクセスする反復的手法を提案する。
我々のアルゴリズムは、交互プロジェクションに基づくもので、GPを非常に大きなデータセットにスケールするという現実的な課題の多くを解決し、各イテレーション時間と空間の複雑さを$mathcalO(n)で解決している。
論文 参考訳(メタデータ) (2023-10-26T04:20:36Z) - Heterogeneous Multi-Task Gaussian Cox Processes [61.67344039414193]
異種相関タスクを共同でモデル化するためのマルチタスクガウスコックスプロセスの新たな拡張を提案する。
MOGPは、分類、回帰、ポイントプロセスタスクの専用可能性のパラメータに先行して、異種タスク間の情報の共有を容易にする。
モデルパラメータを推定するための閉形式反復更新を実現する平均場近似を導出する。
論文 参考訳(メタデータ) (2023-08-29T15:01:01Z) - Improved Convergence Rate of Stochastic Gradient Langevin Dynamics with
Variance Reduction and its Application to Optimization [50.83356836818667]
勾配ランゲヴィン・ダイナミクスは非エプス最適化問題を解くための最も基本的なアルゴリズムの1つである。
本稿では、このタイプの2つの変種、すなわち、分散還元ランジュバンダイナミクスと再帰勾配ランジュバンダイナミクスを示す。
論文 参考訳(メタデータ) (2022-03-30T11:39:00Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Kernel Clustering with Sigmoid-based Regularization for Efficient
Segmentation of Sequential Data [3.8326963933937885]
セグメント化は、データシーケンスを非線形で複雑な構造を持つ複数の重複しないセグメントに分割することを目的としている。
この問題を最適に解決するための一般的なカーネルは動的プログラミング(DP)である。
最適セグメンテーションを近似するために多くのアルゴリズムが提案されているが、それらの解の品質は保証されていない。
論文 参考訳(メタデータ) (2021-06-22T04:32:21Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Correcting Momentum with Second-order Information [50.992629498861724]
最適積に$O(epsilon)$epsilon点を求める非臨界最適化のための新しいアルゴリズムを開発した。
我々は、さまざまな大規模ディープラーニングベンチマークとアーキテクチャで結果を検証する。
論文 参考訳(メタデータ) (2021-03-04T19:01:20Z) - Single-Timescale Stochastic Nonconvex-Concave Optimization for Smooth
Nonlinear TD Learning [145.54544979467872]
本稿では,各ステップごとに1つのデータポイントしか必要としない2つの単一スケールシングルループアルゴリズムを提案する。
本研究の結果は, 同時一次および二重側収束の形で表される。
論文 参考訳(メタデータ) (2020-08-23T20:36:49Z) - Quadruply Stochastic Gaussian Processes [10.152838128195466]
本稿では,スケーラブルなガウス過程(GP)モデルをトレーニングするための変分推論手法を提案する。この手法は,トレーニング点数,$n$,カーネル近似で使用される数基底関数,$m$のいずれにも依存しない。
GPと関連ベクトルマシンを用いた大規模分類および回帰データセットの精度を,最大で$m = 107$の基底関数で示す。
論文 参考訳(メタデータ) (2020-06-04T17:06:25Z) - Dual Stochastic Natural Gradient Descent and convergence of interior
half-space gradient approximations [0.0]
多項ロジスティック回帰(MLR)は統計学や機械学習で広く使われている。
勾配降下(SGD)は、ビッグデータシナリオにおけるMLRモデルのパラメータを決定する最も一般的な手法である。
論文 参考訳(メタデータ) (2020-01-19T00:53:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。