論文の概要: Adaptive Inducing Points Selection For Gaussian Processes
- arxiv url: http://arxiv.org/abs/2107.10066v1
- Date: Wed, 21 Jul 2021 13:22:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-22 17:32:03.737383
- Title: Adaptive Inducing Points Selection For Gaussian Processes
- Title(参考訳): ガウス過程に対する適応誘導点選択
- Authors: Th\'eo Galy-Fajou, Manfred Opper
- Abstract要約: citebui 2017streamingは、スペーサリティ技術を用いてオンラインGPをトレーニングするための効率的な変分手法を開発した。
観測全体の集合は、小さなインジェクションポイント(textbfIPs)によって近似され、新しいデータで動き回る。
位置の最適化に加えて,GPの特性とデータ構造に基づいて,新たな点を適応的に追加することを提案する。
- 参考スコア(独自算出の注目度): 4.066211670342284
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gaussian Processes (\textbf{GPs}) are flexible non-parametric models with
strong probabilistic interpretation. While being a standard choice for
performing inference on time series, GPs have few techniques to work in a
streaming setting. \cite{bui2017streaming} developed an efficient variational
approach to train online GPs by using sparsity techniques: The whole set of
observations is approximated by a smaller set of inducing points (\textbf{IPs})
and moved around with new data. Both the number and the locations of the IPs
will affect greatly the performance of the algorithm. In addition to optimizing
their locations, we propose to adaptively add new points, based on the
properties of the GP and the structure of the data.
- Abstract(参考訳): ガウス過程 (Gaussian Processes) は、強い確率論的解釈を持つフレキシブルな非パラメトリックモデルである。
時系列で推論を行うための標準的な選択肢であるが、GPにはストリーミング環境で動作させる技術がほとんどない。
\cite{bui2017streaming}は、スパーシティ技術を用いてオンラインgpsをトレーニングするための効率的な変分法を開発した。
IPの数と位置は、アルゴリズムの性能に大きな影響を与えるだろう。
位置の最適化に加えて,GPの特性とデータ構造に基づいて,新たな点を適応的に追加することを提案する。
関連論文リスト
- Domain Invariant Learning for Gaussian Processes and Bayesian
Exploration [39.83530605880014]
そこで本研究では,確率を最小限に最適化したガウス過程(DIL-GP)の領域不変学習アルゴリズムを提案する。
数値実験により、複数の合成および実世界のデータセットの予測におけるDIL-GPの優位性を示す。
論文 参考訳(メタデータ) (2023-12-18T16:13:34Z) - Thompson sampling for improved exploration in GFlowNets [75.89693358516944]
生成フローネットワーク(Generative Flow Networks, GFlowNets)は、合成対象物上の分布からのサンプリングを、学習可能なアクションポリシーを用いたシーケンシャルな意思決定問題として扱う、アモータイズされた変分推論アルゴリズムである。
2つの領域において、TS-GFNは、過去の研究で使われたオフ・ポリティクス・サーベイ・ストラテジーよりも、探索を改善し、目標分布への収束を早くすることを示す。
論文 参考訳(メタデータ) (2023-06-30T14:19:44Z) - Streaming PAC-Bayes Gaussian process regression with a performance
guarantee for online decision making [41.84834895660245]
本稿では,オンライン大まかに正しい(PAC)ベイズ理論に基づく,オンラインGPアルゴリズムの新たな理論的枠組みを提案する。
このフレームワークは、一般的なパフォーマンスと精度の保証を提供する。
他のオンラインGPアルゴリズムと比較すると、一般化保証と非常に競争的な精度が得られる。
論文 参考訳(メタデータ) (2022-10-16T08:39:20Z) - Adaptive Self-supervision Algorithms for Physics-informed Neural
Networks [59.822151945132525]
物理情報ニューラルネットワーク(PINN)は、損失関数のソフト制約として問題領域からの物理的知識を取り入れている。
これらのモデルの訓練性に及ぼす座標点の位置の影響について検討した。
モデルがより高い誤りを犯している領域に対して、より多くのコロケーションポイントを段階的に割り当てる適応的コロケーション方式を提案する。
論文 参考訳(メタデータ) (2022-07-08T18:17:06Z) - Shallow and Deep Nonparametric Convolutions for Gaussian Processes [0.0]
GPの非パラメトリックプロセス畳み込み定式化を導入し,機能サンプリング手法を用いて弱点を緩和する。
古典的ディープGPモデルの代替となるこれらの非パラメトリック畳み込みの合成を提案する。
論文 参考訳(メタデータ) (2022-06-17T19:03:04Z) - Deep Variational Implicit Processes [0.0]
入射過程(IPs)はガウス過程(GPs)の一般化である
本稿では,DVIP(Deep Variational Implicit Process)と呼ばれるIPの多層一般化を提案する。
論文 参考訳(メタデータ) (2022-06-14T10:04:41Z) - Scaling Gaussian Process Optimization by Evaluating a Few Unique
Candidates Multiple Times [119.41129787351092]
GPに基づく逐次ブラックボックス最適化は,複数の評価ステップの候補解に固執することで効率よく行うことができることを示す。
GP-UCB と GP-EI の2つのよく確立されたGP-Opt アルゴリズムを改良し,バッチ化された GP-Opt の規則を適応させる。
論文 参考訳(メタデータ) (2022-01-30T20:42:14Z) - Transformers Can Do Bayesian Inference [56.99390658880008]
我々はPFN(Presideed Data Fitted Networks)を提案する。
PFNは、大規模機械学習技術におけるインコンテキスト学習を活用して、大規模な後部集合を近似する。
我々は、PFNがガウス過程をほぼ完璧に模倣し、難解問題に対する効率的なベイズ推定を可能にすることを示した。
論文 参考訳(メタデータ) (2021-12-20T13:07:39Z) - Incremental Ensemble Gaussian Processes [53.3291389385672]
本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
論文 参考訳(メタデータ) (2021-10-13T15:11:25Z) - FedPD: A Federated Learning Framework with Optimal Rates and Adaptivity
to Non-IID Data [59.50904660420082]
フェデレートラーニング(FL)は、分散データから学ぶための一般的なパラダイムになっています。
クラウドに移行することなく、さまざまなデバイスのデータを効果的に活用するために、Federated Averaging(FedAvg)などのアルゴリズムでは、"Computation then aggregate"(CTA)モデルを採用している。
論文 参考訳(メタデータ) (2020-05-22T23:07:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。