論文の概要: Informative Planning for Worst-Case Error Minimisation in Sparse
Gaussian Process Regression
- arxiv url: http://arxiv.org/abs/2203.03828v1
- Date: Tue, 8 Mar 2022 03:26:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 15:41:51.383529
- Title: Informative Planning for Worst-Case Error Minimisation in Sparse
Gaussian Process Regression
- Title(参考訳): スパースガウス過程回帰における最悪の誤差最小化のインフォーマティブプランニング
- Authors: Jennifer Wakulicz, Ki Myung Brian Lee, Chanyeol Yoo, Teresa
Vidal-Calleja, Robert Fitch
- Abstract要約: 我々は,境界雑音を伴うスパースGPレグレッションに対して,普遍的な最悪の誤差を導出する。
後続エントロピー最小化問題を解くことにより,最悪のエラー最小化を実現することができることを示す。
- 参考スコア(独自算出の注目度): 28.50144453974764
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a planning framework for minimising the deterministic worst-case
error in sparse Gaussian process (GP) regression. We first derive a universal
worst-case error bound for sparse GP regression with bounded noise using
interpolation theory on reproducing kernel Hilbert spaces (RKHSs). By
exploiting the conditional independence (CI) assumption central to sparse GP
regression, we show that the worst-case error minimisation can be achieved by
solving a posterior entropy minimisation problem. In turn, the posterior
entropy minimisation problem is solved using a Gaussian belief space planning
algorithm. We corroborate the proposed worst-case error bound in a simple 1D
example, and test the planning framework in simulation for a 2D vehicle in a
complex flow field. Our results demonstrate that the proposed posterior entropy
minimisation approach is effective in minimising deterministic error, and
outperforms the conventional measurement entropy maximisation formulation when
the inducing points are fixed.
- Abstract(参考訳): スパースガウス過程(GP)回帰における決定論的最悪のエラーを最小限に抑えるための計画枠組みを提案する。
まず,再生成核ヒルベルト空間(rkhss)の補間理論を用いて,有界雑音を持つsparse gp回帰に対する普遍的最悪ケース境界を求める。
sparse gp回帰中心の条件付き独立性 (ci) 仮定を活用し, 後方エントロピー最小化問題を解くことで, 最悪の場合の誤差最小化を実現できることを示す。
次に、ガウス的信念空間計画アルゴリズムを用いて、後エントロピー最小化問題を解く。
提案する最悪のエラーを単純な1次元例で相関し、複雑な流れ場における2次元車両のシミュレーションにおいて計画枠組みをテストする。
その結果,提案手法は決定論的誤差を最小化し,誘導点が固定された場合の従来の計測エントロピー最大化定式化よりも優れることがわかった。
関連論文リスト
- Alternating Minimization Schemes for Computing Rate-Distortion-Perception Functions with $f$-Divergence Perception Constraints [10.564071872770146]
離散メモリレスソースに対するRDPF(Ralse-Distortion-Perception Function)の計算について検討した。
最適パラメトリック解を特徴付ける。
歪みと知覚制約について十分な条件を提供する。
論文 参考訳(メタデータ) (2024-08-27T12:50:12Z) - Faster One-Sample Stochastic Conditional Gradient Method for Composite
Convex Minimization [61.26619639722804]
滑らかで非滑らかな項の和として形成される凸有限サム目標を最小化するための条件勾配法(CGM)を提案する。
提案手法は, 平均勾配 (SAG) 推定器を備え, 1回に1回のサンプルしか必要としないが, より高度な分散低減技術と同等の高速収束速度を保証できる。
論文 参考訳(メタデータ) (2022-02-26T19:10:48Z) - Gaussian Process Inference Using Mini-batch Stochastic Gradient Descent:
Convergence Guarantees and Empirical Benefits [21.353189917487512]
勾配降下(SGD)とその変種は、機械学習問題のアルゴリズムとして確立されている。
我々は、最小バッチSGDが全ログ類似損失関数の臨界点に収束することを証明して一歩前進する。
我々の理論的な保証は、核関数が指数的あるいは固有デカイを示すことを前提としている。
論文 参考訳(メタデータ) (2021-11-19T22:28:47Z) - On the Double Descent of Random Features Models Trained with SGD [78.0918823643911]
勾配降下(SGD)により最適化された高次元におけるランダム特徴(RF)回帰特性について検討する。
本研究では, RF回帰の高精度な非漸近誤差境界を, 定常および適応的なステップサイズSGD設定の下で導出する。
理論的にも経験的にも二重降下現象を観察する。
論文 参考訳(メタデータ) (2021-10-13T17:47:39Z) - A Fully Problem-Dependent Regret Lower Bound for Finite-Horizon MDPs [117.82903457289584]
有限水平マルコフ決定過程(MDPs)における新たな問題依存的下界を導出する。
我々の下界は一般の場合よりもかなり小さく、最小の作用ギャップでスケールしないことが示される。
この最後の結果($poly(H)$の条件で、$H$は地平線である)は、楽観的なアルゴリズムのポリシーギャップに基づいて、後悔の意を表すことによって達成可能であることを示す。
論文 参考訳(メタデータ) (2021-06-24T13:46:09Z) - On the Minimal Error of Empirical Risk Minimization [90.09093901700754]
回帰作業における経験的リスク最小化(ERM)手順の最小誤差について検討する。
私たちの鋭い下限は、データを生成するモデルの単純さに適応する可能性(あるいは不可能)に光を当てています。
論文 参考訳(メタデータ) (2021-02-24T04:47:55Z) - Early stopping and polynomial smoothing in regression with reproducing kernels [2.0411082897313984]
再生カーネルヒルベルト空間(RKHS)における反復学習アルゴリズムの早期停止問題について検討する。
本稿では,いわゆる最小不一致原理に基づく検証セットを使わずに早期停止を行うデータ駆動型ルールを提案する。
提案したルールは、異なるタイプのカーネル空間に対して、ミニマックス最適であることが証明されている。
論文 参考訳(メタデータ) (2020-07-14T05:27:18Z) - Balancing Rates and Variance via Adaptive Batch-Size for Stochastic
Optimization Problems [120.21685755278509]
本研究は,ステップサイズの減衰が正確な収束に必要であるという事実と,一定のステップサイズがエラーまでの時間でより速く学習するという事実のバランスをとることを目的とする。
ステップサイズのミニバッチを最初から修正するのではなく,パラメータを適応的に進化させることを提案する。
論文 参考訳(メタデータ) (2020-07-02T16:02:02Z) - Learning Minimax Estimators via Online Learning [55.92459567732491]
確率分布のパラメータを推定するミニマックス推定器を設計する際の問題点を考察する。
混合ケースナッシュ平衡を求めるアルゴリズムを構築した。
論文 参考訳(メタデータ) (2020-06-19T22:49:42Z) - Consistent Online Gaussian Process Regression Without the Sample
Complexity Bottleneck [14.309243378538012]
本稿では,現在の後方中心のHellingerメトリックに対して,エラー近傍を修正可能なオンライン圧縮方式を提案する。
一定の誤差半径の場合、POG は集団後部の近傍 (Theorem 1(ii)) に収束するが、特徴空間の計量エントロピーによって決定される有限メモリのオン・ウォーストに収束する。
論文 参考訳(メタデータ) (2020-04-23T11:52:06Z) - Stochastic gradient algorithms from ODE splitting perspective [0.0]
我々は、ODEの近似解の分割スキームに遡る最適化に関する異なる見解を示す。
そこで本研究では, ODE の勾配一階分割方式と降下アプローチの関連性について述べる。
我々は、機械学習アプリケーションにインスパイアされた分割の特殊なケースを考察し、それに対するグローバルスプリッティングエラーに新たな上限を導出する。
論文 参考訳(メタデータ) (2020-04-19T22:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。