論文の概要: Meta-Learning Hypothesis Spaces for Sequential Decision-making
- arxiv url: http://arxiv.org/abs/2202.00602v1
- Date: Tue, 1 Feb 2022 17:46:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-02 13:35:17.338331
- Title: Meta-Learning Hypothesis Spaces for Sequential Decision-making
- Title(参考訳): シーケンス決定のためのメタ学習仮説空間
- Authors: Parnian Kassraie, Jonas Rothfuss, Andreas Krause
- Abstract要約: オフラインデータ(Meta-KeL)からカーネルをメタ学習することを提案する。
穏やかな条件下では、推定されたRKHSが有効な信頼セットを得られることを保証します。
また,ベイズ最適化におけるアプローチの有効性を実証的に評価した。
- 参考スコア(独自算出の注目度): 79.73213540203389
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Obtaining reliable, adaptive confidence sets for prediction functions
(hypotheses) is a central challenge in sequential decision-making tasks, such
as bandits and model-based reinforcement learning. These confidence sets
typically rely on prior assumptions on the hypothesis space, e.g., the known
kernel of a Reproducing Kernel Hilbert Space (RKHS). Hand-designing such
kernels is error prone, and misspecification may lead to poor or unsafe
performance. In this work, we propose to meta-learn a kernel from offline data
(Meta-KeL). For the case where the unknown kernel is a combination of known
base kernels, we develop an estimator based on structured sparsity. Under mild
conditions, we guarantee that our estimated RKHS yields valid confidence sets
that, with increasing amounts of offline data, become as tight as those given
the true unknown kernel. We demonstrate our approach on the kernelized bandit
problem (a.k.a.~Bayesian optimization), where we establish regret bounds
competitive with those given the true kernel. We also empirically evaluate the
effectiveness of our approach on a Bayesian optimization task.
- Abstract(参考訳): 予測関数(仮説)に対する信頼性が高く適応的な信頼セットを得ることは、バンディットやモデルベースの強化学習のような逐次的な意思決定タスクにおいて中心的な課題である。
これらの信頼集合は通常、仮説空間(例えば、再生ケルネルヒルベルト空間(RKHS)の既知の核)に先行仮定に依存する。
このようなカーネルのハンドデザインはエラーを起こしやすく、誤特定は性能の低下や安全性の低下につながる可能性がある。
本研究では,オフラインデータ(Meta-KeL)からカーネルをメタ学習することを提案する。
未知のカーネルが既知のベースカーネルの組み合わせである場合、構造的空間性に基づく推定器を開発する。
穏やかな条件下では、推定されたRKHSが正当性を持つことを保証し、オフラインデータの量が増加するにつれて、真の未知のカーネルが与えられたものと同じくらい厳密になる。
我々は、カーネル化された帯域幅問題(すなわちベイズ最適化)に対する我々のアプローチを実証し、真のカーネルが与えられたものと競合する後悔境界を確立する。
また,ベイズ最適化におけるアプローチの有効性を実証的に評価した。
関連論文リスト
- Kernel-Based Function Approximation for Average Reward Reinforcement Learning: An Optimist No-Regret Algorithm [11.024396385514864]
無限水平平均報酬設定における近似RLのカーネル関数について考察する。
本稿では,バンディットの特別な場合において,取得関数に基づくアルゴリズムと類似した楽観的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-30T23:04:10Z) - Tighter Confidence Bounds for Sequential Kernel Regression [3.683202928838613]
我々は、シーケンシャルカーネル回帰のための新しい信頼境界を確立するために、マーチンゲールテール不等式を使用する。
私たちの信頼境界は円錐プログラムを解くことで計算できるが、この素バージョンはすぐに非現実的になる。
信頼性境界が既存のものを置き換えると、KernelUCBアルゴリズムはより優れた経験的性能、最悪のパフォーマンス保証、それに匹敵する計算コストが得られます。
論文 参考訳(メタデータ) (2024-03-19T13:47:35Z) - Information-Theoretic Safe Bayesian Optimization [59.758009422067005]
そこでは、未知の(安全でない)制約に反するパラメータを評価することなく、未知の関数を最適化することを目的としている。
現在のほとんどのメソッドはドメインの離散化に依存しており、連続ケースに直接拡張することはできない。
本稿では,GP後部を直接利用して,最も情報に富む安全なパラメータを識別する情報理論的安全な探索基準を提案する。
論文 参考訳(メタデータ) (2024-02-23T14:31:10Z) - Likelihood Ratio Confidence Sets for Sequential Decision Making [51.66638486226482]
確率に基づく推論の原理を再検討し、確率比を用いて妥当な信頼シーケンスを構築することを提案する。
本手法は, 精度の高い問題に特に適している。
提案手法は,オンライン凸最適化への接続に光を当てることにより,推定器の最適シーケンスを確実に選択する方法を示す。
論文 参考訳(メタデータ) (2023-11-08T00:10:21Z) - Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient Kernels [57.46832672991433]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - On the Sublinear Regret of GP-UCB [58.25014663727544]
ガウス過程上信頼境界 (GP-UCB) アルゴリズムは, ほぼ最適の後悔率を有することを示す。
私たちの改善は、基盤となるカーネルの滑らかさに比例してカーネルリッジ推定を正規化するという、重要な技術的貢献に依存しています。
論文 参考訳(メタデータ) (2023-07-14T13:56:11Z) - Guided Deep Kernel Learning [42.53025115287688]
無限幅ニューラルネットワークを用いて深層カーネルを学習するための新しい手法を提案する。
提案手法は,新しいデータポイントに遭遇した場合に,DKL目標の信頼度に適応するために,NNGPの信頼性の高い不確実性推定を利用する。
論文 参考訳(メタデータ) (2023-02-19T13:37:34Z) - Kernel Mean Estimation by Marginalized Corrupted Distributions [96.9272743070371]
カーネル平均をヒルベルト空間で推定することは、多くのカーネル学習アルゴリズムにおいて重要な要素である。
本稿では,カーネル平均推定器としてカーネル平均推定器を提案する。
論文 参考訳(メタデータ) (2021-07-10T15:11:28Z) - The Promises and Pitfalls of Deep Kernel Learning [13.487684503022063]
簡単なおもちゃの例で, オーバーフィッティングを含む病理学的挙動を同定する。
この病理学を探求し、その起源を説明し、実際のデータセットに適用する方法について考察する。
深層カーネル学習の完全なベイズ処理は、このオーバーフィットを是正し、望ましいパフォーマンス改善を得ることができる。
論文 参考訳(メタデータ) (2021-02-24T07:56:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。