論文の概要: Event-Triggered Time-Varying Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2208.10790v1
- Date: Tue, 23 Aug 2022 07:50:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-24 12:36:17.276670
- Title: Event-Triggered Time-Varying Bayesian Optimization
- Title(参考訳): イベントトリガー時変ベイズ最適化
- Authors: Paul Brunzema, Alexander von Rohr, Friedrich Solowjow, Sebastian
Trimpe
- Abstract要約: 本稿では,対象関数の変化をオンラインで検出するイベントトリガーアルゴリズムET-GP-UCBを提案する。
トリガーは、目的関数に大きな変化が発生したときに自動的に検出する。
アルゴリズムは蓄積したデータセットをリセットすることで時間変化に適応する。
- 参考スコア(独自算出の注目度): 68.26772192227722
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of sequentially optimizing a time-varying objective
function using time-varying Bayesian optimization (TVBO). Here, the key
challenge is to cope with old data. Current approaches to TVBO require prior
knowledge of a constant rate of change. However, the rate of change is usually
neither known nor constant. We propose an event-triggered algorithm, ET-GP-UCB,
that detects changes in the objective function online. The event-trigger is
based on probabilistic uniform error bounds used in Gaussian process
regression. The trigger automatically detects when significant change in the
objective functions occurs. The algorithm then adapts to the temporal change by
resetting the accumulated dataset. We provide regret bounds for ET-GP-UCB and
show in numerical experiments that it is competitive with state-of-the-art
algorithms even though it requires no knowledge about the temporal changes.
Further, ET-GP-UCB outperforms these competitive baselines if the rate of
change is misspecified and we demonstrate that it is readily applicable to
various settings without tuning hyperparameters.
- Abstract(参考訳): 時変ベイズ最適化(tvbo)を用いた時変目的関数の逐次最適化の問題を考える。
ここで重要な課題は、古いデータに対処することだ。
現在のtvboへのアプローチでは、変化率の一定な事前知識が必要である。
しかし、変化の速度は通常は知られておらず、定数でもない。
本稿では,対象関数の変化をオンラインで検出するイベントトリガーアルゴリズムET-GP-UCBを提案する。
イベントトリガーは、ガウス過程の回帰で使われる確率的一様誤差境界に基づいている。
トリガーは、目的関数に大きな変化が発生したときに自動的に検出する。
アルゴリズムは蓄積したデータセットをリセットすることで時間変化に適応する。
ET-GP-UCBについて,時間的変化の知識を必要とせずとも,最先端のアルゴリズムと競合することを示す数値実験を行った。
さらに,ET-GP-UCBは,変化の度合いが不明確で,過度パラメータを調整せずに様々な設定に適用可能であることを示す。
関連論文リスト
- Neural variational Data Assimilation with Uncertainty Quantification using SPDE priors [28.804041716140194]
ディープラーニングコミュニティの最近の進歩は、ニューラルネットワークと変分データ同化フレームワークを通じて、この問題に対処することができる。
本研究では、部分微分方程式(SPDE)とガウス過程(GP)の理論を用いて状態の空間的および時間的共分散を推定する。
論文 参考訳(メタデータ) (2024-02-02T19:18:12Z) - Adaptive Sparse Gaussian Process [0.0]
これらの問題に対処できる最初の適応スパースガウスプロセス(GP)を提案する。
まず,変分スパースGPアルゴリズムを変形係数によって適応的に再構成する。
そこで我々は,新しいサンプルが到着するたびに,スパースGPモデルの単一誘導点と残りのモデルパラメータを同時に更新することを提案する。
論文 参考訳(メタデータ) (2023-02-20T21:34:36Z) - On the Sparse DAG Structure Learning Based on Adaptive Lasso [39.31370830038554]
適応NOTEARS[30]という,事前定義されたしきい値のないデータ駆動型DAG構造学習手法を開発した。
適応型NOTEARSは特定の条件下でのオラクル特性を享受できることを示し, シミュレーションの結果, エッジのギャップをゼロに設定することなく, 提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2022-09-07T05:47:59Z) - Incremental Ensemble Gaussian Processes [53.3291389385672]
本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
論文 参考訳(メタデータ) (2021-10-13T15:11:25Z) - No-Regret Algorithms for Time-Varying Bayesian Optimization [0.0]
我々は,時間変動環境を捉えるために,一般変動予算モデルを採用する。
R-GP-UCBとSW-GP-UCBの2つのGP-UCB型アルゴリズムを紹介します。
この結果は,線形カーネルを用いた場合の先行線形バンディット結果を回復するだけでなく,時間変動ガウス過程バンディットの先行後悔解析を補完するものである。
論文 参考訳(メタデータ) (2021-02-11T22:35:32Z) - Obtaining Adjustable Regularization for Free via Iterate Averaging [43.75491612671571]
最適化のための正規化は、機械学習の過度な適合を避けるための重要なテクニックである。
我々は、任意の強凸かつ滑らかな対象関数上のSGDの繰り返しを正規化された関数に変換する平均化スキームを確立する。
提案手法は,高速化および事前条件最適化手法にも利用できる。
論文 参考訳(メタデータ) (2020-08-15T15:28:05Z) - Balancing Rates and Variance via Adaptive Batch-Size for Stochastic
Optimization Problems [120.21685755278509]
本研究は,ステップサイズの減衰が正確な収束に必要であるという事実と,一定のステップサイズがエラーまでの時間でより速く学習するという事実のバランスをとることを目的とする。
ステップサイズのミニバッチを最初から修正するのではなく,パラメータを適応的に進化させることを提案する。
論文 参考訳(メタデータ) (2020-07-02T16:02:02Z) - Evaluating Prediction-Time Batch Normalization for Robustness under
Covariate Shift [81.74795324629712]
我々は予測時間バッチ正規化と呼び、共変量シフト時のモデル精度とキャリブレーションを大幅に改善する。
予測時間バッチ正規化は、既存の最先端アプローチに相補的な利点をもたらし、ロバスト性を向上させることを示します。
この手法は、事前トレーニングと併用して使用すると、さまざまな結果が得られるが、より自然なタイプのデータセットシフトでは、パフォーマンスが良くないようだ。
論文 参考訳(メタデータ) (2020-06-19T05:08:43Z) - AdaS: Adaptive Scheduling of Stochastic Gradients [50.80697760166045]
我々は、textit "knowledge gain" と textit "mapping condition" の概念を導入し、Adaptive Scheduling (AdaS) と呼ばれる新しいアルゴリズムを提案する。
実験によると、AdaSは派生した指標を用いて、既存の適応学習手法よりも高速な収束と優れた一般化、そして(b)いつトレーニングを中止するかを決定するための検証セットへの依存の欠如を示す。
論文 参考訳(メタデータ) (2020-06-11T16:36:31Z) - Near-linear Time Gaussian Process Optimization with Adaptive Batching
and Resparsification [119.41129787351092]
BBKBは非回帰GP最適化アルゴリズムで、ほぼ直線的に実行し、バッチで候補を選択する。
また,同じバウンダリを用いて,スパルスGP近似の更新コストを適応的に遅延させることで,ステップ毎の償却コストをほぼ一定に抑えることができることを示した。
論文 参考訳(メタデータ) (2020-02-23T17:43:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。