論文の概要: Efficient Lipschitzian Global Optimization of H\"older Continuous
Multivariate Functions
- arxiv url: http://arxiv.org/abs/2303.14293v1
- Date: Fri, 24 Mar 2023 22:29:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 20:58:18.678818
- Title: Efficient Lipschitzian Global Optimization of H\"older Continuous
Multivariate Functions
- Title(参考訳): H\"古い連続多変量関数の効率的リプシッツ大域最適化
- Authors: Kaan Gokcesu, Hakan Gokcesu
- Abstract要約: 本研究では,H"より古い連続な多変量関数に対して,効率的な大域的最適化手法を提案する。
このアルゴリズムは,H"older $alpha$でH"older連続目標関数を与えられた時間的地平線内の$n$次元空間で最適化するために,平均的残差$O(T-fracalphan)$に達することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study presents an effective global optimization technique designed for
multivariate functions that are H\"older continuous. Unlike traditional methods
that construct lower bounding proxy functions, this algorithm employs a
predetermined query creation rule that makes it computationally superior. The
algorithm's performance is assessed using the average or cumulative regret,
which also implies a bound for the simple regret and reflects the overall
effectiveness of the approach. The results show that with appropriate
parameters the algorithm attains an average regret bound of
$O(T^{-\frac{\alpha}{n}})$ for optimizing a H\"older continuous target function
with H\"older exponent $\alpha$ in an $n$-dimensional space within a given time
horizon $T$. We demonstrate that this bound is minimax optimal.
- Abstract(参考訳): 本研究では,H\より古い連続な多変量関数に対して効率的な大域最適化手法を提案する。
低バウンディングプロキシ関数を構成する従来の方法とは異なり、このアルゴリズムは、計算的に優れている所定のクエリ生成ルールを採用している。
アルゴリズムのパフォーマンスは、平均的または累積的後悔を用いて評価され、これはまた、単純な後悔の限界を意味し、アプローチの全体的な効果を反映している。
その結果、アルゴリズムは適切なパラメータで、与えられた時間的地平線内の$n$次元空間において、H\"older exponent $\alpha$でH\"older連続ターゲット関数を最適化するために、平均後悔境界の$O(T^{-\frac{\alpha}{n}})$に達することを示した。
この境界がミニマックス最適であることを示す。
関連論文リスト
- Nearly Minimax Optimal Regret for Learning Linear Mixture Stochastic
Shortest Path [80.60592344361073]
線形混合遷移カーネルを用いた最短経路(SSP)問題について検討する。
エージェントは繰り返し環境と対話し、累積コストを最小化しながら特定の目標状態に到達する。
既存の作業は、イテレーションコスト関数の厳密な下限や、最適ポリシーに対する期待長の上限を仮定することが多い。
論文 参考訳(メタデータ) (2024-02-14T07:52:00Z) - On Convergence of Incremental Gradient for Non-Convex Smooth Functions [63.51187646914962]
機械学習とネットワーク最適化では、ミスの数と優れたキャッシュを最小化するため、シャッフルSGDのようなアルゴリズムが人気である。
本稿では任意のデータ順序付けによる収束特性SGDアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2023-05-30T17:47:27Z) - Provably Efficient Reinforcement Learning via Surprise Bound [66.15308700413814]
本稿では,一般値関数近似を用いた効率の良い強化学習アルゴリズムを提案する。
本アルゴリズムは, 線形設定と疎高次元線形設定の両方に適用した場合に, 合理的な後悔境界を達成できる。
論文 参考訳(メタデータ) (2023-02-22T20:21:25Z) - Efficient Minimax Optimal Global Optimization of Lipschitz Continuous
Multivariate Functions [0.0]
我々は,このアルゴリズムがリプシッツ連続函数の地平線に対して平均的後悔O(LstnT-frac1n)$を達成することを示す。
論文 参考訳(メタデータ) (2022-06-06T06:28:38Z) - Low Regret Binary Sampling Method for Efficient Global Optimization of
Univariate Functions [0.0]
最適クエリと目的関数の最適値との単純な後悔ではなく,アルゴリズムの累積的後悔について検討する。
提案手法は従来の下界アルゴリズムと類似しているが,計算コストの優位性は大きい。
論文 参考訳(メタデータ) (2022-01-18T18:11:48Z) - Ada-BKB: Scalable Gaussian Process Optimization on Continuous Domain by
Adaptive Discretization [21.859940486704264]
GPUCBのようなアルゴリズムは計算の複雑さを禁止している。
関数のノアアルゴリズムは、連続最適化の真の問題を裏付ける。
論文 参考訳(メタデータ) (2021-06-16T07:55:45Z) - Parameter-free Stochastic Optimization of Variationally Coherent
Functions [19.468067110814808]
我々は$mathbbRdilon上で関数のクラスを1次最適化するためのアルゴリズムを設計・解析する。
この2つを同時に実現したのは初めてである。
論文 参考訳(メタデータ) (2021-01-30T15:05:34Z) - Finding Global Minima via Kernel Approximations [90.42048080064849]
関数評価のみに基づく滑らかな関数のグローバル最小化を考える。
本稿では,近似関数を共同でモデル化し,大域的最小値を求める手法を検討する。
論文 参考訳(メタデータ) (2020-12-22T12:59:30Z) - A Domain-Shrinking based Bayesian Optimization Algorithm with
Order-Optimal Regret Performance [16.0251555430107]
これはGPに基づく最初のアルゴリズムであり、順序最適化された後悔の保証がある。
GP-UCB系のアルゴリズムと比較して,提案アルゴリズムは計算複雑性を$O(T2d-1)$で低減する。
論文 参考訳(メタデータ) (2020-10-27T02:15:15Z) - Exploiting Higher Order Smoothness in Derivative-free Optimization and
Continuous Bandits [99.70167985955352]
強凸関数のゼロ次最適化問題について検討する。
予測勾配降下アルゴリズムのランダム化近似を考察する。
その結果,0次アルゴリズムはサンプルの複雑性や問題パラメータの点でほぼ最適であることが示唆された。
論文 参考訳(メタデータ) (2020-06-14T10:42:23Z) - Private Stochastic Convex Optimization: Optimal Rates in Linear Time [74.47681868973598]
本研究では,凸損失関数の分布から得られた個体群損失を最小化する問題について検討する。
Bassilyらによる最近の研究は、$n$のサンプルを与えられた過剰な人口損失の最適境界を確立している。
本稿では,余剰損失に対する最適境界を達成するとともに,$O(minn, n2/d)$グラデーション計算を用いて凸最適化アルゴリズムを導出する2つの新しい手法について述べる。
論文 参考訳(メタデータ) (2020-05-10T19:52:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。