論文の概要: Local Bayesian optimization via maximizing probability of descent
- arxiv url: http://arxiv.org/abs/2210.11662v1
- Date: Fri, 21 Oct 2022 01:13:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 15:39:06.610230
- Title: Local Bayesian optimization via maximizing probability of descent
- Title(参考訳): 降下確率最大化による局所ベイズ最適化
- Authors: Quan Nguyen, Kaiwen Wu, Jacob R. Gardner and Roman Garnett
- Abstract要約: 局所最適化は高価で高次元のブラックボックス最適化に対する有望なアプローチである。
意外なことに、勾配の期待値は必ずしも降下確率を最大化する方向であるとは限らない。
この観測は、最も確率の高い降下方向を移動しながら降下の確率を最大化しようとするエレガントな最適化スキームを刺激する。
- 参考スコア(独自算出の注目度): 26.82385325186729
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Local optimization presents a promising approach to expensive,
high-dimensional black-box optimization by sidestepping the need to globally
explore the search space. For objective functions whose gradient cannot be
evaluated directly, Bayesian optimization offers one solution -- we construct a
probabilistic model of the objective, design a policy to learn about the
gradient at the current location, and use the resulting information to navigate
the objective landscape. Previous work has realized this scheme by minimizing
the variance in the estimate of the gradient, then moving in the direction of
the expected gradient. In this paper, we re-examine and refine this approach.
We demonstrate that, surprisingly, the expected value of the gradient is not
always the direction maximizing the probability of descent, and in fact, these
directions may be nearly orthogonal. This observation then inspires an elegant
optimization scheme seeking to maximize the probability of descent while moving
in the direction of most-probable descent. Experiments on both synthetic and
real-world objectives show that our method outperforms previous realizations of
this optimization scheme and is competitive against other, significantly more
complicated baselines.
- Abstract(参考訳): 局所最適化は、検索空間をグローバルに探索する必要性をサイドステッピングすることで、高価で高次元のブラックボックス最適化に対して有望なアプローチを示す。
勾配を直接評価できない目的関数に対しては、ベイズ最適化は一つの解を提供する -- 目的の確率モデルを構築し、現在の位置での勾配について学習するためのポリシーを設計し、その結果の情報を使って目的の風景をナビゲートする。
前回の研究では、勾配の推定のばらつきを最小化し、期待される勾配の方向に移動することにより、このスキームを実現している。
本稿では,このアプローチを再検討し,精査する。
意外なことに、勾配の期待値は必ずしも降下の確率を最大化する方向ではなく、実際、これらの方向はほぼ直交的である。
この観測は、最も確率の高い降下の方向に移動しながら降下の確率を最大化するエレガントな最適化スキームを刺激する。
総合的および実世界の目的の両方における実験により,本手法は従来の最適化手法よりも優れており,より複雑なベースラインと競合していることが示された。
関連論文リスト
- Neural Gradient Learning and Optimization for Oriented Point Normal
Estimation [53.611206368815125]
本研究では,3次元点雲から勾配ベクトルを一貫した向きで学習し,正規推定を行うためのディープラーニング手法を提案する。
局所平面幾何に基づいて角距離場を学習し、粗勾配ベクトルを洗練する。
本手法は,局所特徴記述の精度と能力の一般化を図りながら,グローバル勾配近似を効率的に行う。
論文 参考訳(メタデータ) (2023-09-17T08:35:11Z) - High Probability Analysis for Non-Convex Stochastic Optimization with
Clipping [13.025261730510847]
勾配クリッピングは重み付きニューラルネットワークを扱う技術である。
ほとんどの理論上の保証は、予測外解析のみを提供し、性能のみを提供する。
我々の分析は、勾配クリッピングによる最適化アルゴリズムの理論的保証について、比較的完全な図を提供している。
論文 参考訳(メタデータ) (2023-07-25T17:36:56Z) - Stochastic Marginal Likelihood Gradients using Neural Tangent Kernels [78.6096486885658]
線形化されたラプラス近似に下界を導入する。
これらの境界は漸進的な最適化が可能であり、推定精度と計算複雑性とのトレードオフを可能にする。
論文 参考訳(メタデータ) (2023-06-06T19:02:57Z) - A Particle-based Sparse Gaussian Process Optimizer [5.672919245950197]
本稿では,下降の動的過程を利用した新しいスワム・スワムベースのフレームワークを提案する。
このアプローチの最大の利点は、降下を決定する前に現在の状態についてより深い探索を行うことである。
論文 参考訳(メタデータ) (2022-11-26T09:06:15Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Self-Tuning Stochastic Optimization with Curvature-Aware Gradient
Filtering [53.523517926927894]
サンプルごとのHessian-vector積と勾配を用いて、自己チューニングの二次構造を構築する。
モデルに基づく手続きが雑音勾配設定に収束することを証明する。
これは自己チューニング二次体を構築するための興味深いステップである。
論文 参考訳(メタデータ) (2020-11-09T22:07:30Z) - Channel-Directed Gradients for Optimization of Convolutional Neural
Networks [50.34913837546743]
本稿では,畳み込みニューラルネットワークの最適化手法を提案する。
出力チャネル方向に沿って勾配を定義することで性能が向上し,他の方向が有害となることを示す。
論文 参考訳(メタデータ) (2020-08-25T00:44:09Z) - An adaptive stochastic gradient-free approach for high-dimensional
blackbox optimization [0.0]
本研究では,高次元非平滑化問題に対する適応勾配フリー (ASGF) アプローチを提案する。
本稿では,グローバルな問題と学習タスクのベンチマークにおいて,本手法の性能について述べる。
論文 参考訳(メタデータ) (2020-06-18T22:47:58Z) - Incorporating Expert Prior in Bayesian Optimisation via Space Warping [54.412024556499254]
大きな探索空間では、アルゴリズムは関数の最適値に達する前に、いくつかの低関数値領域を通過する。
このコールドスタートフェーズの1つのアプローチは、最適化を加速できる事前知識を使用することである。
本稿では,関数の事前分布を通じて,関数の最適性に関する事前知識を示す。
先行分布は、探索空間を最適関数の高確率領域の周りに拡張し、最適関数の低確率領域の周りに縮小するようにワープする。
論文 参考訳(メタデータ) (2020-03-27T06:18:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。