論文の概要: A Novel Evolution Strategy with Directional Gaussian Smoothing for
Blackbox Optimization
- arxiv url: http://arxiv.org/abs/2002.03001v2
- Date: Thu, 11 Jun 2020 19:14:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-01-03 03:31:53.860930
- Title: A Novel Evolution Strategy with Directional Gaussian Smoothing for
Blackbox Optimization
- Title(参考訳): ブラックボックス最適化のための方向ガウス平滑化による新しい進化戦略
- Authors: Jiaxin Zhang, Hoang Tran, Dan Lu, Guannan Zhang
- Abstract要約: 高次元ブラックボックス最適化のための新しい非局所勾配演算子を用いた改良された進化戦略(ES)を提案する。
$d$次元ガウス滑らか化を持つ標準ES法は、モンテカルロに基づく勾配推定器の高分散に起因する次元の呪いに悩まされる。
- 参考スコア(独自算出の注目度): 4.060323179287396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an improved evolution strategy (ES) using a novel nonlocal
gradient operator for high-dimensional black-box optimization. Standard ES
methods with $d$-dimensional Gaussian smoothing suffer from the curse of
dimensionality due to the high variance of Monte Carlo (MC) based gradient
estimators. To control the variance, Gaussian smoothing is usually limited in a
small region, so existing ES methods lack nonlocal exploration ability required
for escaping from local minima. We develop a nonlocal gradient operator with
directional Gaussian smoothing (DGS) to address this challenge. The DGS
conducts 1D nonlocal explorations along $d$ orthogonal directions in
$\mathbb{R}^d$, each of which defines a nonlocal directional derivative as a 1D
integral. We then use Gauss-Hermite quadrature, instead of MC sampling, to
estimate the $d$ 1D integrals to ensure high accuracy (i.e., small variance).
Our method enables effective nonlocal exploration to facilitate the global
search in high-dimensional optimization. We demonstrate the superior
performance of our method in three sets of examples, including benchmark
functions for global optimization, and real-world science and engineering
applications.
- Abstract(参考訳): 高次元ブラックボックス最適化のための新しい非局所勾配演算子を用いた進化戦略(es)の改良を提案する。
$d$次元ガウス滑らか化を持つ標準ES法は、モンテカルロ(MC)に基づく勾配推定器の高分散に起因する次元の呪いに悩まされる。
分散を制御するため、ガウス平滑化は通常、小さな領域で制限されるため、既存のes法には局所的ミニマからの脱出に必要な非局所的探索能力がない。
この課題に対処するために,方向ガウス平滑化(dgs)を持つ非局所勾配作用素を開発した。
DGSは$d$直交方向を$\mathbb{R}^d$で1Dの非局所探索を行い、それぞれが非局所方向微分を1D積分として定義する。
次に、mcサンプリングの代わりにgauss-hermite quadratureを使用して、d$ 1d積分を推定し、高い精度(すなわち、小さな分散)を確保する。
提案手法は,高次元最適化におけるグローバル探索を容易にするために有効な非局所探索を可能にする。
本手法の優れた性能は,グローバル最適化のためのベンチマーク関数や実世界科学・工学アプリケーションなど,3つの例で示している。
関連論文リスト
- Second-order Optimization of Gaussian Splats with Importance Sampling [51.95046424364725]
3D Gaussian Splatting (3DGS) は、高品質で高速な推論時間のため、新しいビューレンダリングに広く用いられている。
本稿では,Levenberg-Marquardt (LM) と Conjugate Gradient (CG) に基づく新しい2階最適化手法を提案する。
提案手法は標準LMよりも3倍の高速化を実現し,ガウス数が少ない場合のAdamを6倍の6倍の速さで上回る。
論文 参考訳(メタデータ) (2025-04-17T12:52:08Z) - Neural Gradient Learning and Optimization for Oriented Point Normal
Estimation [53.611206368815125]
本研究では,3次元点雲から勾配ベクトルを一貫した向きで学習し,正規推定を行うためのディープラーニング手法を提案する。
局所平面幾何に基づいて角距離場を学習し、粗勾配ベクトルを洗練する。
本手法は,局所特徴記述の精度と能力の一般化を図りながら,グローバル勾配近似を効率的に行う。
論文 参考訳(メタデータ) (2023-09-17T08:35:11Z) - ELRA: Exponential learning rate adaption gradient descent optimization
method [83.88591755871734]
我々は, 高速(指数率), ab initio(超自由)勾配に基づく適応法を提案する。
本手法の主な考え方は,状況認識による$alphaの適応である。
これは任意の次元 n の問題に適用でき、線型にしかスケールできない。
論文 参考訳(メタデータ) (2023-09-12T14:36:13Z) - Orthogonal Directions Constrained Gradient Method: from non-linear
equality constraints to Stiefel manifold [16.099883128428054]
直交方向制約法(ODCGM)という新しいアルゴリズムを提案する。
ODCGMはベクトル空間へのプロジェクションのみを必要とする。
以上より, ODCGMは, ほぼ最適のオラクル複合体を呈することを示した。
論文 参考訳(メタデータ) (2023-03-16T12:25:53Z) - Variance-reduced Clipping for Non-convex Optimization [24.765794811146144]
グラディエント・クリッピング(Gradient clipping)は、大規模言語モデリングのようなディープラーニングアプリケーションで用いられる技法である。
最近の実験的な訓練は、秩序の複雑さを緩和する、非常に特別な振る舞いを持っている。
論文 参考訳(メタデータ) (2023-03-02T00:57:38Z) - Non-convex Distributionally Robust Optimization: Non-asymptotic Analysis [16.499651513178012]
分散ロバスト最適化(DRO)は、分散シフトに対してロバストなモデルを学ぶために広く使われている手法である。
目的関数はおそらく非滑らかであり,正規化勾配降下を有するにもかかわらず,非漸近収束を保証する。
論文 参考訳(メタデータ) (2021-10-24T14:56:38Z) - AdaGDA: Faster Adaptive Gradient Descent Ascent Methods for Minimax
Optimization [104.96004056928474]
本稿では,非コンケーブ最小値問題に対する高速適応勾配降下法を提案する。
我々は,本手法が,ミニバッチサイズが$O(kappa2.5epsilon-3)$のより低いサンプル複雑性に達することを示す。
論文 参考訳(メタデータ) (2021-06-30T14:47:09Z) - Correcting Momentum with Second-order Information [50.992629498861724]
最適積に$O(epsilon)$epsilon点を求める非臨界最適化のための新しいアルゴリズムを開発した。
我々は、さまざまな大規模ディープラーニングベンチマークとアーキテクチャで結果を検証する。
論文 参考訳(メタデータ) (2021-03-04T19:01:20Z) - AdaDGS: An adaptive black-box optimization method with a nonlocal
directional Gaussian smoothing gradient [3.1546318469750196]
方向性ガウススムースティング(DGS)アプローチは(Zhang et al., 2020)で最近提案され、高次元ブラックボックス最適化のためにDGS勾配と呼ばれる真の非局所勾配を定義するために使用された。
DGSグラデーションを用いた簡易かつ創発的かつ効率的な最適化手法を提案し,超パラメータ微調整の必要性を排除した。
論文 参考訳(メタデータ) (2020-11-03T21:20:25Z) - An adaptive stochastic gradient-free approach for high-dimensional
blackbox optimization [0.0]
本研究では,高次元非平滑化問題に対する適応勾配フリー (ASGF) アプローチを提案する。
本稿では,グローバルな問題と学習タスクのベンチマークにおいて,本手法の性能について述べる。
論文 参考訳(メタデータ) (2020-06-18T22:47:58Z) - Gradient Free Minimax Optimization: Variance Reduction and Faster
Convergence [120.9336529957224]
本稿では、勾配のないミニマックス最適化問題の大きさを非強設定で表現する。
本稿では,新しいゼロ階分散還元降下アルゴリズムが,クエリの複雑さを最もよく表すことを示す。
論文 参考訳(メタデータ) (2020-06-16T17:55:46Z) - Towards Better Understanding of Adaptive Gradient Algorithms in
Generative Adversarial Nets [71.05306664267832]
適応アルゴリズムは勾配の歴史を用いて勾配を更新し、深層ニューラルネットワークのトレーニングにおいてユビキタスである。
本稿では,非コンケーブ最小値問題に対するOptimisticOAアルゴリズムの変種を解析する。
実験の結果,適応型GAN非適応勾配アルゴリズムは経験的に観測可能であることがわかった。
論文 参考訳(メタデータ) (2019-12-26T22:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。