論文の概要: Black-Box Optimization with Local Generative Surrogates
- arxiv url: http://arxiv.org/abs/2002.04632v2
- Date: Mon, 15 Jun 2020 19:49:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 01:54:01.440440
- Title: Black-Box Optimization with Local Generative Surrogates
- Title(参考訳): 局所生成サロゲートを用いたブラックボックス最適化
- Authors: Sergey Shirobokov, Vladislav Belavin, Michael Kagan, Andrey
Ustyuzhanin, At{\i}l{\i}m G\"une\c{s} Baydin
- Abstract要約: 物理学や工学などの分野において、多くのプロセスは難易度を持つ非微分可能シミュレータでモデル化される。
本稿では,パラメータ空間の局所的近傍におけるシミュレータを近似するために,深部生成モデルを導入する。
パラメータ空間に対するシミュレータの依存性が低次元部分多様体に制約されている場合、本手法はベースライン法よりも高速にミニマを実現する。
- 参考スコア(独自算出の注目度): 6.04055755718349
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel method for gradient-based optimization of black-box
simulators using differentiable local surrogate models. In fields such as
physics and engineering, many processes are modeled with non-differentiable
simulators with intractable likelihoods. Optimization of these forward models
is particularly challenging, especially when the simulator is stochastic. To
address such cases, we introduce the use of deep generative models to
iteratively approximate the simulator in local neighborhoods of the parameter
space. We demonstrate that these local surrogates can be used to approximate
the gradient of the simulator, and thus enable gradient-based optimization of
simulator parameters. In cases where the dependence of the simulator on the
parameter space is constrained to a low dimensional submanifold, we observe
that our method attains minima faster than baseline methods, including Bayesian
optimization, numerical optimization, and approaches using score function
gradient estimators.
- Abstract(参考訳): 本稿では,微分可能な局所サロゲートモデルを用いたブラックボックスシミュレータの勾配に基づく最適化手法を提案する。
物理学や工学などの分野において、多くのプロセスは難易度を持つ非微分可能シミュレータでモデル化される。
これらの前方モデルの最適化は、特にシミュレータが確率的である場合、特に難しい。
このようなケースに対処するために,パラメータ空間の局所近傍でシミュレータを反復的に近似するために,深部生成モデルを導入する。
これらの局所代理はシミュレータの勾配を近似するために利用でき、シミュレータパラメータの勾配に基づく最適化を可能にする。
パラメータ空間に対するシミュレータの依存性が低次元部分多様体に制限される場合,本手法はベイズ最適化,数値最適化,スコア関数勾配推定器を用いたアプローチなど,ベースライン法よりも高速な最小値が得られる。
関連論文リスト
- Accelerate Neural Subspace-Based Reduced-Order Solver of Deformable Simulation by Lipschitz Optimization [9.364019847856714]
高DOFで物理シミュレーションを高速化する新しい手法として,低次シミュレーションがある。
本稿では,最適化された部分空間マッピングの探索手法を提案する。
準静的シミュレーションと動的シミュレーションの両方において,本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-09-05T12:56:03Z) - Global Optimisation of Black-Box Functions with Generative Models in the Wasserstein Space [0.28675177318965045]
ブラックボックスシミュレータの最適化はシミュレータや高次元では困難である。
我々は、パラメータ空間全体のブラックボックス応答をモデル化するために、深い生成的サロゲートアプローチを用いる。
次に、この知識を活用して、ワッサーシュタイン距離に基づいて提案された不確実性を推定する。
論文 参考訳(メタデータ) (2024-07-16T17:09:47Z) - Multi-fidelity Constrained Optimization for Stochastic Black Box
Simulators [1.6385815610837167]
上記の問題に対処するために、Scout-Nd (Stochastic Constrained Optimization for N dimensions) アルゴリズムを導入する。
Scout-Ndは効率よく勾配を推定し、推定器勾配のノイズを低減し、計算労力をさらに削減するために多重忠実性スキームを適用する。
提案手法を標準ベンチマークで検証し,既存の手法よりも優れた性能を示すパラメータの最適化の有効性を示す。
論文 参考訳(メタデータ) (2023-11-25T23:36:38Z) - Stochastic Marginal Likelihood Gradients using Neural Tangent Kernels [78.6096486885658]
線形化されたラプラス近似に下界を導入する。
これらの境界は漸進的な最適化が可能であり、推定精度と計算複雑性とのトレードオフを可能にする。
論文 参考訳(メタデータ) (2023-06-06T19:02:57Z) - Surrogate Neural Networks for Efficient Simulation-based Trajectory
Planning Optimization [28.292234483886947]
本稿では、ニューラルネットワークの形で代理モデルを用いて、参照軌道のシミュレーションに基づく最適化の計算時間を短縮する手法を提案する。
提案手法は,従来よりも74%優れた参照軌道が得られており,計算時間が大幅に短縮されることが明らかとなった。
論文 参考訳(メタデータ) (2023-03-30T15:44:30Z) - Optimization using Parallel Gradient Evaluations on Multiple Parameters [51.64614793990665]
本稿では,複数のパラメータからの勾配を勾配降下の各ステップで利用することができる凸最適化の一階法を提案する。
本手法では,複数のパラメータからの勾配を用いて,これらのパラメータを最適方向に更新する。
論文 参考訳(メタデータ) (2023-02-06T23:39:13Z) - Neural Posterior Estimation with Differentiable Simulators [58.720142291102135]
微分可能シミュレータを用いてニューラル・ポストミラー推定(NPE)を行う新しい手法を提案する。
勾配情報が後部形状の制約にどのように役立ち、試料効率を向上させるかを示す。
論文 参考訳(メタデータ) (2022-07-12T16:08:04Z) - Differentiable Agent-Based Simulation for Gradient-Guided
Simulation-Based Optimization [0.0]
勾配推定法は局所最適化に向けて最適化を行うのに利用できる。
高入力次元の信号タイミング最適化問題では、勾配に基づく手法の方がかなり優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-23T11:58:21Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Self-Tuning Stochastic Optimization with Curvature-Aware Gradient
Filtering [53.523517926927894]
サンプルごとのHessian-vector積と勾配を用いて、自己チューニングの二次構造を構築する。
モデルに基づく手続きが雑音勾配設定に収束することを証明する。
これは自己チューニング二次体を構築するための興味深いステップである。
論文 参考訳(メタデータ) (2020-11-09T22:07:30Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。