論文の概要: Simulating, Fast and Slow: Learning Policies for Black-Box Optimization
- arxiv url: http://arxiv.org/abs/2406.04261v1
- Date: Thu, 6 Jun 2024 17:05:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-07 13:50:11.831807
- Title: Simulating, Fast and Slow: Learning Policies for Black-Box Optimization
- Title(参考訳): ブラックボックス最適化のための学習ポリシーのシミュレーション・高速・低速化
- Authors: Fabio Valerio Massoli, Tim Bakker, Thomas Hehn, Tribhuvanesh Orekondy, Arash Behboodi,
- Abstract要約: 本稿では,学習方針を学習することで,類似のブラックボックス最適化問題のクラスを解く新しい手法を提案する。
ポリシーをトレーニングした後、ブラックボックスシミュレーターに関わる問題を下流で最適化するには、コストのかかるシミュレーターコールを最大90%削減する必要がある。
- 参考スコア(独自算出の注目度): 12.925033436442925
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, solving optimization problems involving black-box simulators has become a point of focus for the machine learning community due to their ubiquity in science and engineering. The simulators describe a forward process $f_{\mathrm{sim}}: (\psi, x) \rightarrow y$ from simulation parameters $\psi$ and input data $x$ to observations $y$, and the goal of the optimization problem is to find parameters $\psi$ that minimize a desired loss function. Sophisticated optimization algorithms typically require gradient information regarding the forward process, $f_{\mathrm{sim}}$, with respect to the parameters $\psi$. However, obtaining gradients from black-box simulators can often be prohibitively expensive or, in some cases, impossible. Furthermore, in many applications, practitioners aim to solve a set of related problems. Thus, starting the optimization ``ab initio", i.e. from scratch, each time might be inefficient if the forward model is expensive to evaluate. To address those challenges, this paper introduces a novel method for solving classes of similar black-box optimization problems by learning an active learning policy that guides a differentiable surrogate's training and uses the surrogate's gradients to optimize the simulation parameters with gradient descent. After training the policy, downstream optimization of problems involving black-box simulators requires up to $\sim$90\% fewer expensive simulator calls compared to baselines such as local surrogate-based approaches, numerical optimization, and Bayesian methods.
- Abstract(参考訳): 近年,ブラックボックスシミュレータによる最適化問題の解決が,科学と工学の両面から機械学習コミュニティの焦点となっている。
シミュレータは、フォワードプロセス $f_{\mathrm{sim}}: (\psi, x) \rightarrow y$ from simulation parameters $\psi$ and input data $x$ to observed $y$を記述し、最適化問題の目標は、望まれる損失関数を最小化するパラメータ $\psi$を見つけることである。
高度化された最適化アルゴリズムは、通常、フォワードプロセスに関する勾配情報、$f_{\mathrm{sim}}$、パラメータ $\psi$ を必要とする。
しかし、ブラックボックスシミュレータから勾配を得るのは、しばしば違法にコストがかかるか、場合によっては不可能である。
さらに、多くの応用において、実践者は一連の関連する問題を解決することを目指している。
したがって、最適化 "`ab initio" をスクラッチから始めると、フォワードモデルを評価するのにコストがかかる場合、各時間が非効率になる可能性がある。
これらの課題に対処するため,本論文では,シュロゲートの学習指導を指導する能動的学習ポリシーを学習し,シュロゲートの勾配を用いてシュミレーションパラメータを勾配降下で最適化することで,類似のブラックボックス最適化問題のクラスを解く手法を提案する。
ブラックボックスシミュレーターに関わる問題の下流での最適化には、ローカルサロゲートベースのアプローチ、数値最適化、ベイズ方式などのベースラインに比べて、コストのかかるシミュレーターコールを最大$\sim$90\%削減する必要がある。
関連論文リスト
- Targeted Variance Reduction: Robust Bayesian Optimization of Black-Box
Simulators with Noise Parameters [1.7404865362620803]
本稿では,TVR(Targeted Variance Reduction)と呼ばれるベイズ最適化手法を提案する。
TVR は $(mathbfx,boldsymboltheta)$ 以上の新しい共同獲得関数を利用しており、これは所望の改善領域内の目的に対する分散還元を目標としている。
自動車用ブレーキディスクの高剛性設計への一組の数値実験において,TVRの性能向上を実証した。
論文 参考訳(メタデータ) (2024-03-06T16:03:37Z) - Multi-fidelity Constrained Optimization for Stochastic Black Box
Simulators [1.6385815610837167]
上記の問題に対処するために、Scout-Nd (Stochastic Constrained Optimization for N dimensions) アルゴリズムを導入する。
Scout-Ndは効率よく勾配を推定し、推定器勾配のノイズを低減し、計算労力をさらに削減するために多重忠実性スキームを適用する。
提案手法を標準ベンチマークで検証し,既存の手法よりも優れた性能を示すパラメータの最適化の有効性を示す。
論文 参考訳(メタデータ) (2023-11-25T23:36:38Z) - Landscape Surrogate: Learning Decision Losses for Mathematical
Optimization Under Partial Information [48.784330281177446]
学習統合最適化の最近の研究は、最適化が部分的にのみ観察される場合や、専門家のチューニングなしに汎用性が不十分な環境では有望であることを示している。
本稿では,$fcirc mathbfg$の代替として,スムーズで学習可能なランドスケープサロゲートを提案する。
このサロゲートはニューラルネットワークによって学習可能で、$mathbfg$ソルバよりも高速に計算でき、トレーニング中に密度が高く滑らかな勾配を提供し、目に見えない最適化問題に一般化でき、交互最適化によって効率的に学習される。
論文 参考訳(メタデータ) (2023-07-18T04:29:16Z) - Target-based Surrogates for Stochastic Optimization [26.35752393302125]
我々は(おそらく)勾配を計算するのに費用がかかる関数の最小化を考える。
このような機能は、計算強化学習、模倣学習、および敵の訓練で広く用いられている。
我々のフレームワークは、最適化アルゴリズムを用いて、効率的に最小化できるサロゲートを構築することができる。
論文 参考訳(メタデータ) (2023-02-06T08:08:34Z) - Minimax Optimization with Smooth Algorithmic Adversaries [59.47122537182611]
対戦相手が展開するスムーズなアルゴリズムに対して,Min-playerの新しいアルゴリズムを提案する。
本アルゴリズムは,制限周期のない単調進行を保証し,適切な勾配上昇数を求める。
論文 参考訳(メタデータ) (2021-06-02T22:03:36Z) - Divide and Learn: A Divide and Conquer Approach for Predict+Optimize [50.03608569227359]
予測+最適化問題は、予測係数を使用する最適化プロブレムと、確率係数の機械学習を組み合わせる。
本稿では, 予測係数を1次線形関数として, 最適化問題の損失を直接表現する方法を示す。
本稿では,この制約を伴わずに最適化問題に対処し,最適化損失を用いてその係数を予測する新しい分割アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-04T00:26:56Z) - AutoSimulate: (Quickly) Learning Synthetic Data Generation [70.82315853981838]
目的の新たな微分可能近似に基づく最適な合成データ生成法を提案する。
提案手法は,学習データ生成の高速化(最大50Times$)と,実世界のテストデータセットの精度向上(+8.7%$)を実現している。
論文 参考訳(メタデータ) (2020-08-16T11:36:11Z) - A Primer on Zeroth-Order Optimization in Signal Processing and Machine
Learning [95.85269649177336]
ZO最適化は、勾配推定、降下方向、ソリューション更新の3つの主要なステップを反復的に実行する。
我々は,ブラックボックス深層学習モデルによる説明文の評価や生成,効率的なオンラインセンサ管理など,ZO最適化の有望な応用を実証する。
論文 参考訳(メタデータ) (2020-06-11T06:50:35Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z) - Black-Box Optimization with Local Generative Surrogates [6.04055755718349]
物理学や工学などの分野において、多くのプロセスは難易度を持つ非微分可能シミュレータでモデル化される。
本稿では,パラメータ空間の局所的近傍におけるシミュレータを近似するために,深部生成モデルを導入する。
パラメータ空間に対するシミュレータの依存性が低次元部分多様体に制約されている場合、本手法はベースライン法よりも高速にミニマを実現する。
論文 参考訳(メタデータ) (2020-02-11T19:02:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。