論文の概要: $1D$ to $nD$: A Meta Algorithm for Multivariate Global Optimization via
Univariate Optimizers
- arxiv url: http://arxiv.org/abs/2209.03246v1
- Date: Tue, 6 Sep 2022 15:42:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-08 12:17:37.800751
- Title: $1D$ to $nD$: A Meta Algorithm for Multivariate Global Optimization via
Univariate Optimizers
- Title(参考訳): 1D$ to $nD$: 一変量最適化による多変量グローバル最適化のためのメタアルゴリズム
- Authors: Kaan Gokcesu, Hakan Gokcesu
- Abstract要約: 多変量最適化の問題を解くために,本手法はいまだに重要であり,直接的に利用できることを示す。
時間的地平線で対応する後悔境界を$T$とする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose a meta algorithm that can solve a multivariate
global optimization problem using univariate global optimizers. Although the
univariate global optimization does not receive much attention compared to the
multivariate case, which is more emphasized in academia and industry; we show
that it is still relevant and can be directly used to solve problems of
multivariate optimization. We also provide the corresponding regret bounds in
terms of the time horizon $T$ and the average regret of the univariate
optimizer, when it is robust against nonnegative noises with robust regret
guarantees.
- Abstract(参考訳): 本研究では,一変量大域最適化を用いた多変量大域最適化問題を解くメタアルゴリズムを提案する。
単変量大域最適化は、学界や産業において強調される多変量体の場合に比べてあまり注目されないが、それでも関連性があり、多変量体最適化の問題を解決するために直接利用できることを示す。
また、ロバストな後悔保証のある非負のノイズに対してロバストである場合、対応する後悔境界をtime horizon $t$とunivariateオプティマイザの平均的な後悔という観点で提供します。
関連論文リスト
- Iterative or Innovative? A Problem-Oriented Perspective for Code Optimization [81.88668100203913]
大規模言語モデル(LLM)は、幅広いプログラミングタスクを解く上で強力な能力を示している。
本稿では,パフォーマンス向上に着目したコード最適化について検討する。
論文 参考訳(メタデータ) (2024-06-17T16:10:10Z) - Restricted Global Optimization for QAOA [0.0]
局所最適化手法はQAOAの複雑なコスト環境において本質的に不十分であることを示す。
代わりに、グローバル最適化技術は様々な問題インスタンスにわたるQAOAのパフォーマンスを大幅に改善する。
論文 参考訳(メタデータ) (2023-09-21T15:47:07Z) - Landscape Surrogate: Learning Decision Losses for Mathematical
Optimization Under Partial Information [48.784330281177446]
学習統合最適化の最近の研究は、最適化が部分的にのみ観察される場合や、専門家のチューニングなしに汎用性が不十分な環境では有望であることを示している。
本稿では,$fcirc mathbfg$の代替として,スムーズで学習可能なランドスケープサロゲートを提案する。
このサロゲートはニューラルネットワークによって学習可能で、$mathbfg$ソルバよりも高速に計算でき、トレーニング中に密度が高く滑らかな勾配を提供し、目に見えない最適化問題に一般化でき、交互最適化によって効率的に学習される。
論文 参考訳(メタデータ) (2023-07-18T04:29:16Z) - An Empirical Evaluation of Zeroth-Order Optimization Methods on
AI-driven Molecule Optimization [78.36413169647408]
分子目的を最適化するための様々なZO最適化手法の有効性について検討する。
ZO符号に基づく勾配降下(ZO-signGD)の利点を示す。
本稿では,Guurcamol スイートから広く使用されているベンチマークタスクに対して,ZO 最適化手法の有効性を示す。
論文 参考訳(メタデータ) (2022-10-27T01:58:10Z) - A Bayesian Optimization Framework for Finding Local Optima in Expensive
Multi-Modal Functions [18.570591025615453]
本稿では,高コストで評価可能なマルチモーダル目的関数に対する局所的・言語的ソリューションの集合を見つけるためのマルチモーダルBOフレームワークを開発する。
目的関数とその一階微分の結合分布を解析的に導出する。
本稿では、マルチモーダル設定によく知られたBO取得関数の変種を導入し、提案フレームワークの性能を実証する。
論文 参考訳(メタデータ) (2022-10-13T00:10:13Z) - Enhanced Opposition Differential Evolution Algorithm for Multimodal
Optimization [0.2538209532048866]
現実の問題は、本質的には複数の最適値からなるマルチモーダルである。
古典的な勾配に基づく手法は、目的関数が不連続あるいは微分不可能な最適化問題に対して失敗する。
我々は,MMOPを解くために,拡張オポポジション微分進化(EODE)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-23T16:18:27Z) - Efficient Minimax Optimal Global Optimization of Lipschitz Continuous
Multivariate Functions [0.0]
我々は,このアルゴリズムがリプシッツ連続函数の地平線に対して平均的後悔O(LstnT-frac1n)$を達成することを示す。
論文 参考訳(メタデータ) (2022-06-06T06:28:38Z) - pysamoo: Surrogate-Assisted Multi-Objective Optimization in Python [7.8140593450932965]
pysamooは計算コストの高い最適化問題を解決するためのフレームワークである。
pysamooは、時間を要する評価機能に関わる問題に対処する複数の最適化方法を提供する。
pysamooの詳細については、Anyoptimization.com/projects/pysamooを参照してほしい。
論文 参考訳(メタデータ) (2022-04-12T14:55:57Z) - Optimizer Amalgamation [124.33523126363728]
私たちは、Amalgamationという新しい問題の研究を動機付けています。"Teacher"アマルガメーションのプールを、より強力な問題固有のパフォーマンスを持つ単一の"学生"にどのように組み合わせるべきなのでしょうか?
まず、勾配降下による解析のプールをアマルガメートする3つの異なるメカニズムを定義する。
また, プロセスの分散を低減するため, 目標を摂動させることでプロセスの安定化を図る。
論文 参考訳(メタデータ) (2022-03-12T16:07:57Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z) - Revisiting SGD with Increasingly Weighted Averaging: Optimization and
Generalization Perspectives [50.12802772165797]
平均化手法は、全ての反復解を一つの解に結合する。
実験は、他の平均化方式と比較して、トレードオフと平均化の有効性を示した。
論文 参考訳(メタデータ) (2020-03-09T18:14:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。