論文の概要: Learning to Guide Random Search
- arxiv url: http://arxiv.org/abs/2004.12214v1
- Date: Sat, 25 Apr 2020 19:21:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 21:34:17.099190
- Title: Learning to Guide Random Search
- Title(参考訳): ランダム検索をガイドする学習
- Authors: Ozan Sener, Vladlen Koltun
- Abstract要約: 我々は、潜在低次元多様体上の高次元関数の微分自由最適化を考える。
最適化を行いながらこの多様体を学習するオンライン学習手法を開発した。
本研究では,連続最適化ベンチマークと高次元連続制御問題について実験的に評価する。
- 参考スコア(独自算出の注目度): 111.71167792453473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We are interested in derivative-free optimization of high-dimensional
functions. The sample complexity of existing methods is high and depends on
problem dimensionality, unlike the dimensionality-independent rates of
first-order methods. The recent success of deep learning suggests that many
datasets lie on low-dimensional manifolds that can be represented by deep
nonlinear models. We therefore consider derivative-free optimization of a
high-dimensional function that lies on a latent low-dimensional manifold. We
develop an online learning approach that learns this manifold while performing
the optimization. In other words, we jointly learn the manifold and optimize
the function. Our analysis suggests that the presented method significantly
reduces sample complexity. We empirically evaluate the method on continuous
optimization benchmarks and high-dimensional continuous control problems. Our
method achieves significantly lower sample complexity than Augmented Random
Search, Bayesian optimization, covariance matrix adaptation (CMA-ES), and other
derivative-free optimization algorithms.
- Abstract(参考訳): 我々は高次元関数の微分自由最適化に関心がある。
既存の手法のサンプル複雑性は、一階法の次元非依存率とは異なり、問題次元に依存する。
近年のディープラーニングの成功は、多くのデータセットが深い非線形モデルで表現できる低次元多様体上にあることを示唆している。
したがって、潜在低次元多様体上の高次元函数の微分自由最適化を考える。
最適化を行いながらこの多様体を学習するオンライン学習手法を開発した。
言い換えれば、多様体を共同で学習し、関数を最適化する。
分析の結果,提案手法は試料の複雑さを著しく低減することがわかった。
本研究では,連続最適化ベンチマークと高次元連続制御問題について実験的に評価する。
提案手法は,Augmented Random Search, Bayesian Optimization, Covariance matrix adaptation (CMA-ES) およびその他の微分自由最適化アルゴリズムに比べて,試料の複雑さを著しく低減する。
関連論文リスト
- A Stochastic Approach to Bi-Level Optimization for Hyperparameter Optimization and Meta Learning [74.80956524812714]
我々は,現代のディープラーニングにおいて広く普及している一般的なメタ学習問題に対処する。
これらの問題は、しばしばBi-Level Optimizations (BLO)として定式化される。
我々は,与えられたBLO問題を,内部損失関数が滑らかな分布となり,外損失が内部分布に対する期待損失となるようなii最適化に変換することにより,新たな視点を導入する。
論文 参考訳(メタデータ) (2024-10-14T12:10:06Z) - Analyzing and Enhancing the Backward-Pass Convergence of Unrolled
Optimization [50.38518771642365]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
この設定における中心的な課題は最適化問題の解によるバックプロパゲーションであり、しばしば閉形式を欠いている。
本稿では, 非線形最適化の後方通過に関する理論的知見を提供し, 特定の反復法による線形システムの解と等価であることを示す。
Folded Optimizationと呼ばれるシステムが提案され、非ローリングなソルバ実装からより効率的なバックプロパゲーションルールを構築する。
論文 参考訳(メタデータ) (2023-12-28T23:15:18Z) - Multistage Stochastic Optimization via Kernels [3.7565501074323224]
我々は,多段階最適化問題に対する非パラメトリック,データ駆動,トラクタブルアプローチを開発した。
本稿では,提案手法が最適に近い平均性能で決定ルールを生成することを示す。
論文 参考訳(メタデータ) (2023-03-11T23:19:32Z) - Linearization Algorithms for Fully Composite Optimization [61.20539085730636]
本稿では,完全合成最適化問題を凸コンパクト集合で解くための一階アルゴリズムについて検討する。
微分可能および非微分可能を別々に扱い、滑らかな部分のみを線形化することで目的の構造を利用する。
論文 参考訳(メタデータ) (2023-02-24T18:41:48Z) - Extrinsic Bayesian Optimizations on Manifolds [1.3477333339913569]
オイクリッド多様体上の一般最適化問題に対する外部ベイズ最適化(eBO)フレームワークを提案する。
我々のアプローチは、まず多様体を高次元空間に埋め込むことによって、外部ガウス過程を採用することである。
これにより、複素多様体上の最適化のための効率的でスケーラブルなアルゴリズムが導かれる。
論文 参考訳(メタデータ) (2022-12-21T06:10:12Z) - An Empirical Evaluation of Zeroth-Order Optimization Methods on
AI-driven Molecule Optimization [78.36413169647408]
分子目的を最適化するための様々なZO最適化手法の有効性について検討する。
ZO符号に基づく勾配降下(ZO-signGD)の利点を示す。
本稿では,Guurcamol スイートから広く使用されているベンチマークタスクに対して,ZO 最適化手法の有効性を示す。
論文 参考訳(メタデータ) (2022-10-27T01:58:10Z) - High dimensional Bayesian Optimization Algorithm for Complex System in
Time Series [1.9371782627708491]
本稿では,新しい高次元ベイズ最適化アルゴリズムを提案する。
モデルの時間依存特性や次元依存特性に基づいて,提案アルゴリズムは次元を均等に低減することができる。
最適解の最終精度を高めるために,提案アルゴリズムは,最終段階におけるアダムに基づく一連のステップに基づく局所探索を追加する。
論文 参考訳(メタデータ) (2021-08-04T21:21:17Z) - High-Dimensional Bayesian Optimization via Tree-Structured Additive
Models [40.497123136157946]
変数の重複部分集合を持つ低次元関数を合成して高次元目標関数をモデル化する一般化加法モデルを検討する。
私たちの目標は、必要な計算リソースを減らし、より高速なモデル学習を促進することです。
我々は,合成関数と実世界のデータセットに関する様々な実験を通して,本手法の有効性を実証し,議論する。
論文 参考訳(メタデータ) (2020-12-24T03:56:44Z) - Sequential Subspace Search for Functional Bayesian Optimization
Incorporating Experimenter Intuition [63.011641517977644]
本アルゴリズムは,実験者のガウス過程から引き出された一組の引き数で区切られた関数空間の有限次元ランダム部分空間列を生成する。
標準ベイズ最適化は各部分空間に適用され、次の部分空間の出発点(オリジン)として用いられる最良の解である。
シミュレーションおよび実世界の実験,すなわちブラインド関数マッチング,アルミニウム合金の最適析出強化関数の探索,深層ネットワークの学習速度スケジュール最適化において,本アルゴリズムを検証した。
論文 参考訳(メタデータ) (2020-09-08T06:54:11Z) - Sample complexity and effective dimension for regression on manifolds [13.774258153124205]
ヒルベルト空間法を再現したカーネルを用いた多様体上の回帰理論を考える。
多様体上の滑らかな函数のある空間は、多様体次元に応じて拡大する複雑性を持つ実効有限次元であることが示される。
論文 参考訳(メタデータ) (2020-06-13T14:09:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。