論文の概要: Vector Optimization with Gaussian Process Bandits
- arxiv url: http://arxiv.org/abs/2412.02484v1
- Date: Tue, 03 Dec 2024 14:47:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:48:12.885949
- Title: Vector Optimization with Gaussian Process Bandits
- Title(参考訳): ガウス過程帯域を用いたベクトル最適化
- Authors: İlter Onat Korkmaz, Yaşar Cahit Yıldırım, Çağın Ararat, Cem Tekin,
- Abstract要約: 複数の目的を同時に考慮しなければならない学習問題は、工学、薬物設計、環境管理など、様々な分野においてしばしば発生する。
複数のブラックボックスの目的関数を扱う従来の方法は、目的の選好を取り入れ、それに応じて解空間を探索することに制限がある。
ガウス過程の帯域幅を用いてブラックボックスベクトル最適化を行う適応除去アルゴリズムであるガウス過程を用いたベクトル最適化(VOGP)を提案する。
- 参考スコア(独自算出の注目度): 7.049738935364297
- License:
- Abstract: Learning problems in which multiple conflicting objectives must be considered simultaneously often arise in various fields, including engineering, drug design, and environmental management. Traditional methods for dealing with multiple black-box objective functions, such as scalarization and identification of the Pareto set under the componentwise order, have limitations in incorporating objective preferences and exploring the solution space accordingly. While vector optimization offers improved flexibility and adaptability via specifying partial orders based on ordering cones, current techniques designed for sequential experiments either suffer from high sample complexity or lack theoretical guarantees. To address these issues, we propose Vector Optimization with Gaussian Process (VOGP), a probably approximately correct adaptive elimination algorithm that performs black-box vector optimization using Gaussian process bandits. VOGP allows users to convey objective preferences through ordering cones while performing efficient sampling by exploiting the smoothness of the objective function, resulting in a more effective optimization process that requires fewer evaluations. We establish theoretical guarantees for VOGP and derive information gain-based and kernel-specific sample complexity bounds. We also conduct experiments on both real-world and synthetic datasets to compare VOGP with the state-of-the-art methods.
- Abstract(参考訳): 複数の相反する目的を同時に考慮しなければならない学習問題は、工学、薬物設計、環境管理など、様々な分野においてしばしば発生する。
複数のブラックボックスの目的関数を扱う従来の方法は、コンポーネント順に配置されたパレート集合のスキャラライズや識別などであり、目的の選好を取り入れ、それに従って解空間を探索するのに制限がある。
ベクトル最適化は、順序付けコーンに基づいて部分順序を指定することによって柔軟性と適応性を向上するが、シーケンシャルな実験のために設計された現在の技術は、高いサンプルの複雑さに悩まされるか、理論的な保証が欠如している。
これらの問題に対処するため,我々はガウス過程の帯域幅を用いてブラックボックスベクトル最適化を行う,ほぼ正確に適応除去アルゴリズムであるVector Optimization with Gaussian Process (VOGP)を提案する。
VOGPは、目的関数の滑らかさを活用して効率的なサンプリングを行いながら、コーンを注文することで客観的嗜好を伝達し、その結果、少ない評価を必要とするより効率的な最適化プロセスを実現する。
我々はVOGPの理論的保証を確立し、情報ゲインベースおよびカーネル固有のサンプル複雑性境界を導出する。
また、VOGPと最先端の手法を比較するために、実世界のデータセットと合成データセットの両方で実験を行う。
関連論文リスト
- Enhancing Gaussian Process Surrogates for Optimization and Posterior Approximation via Random Exploration [2.984929040246293]
ガウス過程シュロゲートモデルの精度を高めるために、ランダムな探索ステップに依存する新しいノイズフリーベイズ最適化戦略。
新しいアルゴリズムは、古典的なGP-UCBの実装の容易さを維持しているが、さらなる探索がそれらの収束を促進する。
論文 参考訳(メタデータ) (2024-01-30T14:16:06Z) - Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - An Empirical Evaluation of Zeroth-Order Optimization Methods on
AI-driven Molecule Optimization [78.36413169647408]
分子目的を最適化するための様々なZO最適化手法の有効性について検討する。
ZO符号に基づく勾配降下(ZO-signGD)の利点を示す。
本稿では,Guurcamol スイートから広く使用されているベンチマークタスクに対して,ZO 最適化手法の有効性を示す。
論文 参考訳(メタデータ) (2022-10-27T01:58:10Z) - Tree ensemble kernels for Bayesian optimization with known constraints
over mixed-feature spaces [54.58348769621782]
木アンサンブルはアルゴリズムチューニングやニューラルアーキテクチャ検索といったブラックボックス最適化タスクに適している。
ブラックボックス最適化にツリーアンサンブルを使うことの2つのよく知られた課題は、探索のためのモデル不確実性を効果的に定量化し、また、 (ii) ピースワイドな定値取得関数を最適化することである。
我々のフレームワークは、連続/離散的機能に対する非拘束ブラックボックス最適化のための最先端の手法と同様に、混合変数の特徴空間と既知の入力制約を組み合わせた問題の競合する手法よりも優れている。
論文 参考訳(メタデータ) (2022-07-02T16:59:37Z) - Accelerating Bayesian Optimization for Biological Sequence Design with
Denoising Autoencoders [28.550684606186884]
我々は,識別可能なマルチタスクガウスプロセスヘッドを用いて,デノナイズドオートエンコーダを共同で訓練する手法を開発した。
我々はZINCデータセットに基づく小分子上でLaMBOを評価し,蛍光タンパク質をターゲットとした新しい大規模分子タスクを導入する。
論文 参考訳(メタデータ) (2022-03-23T21:58:45Z) - Batched Data-Driven Evolutionary Multi-Objective Optimization Based on
Manifold Interpolation [6.560512252982714]
バッチ化されたデータ駆動型進化的多目的最適化を実現するためのフレームワークを提案する。
オフザシェルフ進化的多目的最適化アルゴリズムがプラグイン方式で適用できるのは、非常に一般的である。
提案するフレームワークは, より高速な収束と各種PF形状に対する強いレジリエンスを特徴とする。
論文 参考訳(メタデータ) (2021-09-12T23:54:26Z) - Bayesian Optimization with High-Dimensional Outputs [42.311308135418805]
実際には、多くの相関した結果(またはタスク)に対して定義された目的を最適化したいと望んでいます。
共分散行列におけるKronecker構造とMatheronの同一性を組み合わせた,正確なマルチタスクGPサンプリングのための効率的な手法を考案する。
これは、科学と工学の様々なタスクにまたがって、ベイズ最適化のための新しい種類のアプリケーションを、どのように解き放つかを実証する。
論文 参考訳(メタデータ) (2021-06-24T13:15:12Z) - Particle Swarm Optimization: Fundamental Study and its Application to
Optimization and to Jetty Scheduling Problems [0.0]
従来の手法に関する進化的アルゴリズムの利点は、文献で大いに議論されている。
粒子群はそのような利点を共有しているが、計算コストの低減と実装の容易さが要求されるため、進化的アルゴリズムよりも優れている。
本論文は, それらのチューニングについて検討するものではなく, 従来の研究から汎用的な設定を抽出し, 様々な問題を最適化するために, 事実上同じアルゴリズムを用いている。
論文 参考訳(メタデータ) (2021-01-25T02:06:30Z) - Bilevel Optimization: Convergence Analysis and Enhanced Design [63.64636047748605]
バイレベル最適化は多くの機械学習問題に対するツールである。
Stoc-BiO という新しい確率効率勾配推定器を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:09:48Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。