論文の概要: GLHF: General Learned Evolutionary Algorithm Via Hyper Functions
- arxiv url: http://arxiv.org/abs/2405.03728v1
- Date: Mon, 6 May 2024 09:11:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-08 18:24:15.398520
- Title: GLHF: General Learned Evolutionary Algorithm Via Hyper Functions
- Title(参考訳): GLHF:ハイパー関数による一般的な進化的アルゴリズム
- Authors: Xiaobin Li, Kai Wu, Yujian Betterest Li, Xiaoyu Zhang, Handing Wang, Jing Liu,
- Abstract要約: 一般事前学習最適化モデル(GPOM)は、最先端進化アルゴリズムと事前学習最適化モデル(POM)より優れている
GPOMは多様なタスク分布、次元、人口規模、最適化地平線にまたがる堅牢な一般化能力を示す。
- 参考スコア(独自算出の注目度): 16.391389860521134
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pretrained Optimization Models (POMs) leverage knowledge gained from optimizing various tasks, providing efficient solutions for new optimization challenges through direct usage or fine-tuning. Despite the inefficiencies and limited generalization abilities observed in current POMs, our proposed model, the general pre-trained optimization model (GPOM), addresses these shortcomings. GPOM constructs a population-based pretrained Black-Box Optimization (BBO) model tailored for continuous optimization. Evaluation on the BBOB benchmark and two robot control tasks demonstrates that GPOM outperforms other pretrained BBO models significantly, especially for high-dimensional tasks. Its direct optimization performance exceeds that of state-of-the-art evolutionary algorithms and POMs. Furthermore, GPOM exhibits robust generalization capabilities across diverse task distributions, dimensions, population sizes, and optimization horizons.
- Abstract(参考訳): 事前最適化モデル(POM)は、様々なタスクの最適化から得られた知識を活用し、直接使用や微調整による新しい最適化課題に対する効率的な解決策を提供する。
現在のPOMで観測される非効率性と限定的な一般化能力にもかかわらず、提案モデルである一般事前学習最適化モデル(GPOM)はこれらの欠点に対処する。
GPOMは、継続最適化に適した、人口ベースで事前訓練されたブラックボックス最適化(BBO)モデルを構築する。
BBOBベンチマークと2つのロボット制御タスクの評価は、特に高次元タスクにおいて、GPOMが他の事前訓練されたBBOモデルを大幅に上回っていることを示す。
直接最適化性能は最先端の進化アルゴリズムやPOMよりも優れている。
さらに、GPOMは多様なタスク分布、次元、人口規模、最適化地平線にまたがる堅牢な一般化能力を示す。
関連論文リスト
- Automated Computational Energy Minimization of ML Algorithms using Constrained Bayesian Optimization [1.2891210250935148]
我々は,エネルギー消費を最小化する目的で,制約付きベイズ最適化(CBO)を評価した。
我々は,MLモデルの予測性能を損なうことなく,CBOによる省エネ効果を実証した。
論文 参考訳(メタデータ) (2024-07-08T09:49:38Z) - Discovering Preference Optimization Algorithms with and for Large Language Models [50.843710797024805]
オフライン優先最適化は、LLM(Large Language Model)出力の品質を向上・制御するための重要な手法である。
我々は、人間の介入なしに、新しい最先端の選好最適化アルゴリズムを自動で発見する客観的発見を行う。
実験は、ロジスティックと指数的損失を適応的にブレンドする新しいアルゴリズムであるDiscoPOPの最先端性能を示す。
論文 参考訳(メタデータ) (2024-06-12T16:58:41Z) - PMBO: Enhancing Black-Box Optimization through Multivariate Polynomial
Surrogates [0.0]
我々は、PMBO(Polynomial-based Optimization)と呼ばれるサロゲートベースのブラックボックス最適化手法を導入する。
PMBOの性能を解析的テスト関数の集合に対するいくつかの最適化手法と比較する。
興味深いことに、PMBOは最先端の進化アルゴリズムと互換性がある。
論文 参考訳(メタデータ) (2024-03-12T10:21:21Z) - Functional Graphical Models: Structure Enables Offline Data-Driven
Optimization [121.57202302457135]
構造がサンプル効率のよいデータ駆動最適化を実現する方法を示す。
また、FGM構造自体を推定するデータ駆動最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-08T22:33:14Z) - A General Framework for User-Guided Bayesian Optimization [51.96352579696041]
コラボ (ColaBO) は、典型的なカーネル構造を超越した事前信念のための最初のベイズ原理の枠組みである。
我々は,ColaBOの事前情報が正確である場合に最適化を著しく高速化し,ミスリード時のほぼ既定性能を維持する能力を実証的に実証した。
論文 参考訳(メタデータ) (2023-11-24T18:27:26Z) - Polynomial-Model-Based Optimization for Blackbox Objectives [0.0]
ブラックボックス最適化は、事前定義された目的関数が最小化されるようなシステムに対して最適なパラメータを求める。
PMBOは目的関数にサロゲートを合わせることで最小値を求める新しいブラックボックスである。
PMBOは、与えられた人工的解析関数のセットに対して、他の最先端のアルゴリズムとベンチマークされる。
論文 参考訳(メタデータ) (2023-09-01T14:11:03Z) - Towards Automated Design of Bayesian Optimization via Exploratory
Landscape Analysis [11.143778114800272]
AFの動的選択はBO設計に有用であることを示す。
我々は,オートML支援のオンザフライBO設計への道を開き,その動作をランニング・バイ・ランで調整する。
論文 参考訳(メタデータ) (2022-11-17T17:15:04Z) - Optimizing Closed-Loop Performance with Data from Similar Systems: A
Bayesian Meta-Learning Approach [1.370633147306388]
性能最適化タスクから収集したデータに基づいて,メタ学習を用いて初期サロゲートモデルを生成する。
制御系の性能最適化を高速化するためのDKN-BO手法の有効性を実証した。
論文 参考訳(メタデータ) (2022-10-31T18:25:47Z) - Learning Implicit Priors for Motion Optimization [105.11889448885226]
エネルギーベースモデル(EBM)は、表現力のある確率密度分布を表す。
本稿では,EMMを動作最適化に適用するために必要となるモデリングとアルゴリズムの選択について述べる。
論文 参考訳(メタデータ) (2022-04-11T19:14:54Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - Bayesian Optimization for Selecting Efficient Machine Learning Models [53.202224677485525]
本稿では,予測効率とトレーニング効率の両面において,モデルを協調最適化するための統一ベイズ最適化フレームワークを提案する。
レコメンデーションタスクのためのモデル選択の実験は、この方法で選択されたモデルがモデルのトレーニング効率を大幅に改善することを示している。
論文 参考訳(メタデータ) (2020-08-02T02:56:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。