論文の概要: A Performance Analysis of Basin Hopping Compared to Established
Metaheuristics for Global Optimization
- arxiv url: http://arxiv.org/abs/2403.05877v1
- Date: Sat, 9 Mar 2024 11:02:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 12:06:38.712139
- Title: A Performance Analysis of Basin Hopping Compared to Established
Metaheuristics for Global Optimization
- Title(参考訳): 大域的最適化のための盆地ホッピングとメタヒューリスティックスの比較解析
- Authors: Marco Baioletti, Valentino Santucci, Marco Tomassini
- Abstract要約: BBOBテスト関数セットと2つの困難な実世界の問題を用いたIOHプロファイラ環境を用いた数値実験を行った。
その結果, 流域ホッピングは, より確立されたメタヒューリスティクスとともに, 大域的な数値最適化問題の候補となる可能性が示唆された。
- 参考スコア(独自算出の注目度): 2.209921757303168
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: During the last decades many metaheuristics for global numerical optimization
have been proposed. Among them, Basin Hopping is very simple and
straightforward to implement, although rarely used outside its original
Physical Chemistry community. In this work, our aim is to compare Basin
Hopping, and two population variants of it, with readily available
implementations of the well known metaheuristics Differential Evolution,
Particle Swarm Optimization, and Covariance Matrix Adaptation Evolution
Strategy. We perform numerical experiments using the IOH profiler environment
with the BBOB test function set and two difficult real-world problems. The
experiments were carried out in two different but complementary ways: by
measuring the performance under a fixed budget of function evaluations and by
considering a fixed target value. The general conclusion is that Basin Hopping
and its newly introduced population variant are almost as good as Covariance
Matrix Adaptation on the synthetic benchmark functions and better than it on
the two hard cluster energy minimization problems. Thus, the proposed analyses
show that Basin Hopping can be considered a good candidate for global numerical
optimization problems along with the more established metaheuristics,
especially if one wants to obtain quick and reliable results on an unknown
problem.
- Abstract(参考訳): 過去数十年間、グローバル数値最適化のための多くのメタヒューリスティックが提案されてきた。
その中でも、盆地ホッピングは非常に単純で簡単に実装できるが、元の物理化学コミュニティ以外では滅多に使われない。
本研究の目的は,よく知られたメタヒューリスティックな微分進化,粒子群最適化,共分散行列適応進化戦略の実装により,流域のホッピングとその2つの個体群を比較することである。
BBOBテスト関数セットと2つの困難な実世界の問題を用いたIOHプロファイラ環境を用いた数値実験を行った。
実験は2つの異なる相補的な方法で実施され、機能評価の固定予算下での性能の測定と、目標値の固定を考慮した。
一般的な結論は、盆地のホッピングとその新しく導入された個体群は、合成ベンチマーク関数の共分散行列の適応にほぼ匹敵し、2つのハードクラスターエネルギー最小化問題より優れているということである。
したがって,提案手法は,特に未知問題に対して迅速かつ信頼性の高い結果を得たい場合において,より確立されたメタヒューリスティックスとともに,大域的な数値最適化問題の候補となりうることを示す。
関連論文リスト
- BoTier: Multi-Objective Bayesian Optimization with Tiered Composite Objectives [0.0]
実験結果と入力パラメータの両方に対して、好みの階層を柔軟に表現できる複合目的であるBoTierを紹介する。
重要なのは、BoTierは自動微分可能な方法で実装されており、BoTorchライブラリとのシームレスな統合を可能にすることだ。
論文 参考訳(メタデータ) (2025-01-26T15:05:37Z) - Co-Learning Bayesian Optimization [28.394424693363103]
本稿では,モデル多様性とラベルなし情報の一致を両立させ,限られたサンプルを用いて全体のサロゲート精度を向上させる,コラーニングBO (CLBO) とラベル付けされた新しいBOアルゴリズムを提案する。
5つの数値玩具問題と3つのエンジニアリングベンチマークの試験を通じて,提案したCLBOの有効性を実証した。
論文 参考訳(メタデータ) (2025-01-23T02:25:10Z) - Tackling Prevalent Conditions in Unsupervised Combinatorial Optimization: Cardinality, Minimum, Covering, and More [28.920691288421484]
我々は、非監督的なCOにおける一般的な(つまり、一般的に関与する)条件に取り組むことを目指している。
まず、客観的な構築とデランドマイズのための目標を理論的に正当化する。
次に, 異なるCO問題に共通する諸条件に対して, 非自明な目的と, 目的を満たすためのデランドマイズを導出する。
論文 参考訳(メタデータ) (2024-05-14T08:35:39Z) - Poisson Process for Bayesian Optimization [126.51200593377739]
本稿では、Poissonプロセスに基づくランキングベースの代理モデルを提案し、Poisson Process Bayesian Optimization(PoPBO)と呼ばれる効率的なBOフレームワークを提案する。
従来のGP-BO法と比較すると,PoPBOはコストが低く,騒音に対する堅牢性も良好であり,十分な実験により検証できる。
論文 参考訳(メタデータ) (2024-02-05T02:54:50Z) - Fast Bayesian Optimization of Needle-in-a-Haystack Problems using
Zooming Memory-Based Initialization [73.96101108943986]
Needle-in-a-Haystack問題は、データセットのサイズに対して最適な条件が極端に不均衡であるときに発生する。
本稿では,従来のベイズ最適化原理に基づくズームメモリに基づく初期化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-26T23:57:41Z) - Optimizer Amalgamation [124.33523126363728]
私たちは、Amalgamationという新しい問題の研究を動機付けています。"Teacher"アマルガメーションのプールを、より強力な問題固有のパフォーマンスを持つ単一の"学生"にどのように組み合わせるべきなのでしょうか?
まず、勾配降下による解析のプールをアマルガメートする3つの異なるメカニズムを定義する。
また, プロセスの分散を低減するため, 目標を摂動させることでプロセスの安定化を図る。
論文 参考訳(メタデータ) (2022-03-12T16:07:57Z) - Harnessing Heterogeneity: Learning from Decomposed Feedback in Bayesian
Modeling [68.69431580852535]
サブグループフィードバックを取り入れた新しいGPレグレッションを導入する。
我々の修正された回帰は、以前のアプローチと比べて、明らかにばらつきを減らし、したがってより正確な後続を減らした。
我々は2つの異なる社会問題に対してアルゴリズムを実行する。
論文 参考訳(メタデータ) (2021-07-07T03:57:22Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - On the Convergence Rate of Projected Gradient Descent for a
Back-Projection based Objective [58.33065918353532]
我々は、最小二乗(LS)の代替として、バックプロジェクションに基づく忠実度項を考える。
LS項ではなくBP項を用いることで最適化アルゴリズムの繰り返しを少なくすることを示す。
論文 参考訳(メタデータ) (2020-05-03T00:58:23Z) - Scalable Constrained Bayesian Optimization [10.820024633762596]
ブラックボックス制約下での高次元ブラックボックス関数のグローバルな最適化は、機械学習、制御、科学コミュニティにおける普及的なタスクである。
本稿では,上記の課題を克服し,現状を推し進めるスケーラブルな制約付きベイズ最適化(SCBO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-20T01:48:46Z) - On the Performance of Metaheuristics: A Different Perspective [0.0]
我々は,遺伝的アルゴリズム (GA), Particle Swarm Optimization (PSO), Artificial Bee Colony (ABC), Teaching-Learning-Based Optimization (TLBO), Cuckoo Optimization Algorithm (COA) のいくつかの基本的な進化的およびスワム知能メタヒューリスティックスについて検討した。
異なる特性を持つ20種類の最適化ベンチマーク関数について多数の実験が行われており、これらのメタヒューリスティックスの中での次の順位の他に、いくつかの基本的な結論が示されている。
論文 参考訳(メタデータ) (2020-01-24T09:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。