論文の概要: Blindfolded Spider-man Optimization: A Single-Point Metaheuristics Suitable for Continuous and Discrete Spaces
- arxiv url: http://arxiv.org/abs/2505.17069v1
- Date: Mon, 19 May 2025 15:05:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:33.522354
- Title: Blindfolded Spider-man Optimization: A Single-Point Metaheuristics Suitable for Continuous and Discrete Spaces
- Title(参考訳): Blindfolded Spider-man Optimization:連続および離散空間に適した単一点メタヒューリスティックス
- Authors: Satyam Mittal,
- Abstract要約: 連続領域と離散領域の両方に適した新しい単一点メタヒューリスティック最適化手法を提案する。
ブラインドフォールドスパイダーマン最適化(Blindfolded Spiderman Optimization)は、各行セグメントが改善された解点への移動を考慮に入れた、一回りの線形探索軌道に従う。
Blindfolded Spiderman Optimization は連続空間と離散空間の両方において優れた性能を発揮することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, we introduce a new single point metaheuristic optimization approach suitable for both continuous and discrete domains. The proposed algorithm, entitled Blindfolded Spiderman Optimization, follows a piecewise linear search trajectory where each line segment considers a move to an improved solution point. The trajectory resembles spiderman jumping from one building to the highest neighbor building in a blindfolded manner. Blindfolded Spiderman Optimization builds on top of the Buggy Pinball Optimization algorithm. Blindfolded Spiderman Optimization is tested on 16 mathematical optimization functions and one discrete problem of Unbounded Knapsack. We perform a thorough evaluation of Blindfolded Spiderman Optimization against established and state-of-the-art metaheuristic optimization methods, including Whale Optimization, Grey Wolf Optimization, Particle Swarm Optimization, Simulated Annealing, Threshold Accepting, and Buggy Pinball Optimization considering various optimization domains and dimensions. We show that Blindfolded Spiderman Optimization achieves great performance on both continuous and discrete spaces, and superior performance compared to all single-point metaheuristic approaches considered.
- Abstract(参考訳): 本研究では,連続領域と離散領域の両方に適した単一点メタヒューリスティック最適化手法を提案する。
提案アルゴリズムはBlindfolded Spiderman Optimization (Blindfolded Spiderman Optimization) と題され、各行セグメントが改善された解点への移動を考える一方向線形探索軌道に従う。
軌道は、ある建物から最も高い隣の建物に目隠しでジャンプするスパイダーマンに似ている。
Blindfolded Spiderman Optimizationは、Buggy Pinball Optimizationアルゴリズムの上に構築されている。
ブラインドフォールドスパイダーマン最適化は、16の数学的最適化関数と1つの非有界クナプサックの離散問題で試験される。
我々は,Whale Optimization, Grey Wolf Optimization, Particle Swarm Optimization, Simulated Annealing, Threshold Accepting, Buggy Pinball Optimizationなどを含む,確立および最先端のメタヒューリスティック最適化手法に対するブラインドフォールドスパイダーマン最適化の徹底的な評価を行う。
Blindfolded Spiderman Optimization は連続空間と離散空間の両方において優れた性能を示し、考慮した全ての単一点メタヒューリスティックアプローチと比較して優れた性能を示す。
関連論文リスト
- Scalable Min-Max Optimization via Primal-Dual Exact Pareto Optimization [66.51747366239299]
拡張ラグランジアンに基づくmin-max問題のスムーズな変種を提案する。
提案アルゴリズムは, 段階的戦略よりも目的数で拡張性が高い。
論文 参考訳(メタデータ) (2025-03-16T11:05:51Z) - Localized Zeroth-Order Prompt Optimization [54.964765668688806]
そこで我々は,ZOPO(Localized zeroth-order prompt optimization)という新しいアルゴリズムを提案する。
ZOPOはニューラル・タンジェント・カーネルをベースとしたガウス法を標準ゼロ階次最適化に取り入れ、高速な局所最適探索を高速化する。
注目すべきは、ZOPOは最適化性能とクエリ効率の両方の観点から、既存のベースラインを上回っていることだ。
論文 参考訳(メタデータ) (2024-03-05T14:18:15Z) - Voronoi Candidates for Bayesian Optimization [2.499907423888049]
多くの実践的なBO法、特に高次元では、取得関数の形式的で連続的な最適化を導出する。
本稿では,現在の設計点のヴォロノイ・テッセルレーションの境界上にある候補を用いて,それらのうち2つ以上に等しくなるようにすることを提案する。
テッセルレーションを明示的に生成することなく,ヴォロノイ境界を直接サンプリングすることで,効率的な実装の戦略について議論する。
論文 参考訳(メタデータ) (2024-02-07T14:47:13Z) - MADA: Meta-Adaptive Optimizers through hyper-gradient Descent [73.1383658672682]
メタ適応(MADA)は、複数の既知の収束を一般化し、トレーニング中に最も適した収束を動的に学習できる統合フレームワークである。
私たちは、MADAを視覚や言語タスクに関する他の人気と経験的に比較し、MADAがAdamや他の人気を一貫して上回っていることに気付きました。
AVGradは最大演算子を平均演算子に置き換えたもので、高次最適化に適している。
論文 参考訳(メタデータ) (2024-01-17T00:16:46Z) - Nesterov Meets Optimism: Rate-Optimal Separable Minimax Optimization [108.35402316802765]
本稿では,新しい一階最適化アルゴリズムであるAcceleratedGradient-OptimisticGradient (AG-OG) Ascentを提案する。
我々はAG-OGが様々な設定に対して最適収束率(定数まで)を達成することを示す。
アルゴリズムを拡張して設定を拡張し、bi-SC-SCとbi-C-SCの両方で最適な収束率を達成する。
論文 参考訳(メタデータ) (2022-10-31T17:59:29Z) - Optimistic Optimization of Gaussian Process Samples [30.226274682578172]
競合する、計算的により効率的でグローバルな最適化フレームワークは楽観的な最適化であり、これは探索空間の幾何学に関する事前知識を相似関数として利用している。
幾何的探索と確率的探索の間には新たな研究領域があり、ベイズ最適化の重要な機能を保ちながら、従来のベイズ最適化よりも大幅に高速に実行される方法がある。
論文 参考訳(メタデータ) (2022-09-02T09:06:24Z) - Bayesian Optimization for auto-tuning GPU kernels [0.0]
GPUカーネルの最適パラメータ設定を見つけることは、たとえ自動化されても、大規模な検索スペースにとって簡単な作業ではない。
拡張性を改善した新しい文脈探索機能と,情報機能選択機構を併用した新しい獲得機能を導入する。
論文 参考訳(メタデータ) (2021-11-26T11:26:26Z) - Solving Black-Box Optimization Challenge via Learning Search Space
Partition for Local Bayesian Optimization [0.6372261626436676]
本稿では,局所ベイズ最適化のための探索空間分割学習によるブラックボックス最適化問題の解法について述べる。
我々のアプローチは競争で3位になった。
論文 参考訳(メタデータ) (2020-12-18T16:29:44Z) - Incorporating Expert Prior in Bayesian Optimisation via Space Warping [54.412024556499254]
大きな探索空間では、アルゴリズムは関数の最適値に達する前に、いくつかの低関数値領域を通過する。
このコールドスタートフェーズの1つのアプローチは、最適化を加速できる事前知識を使用することである。
本稿では,関数の事前分布を通じて,関数の最適性に関する事前知識を示す。
先行分布は、探索空間を最適関数の高確率領域の周りに拡張し、最適関数の低確率領域の周りに縮小するようにワープする。
論文 参考訳(メタデータ) (2020-03-27T06:18:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。