論文の概要: An Improved FOX Optimization Algorithm Using Adaptive Exploration and Exploitation for Global Optimization
- arxiv url: http://arxiv.org/abs/2504.09574v2
- Date: Sat, 20 Sep 2025 15:25:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 14:36:44.974248
- Title: An Improved FOX Optimization Algorithm Using Adaptive Exploration and Exploitation for Global Optimization
- Title(参考訳): 大域的最適化のための適応探索と爆発を用いたFOX最適化アルゴリズムの改良
- Authors: Mahmood A. Jumaah, Yossra H. Ali, Tarik A. Rashid,
- Abstract要約: 本稿では,FOX最適化アルゴリズム(FOX)の改良について述べる。
動的にスケールしたステップサイズパラメータを使って探索とエクスプロイトのバランスをとる新しい適応手法が組み込まれている。
実験の結果,IFOXは従来のFOXよりも40%向上したことがわかった。
- 参考スコア(独自算出の注目度): 3.88465206388773
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimization algorithms are essential for solving many real-world problems. However, challenges such as getting trapped in local minima and effectively balancing exploration and exploitation often limit their performance. This paper introduces an improved variation of the FOX optimization algorithm (FOX), termed Improved FOX (IFOX), incorporating a new adaptive method using a dynamically scaled step-size parameter to balance exploration and exploitation based on the current solution's fitness value. The proposed IFOX also reduces the number of hyperparameters by removing four parameters (C1, C2, a, Mint) and refines the primary equations of FOX. To evaluate its performance, IFOX was tested on 20 classical benchmark functions, 61 benchmark test functions from the congress on evolutionary computation (CEC), and ten real-world problems. The experimental results showed that IFOX achieved a 40% improvement in overall performance metrics over the original FOX. Additionally, it achieved 880 wins, 228 ties, and 348 losses against 16 optimization algorithms across all involved functions and problems. Furthermore, non-parametric statistical tests, including the Friedman and Wilcoxon signed-rank tests, confirmed its competitiveness against recent and state-of-the-art optimization algorithms, such as LSHADE and NRO, with an average rank of 5.92 among 17 algorithms. These findings highlight the significant potential of IFOX for solving diverse optimization problems, establishing it as a competitive and effective optimization algorithm.
- Abstract(参考訳): 最適化アルゴリズムは多くの現実世界の問題を解決するのに不可欠である。
しかしながら、ローカルなミニマに閉じ込められ、探索とエクスプロイトの効果的なバランスをとるといった課題は、しばしばパフォーマンスを制限します。
本稿では,FOX最適化アルゴリズム (FOX) の改良版である改良型FOX (IFOX) を提案する。
提案したIFOXは、4つのパラメータ(C1, C2, a, Mint)を除去し、FOXの一次方程式を洗練することにより、ハイパーパラメータの数を減少させる。
その性能を評価するために、IFOXは20の古典的ベンチマーク関数、61のベンチマークテスト関数、および10の実世界の問題で試験された。
実験の結果,IFOXは従来のFOXよりも40%向上したことがわかった。
さらに、すべての機能や問題に対して880勝、228連勝、348敗の16の最適化アルゴリズムを達成している。
さらに、フリードマンとウィルコクソンのサインランクテストを含む非パラメトリック統計テストは、LSHADEやNROのような最近の最先端最適化アルゴリズムに対する競合性を17のアルゴリズムの中で平均5.92のランクで確認した。
これらの結果は、IFOXが様々な最適化問題を解く上で有意義な可能性を示し、競合的で効果的な最適化アルゴリズムとして確立した。
関連論文リスト
- Scalable Min-Max Optimization via Primal-Dual Exact Pareto Optimization [66.51747366239299]
拡張ラグランジアンに基づくmin-max問題のスムーズな変種を提案する。
提案アルゴリズムは, 段階的戦略よりも目的数で拡張性が高い。
論文 参考訳(メタデータ) (2025-03-16T11:05:51Z) - Modified FOX Optimizer for Solving optimization problems [0.0]
本研究は, 探索・平衡探索・エクスプロイトを強化するため, 改良型FOX (mFOX) を提案する。
mFOXアルゴリズムの性能は、23の古典的ベンチマーク関数上の12のよく知られたアルゴリズムに対して評価される。
mFOXは、一様問題、制約問題、高次元問題を含む4つの工学的問題に効果的に対処する。
論文 参考訳(メタデータ) (2025-02-27T12:11:05Z) - Provably Faster Algorithms for Bilevel Optimization via Without-Replacement Sampling [96.47086913559289]
勾配に基づくアルゴリズムはバイレベル最適化に広く用いられている。
本研究では,より高速な収束率を実現する非置換サンプリングに基づくアルゴリズムを提案する。
合成および実世界の両方のアプリケーションに対してアルゴリズムを検証する。
論文 参考訳(メタデータ) (2024-11-07T17:05:31Z) - A Problem-Oriented Perspective and Anchor Verification for Code Optimization [43.28045750932116]
大規模言語モデル(LLM)は、様々なプログラミングタスクを解く際、顕著な能力を示している。
本稿では,LLMが最小実行時間に最適化する能力について検討する。
論文 参考訳(メタデータ) (2024-06-17T16:10:10Z) - An Enhanced Grey Wolf Optimizer with Elite Inheritance and Balance Search Mechanisms [13.754649370512924]
グレイウルフ(GWO)は、灰色のオオカミの社会的リーダーシップ階層と狩猟メカニズムに触発された新しいメタヒューリスティックアルゴリズムとして認識されている。
オリジナルのGWOでは、その基本的な最適化メカニズムに2つの重大な欠陥がある。
エリート継承機構とバランス探索機構を備えた強化されたグレイウルフを提案する。
論文 参考訳(メタデータ) (2024-04-09T03:28:00Z) - Restricted Global Optimization for QAOA [0.0]
局所最適化手法はQAOAの複雑なコスト環境において本質的に不十分であることを示す。
代わりに、グローバル最適化技術は様々な問題インスタンスにわたるQAOAのパフォーマンスを大幅に改善する。
論文 参考訳(メタデータ) (2023-09-21T15:47:07Z) - VeLO: Training Versatile Learned Optimizers by Scaling Up [67.90237498659397]
私たちは、ディープラーニングの成功の背後にある同じスケーリングアプローチを活用して、汎用性を学びます。
私たちは、パラメータの更新を取り込み出力する小さなニューラルネットワークであるディープラーニングのためのインジェクションをトレーニングします。
学習したメタトレーニングコード、関連するトレインテストデータ、およびvelo-code.ioのベースラインを備えた広範なベンチマークスイートをオープンソースとして公開しています。
論文 参考訳(メタデータ) (2022-11-17T18:39:07Z) - pysamoo: Surrogate-Assisted Multi-Objective Optimization in Python [7.8140593450932965]
pysamooは計算コストの高い最適化問題を解決するためのフレームワークである。
pysamooは、時間を要する評価機能に関わる問題に対処する複数の最適化方法を提供する。
pysamooの詳細については、Anyoptimization.com/projects/pysamooを参照してほしい。
論文 参考訳(メタデータ) (2022-04-12T14:55:57Z) - Optimum-statistical Collaboration Towards General and Efficient
Black-box Optimization [23.359363844344408]
最適化過程において,最適化誤差フラックスと統計的誤差フラックスとの相互作用を管理するアルゴリズムフレームワークを導入する。
我々のフレームワークとその分析は、異なる局所的滑らかさの仮定を満たす関数と分割の大きなファミリーに適用できる。
理論的には、局所的滑らかさの仮定が異なる条件下で、アルゴリズムが速度-最適後悔境界を楽しむことを証明する。
論文 参考訳(メタデータ) (2021-06-17T02:37:39Z) - Provably Faster Algorithms for Bilevel Optimization [54.83583213812667]
バイレベル最適化は多くの重要な機械学習アプリケーションに広く適用されている。
両レベル最適化のための2つの新しいアルゴリズムを提案する。
両アルゴリズムが$mathcalO(epsilon-1.5)$の複雑さを達成し,既存のアルゴリズムを桁違いに上回っていることを示す。
論文 参考訳(メタデータ) (2021-06-08T21:05:30Z) - Optimizing Large-Scale Hyperparameters via Automated Learning Algorithm [97.66038345864095]
ゼロ階超勾配(HOZOG)を用いた新しいハイパーパラメータ最適化法を提案する。
具体的には、A型制約最適化問題として、まずハイパーパラメータ最適化を定式化する。
次に、平均ゼロ階超勾配を用いてハイパーパラメータを更新する。
論文 参考訳(メタデータ) (2021-02-17T21:03:05Z) - The Archerfish Hunting Optimizer: a novel metaheuristic algorithm for
global optimization [0.8315801422499861]
グローバル最適化は、目的関数を最小化することにより、現実の問題を数値的にあるいは分析的に解決する。
我々はArcherfish Hunting (AHO)に基づくグローバルメタヒスティックアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-03T16:22:31Z) - Recent Theoretical Advances in Non-Convex Optimization [56.88981258425256]
近年、深層ネットワークにおける非最適化アルゴリズムの解析やデータ問題への関心が高まっており、非最適化のための理論的最適化アルゴリズムの最近の結果の概要を概説する。
論文 参考訳(メタデータ) (2020-12-11T08:28:51Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。