論文の概要: Improved FOX Optimization Algorithm
- arxiv url: http://arxiv.org/abs/2504.09574v1
- Date: Sun, 13 Apr 2025 13:50:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:52:39.892184
- Title: Improved FOX Optimization Algorithm
- Title(参考訳): FOX最適化アルゴリズムの改良
- Authors: Mahmood A. Jumaah, Yossra H. Ali, Tarik A. Rashid,
- Abstract要約: 本稿では、改良型FOX最適化アルゴリズム、改良型FOX(IFOX)を提案する。
IFOXは、フィットネス値に基づく探索と搾取のバランスをとるための新しい適応メカニズムを導入した。
その結果、IFOXは既存の最適化アルゴリズムよりも優れており、51のベンチマーク関数において優れた結果が得られた。
- 参考スコア(独自算出の注目度): 4.395397502990339
- License:
- Abstract: Optimization algorithms are essential for solving many real-world problems. However, challenges such as premature convergence to local optima and the difficulty of effectively balancing exploration and exploitation often hinder their performance. To address these issues, this paper proposes an improved FOX optimization algorithm, Improved FOX (IFOX). The IFOX algorithm introduces a new adaptive mechanism for balancing exploration and exploitation based on fitness values. It also reduces the number of hyperparameters and simplifies the core equations of the original FOX. To evaluate its effectiveness, IFOX has been tested on classical uni-modal and multi-modal benchmark functions, as well as on benchmark sets from the Congress on Evolutionary Computation (CEC), in addition to two engineering design problems: Pressure Vessel Design and Economic Load Dispatch. The results show that IFOX outperforms existing optimization algorithms, achieving superior results on 51 benchmark functions. These findings underscore the strong potential of IFOX as a competitive and robust optimization algorithm for a wide range of applications.
- Abstract(参考訳): 最適化アルゴリズムは多くの現実世界の問題を解決するのに不可欠である。
しかし、局所的な最適性への早めの収束や、探検と搾取を効果的にバランスをとることの難しさといった課題は、しばしばその性能を妨げている。
これらの問題に対処するため, 改良されたFOX最適化アルゴリズム, Improved FOX (IFOX) を提案する。
IFOXアルゴリズムは、適合度値に基づく探索と利用のバランスをとるための新しい適応メカニズムを導入する。
また、ハイパーパラメータの数を減らし、元のFOXのコア方程式を単純化する。
その有効性を評価するために、IFOXは古典的なユニモーダルおよびマルチモーダルのベンチマーク関数、および進化計算会議(CEC)のベンチマークセット、および2つの設計上の問題である圧力容器設計と経済負荷分散(Economic Load Dispatch)でテストされてきた。
その結果、IFOXは既存の最適化アルゴリズムよりも優れており、51のベンチマーク関数よりも優れた結果が得られた。
これらの結果は、広範囲のアプリケーションに対して、競合的かつ堅牢な最適化アルゴリズムとして、IFOXの強い可能性を示している。
関連論文リスト
- Provably Faster Algorithms for Bilevel Optimization via Without-Replacement Sampling [96.47086913559289]
勾配に基づくアルゴリズムはバイレベル最適化に広く用いられている。
本研究では,より高速な収束率を実現する非置換サンプリングに基づくアルゴリズムを提案する。
合成および実世界の両方のアプリケーションに対してアルゴリズムを検証する。
論文 参考訳(メタデータ) (2024-11-07T17:05:31Z) - An Enhanced Grey Wolf Optimizer with Elite Inheritance and Balance Search Mechanisms [13.754649370512924]
グレイウルフ(GWO)は、灰色のオオカミの社会的リーダーシップ階層と狩猟メカニズムに触発された新しいメタヒューリスティックアルゴリズムとして認識されている。
オリジナルのGWOでは、その基本的な最適化メカニズムに2つの重大な欠陥がある。
エリート継承機構とバランス探索機構を備えた強化されたグレイウルフを提案する。
論文 参考訳(メタデータ) (2024-04-09T03:28:00Z) - Restricted Global Optimization for QAOA [0.0]
局所最適化手法はQAOAの複雑なコスト環境において本質的に不十分であることを示す。
代わりに、グローバル最適化技術は様々な問題インスタンスにわたるQAOAのパフォーマンスを大幅に改善する。
論文 参考訳(メタデータ) (2023-09-21T15:47:07Z) - VeLO: Training Versatile Learned Optimizers by Scaling Up [67.90237498659397]
私たちは、ディープラーニングの成功の背後にある同じスケーリングアプローチを活用して、汎用性を学びます。
私たちは、パラメータの更新を取り込み出力する小さなニューラルネットワークであるディープラーニングのためのインジェクションをトレーニングします。
学習したメタトレーニングコード、関連するトレインテストデータ、およびvelo-code.ioのベースラインを備えた広範なベンチマークスイートをオープンソースとして公開しています。
論文 参考訳(メタデータ) (2022-11-17T18:39:07Z) - pysamoo: Surrogate-Assisted Multi-Objective Optimization in Python [7.8140593450932965]
pysamooは計算コストの高い最適化問題を解決するためのフレームワークである。
pysamooは、時間を要する評価機能に関わる問題に対処する複数の最適化方法を提供する。
pysamooの詳細については、Anyoptimization.com/projects/pysamooを参照してほしい。
論文 参考訳(メタデータ) (2022-04-12T14:55:57Z) - Provably Faster Algorithms for Bilevel Optimization [54.83583213812667]
バイレベル最適化は多くの重要な機械学習アプリケーションに広く適用されている。
両レベル最適化のための2つの新しいアルゴリズムを提案する。
両アルゴリズムが$mathcalO(epsilon-1.5)$の複雑さを達成し,既存のアルゴリズムを桁違いに上回っていることを示す。
論文 参考訳(メタデータ) (2021-06-08T21:05:30Z) - Quantum variational optimization: The role of entanglement and problem
hardness [0.0]
本稿では, 絡み合いの役割, 変動量子回路の構造, 最適化問題の構造について検討する。
数値計算の結果,絡み合うゲートの分布を問題のトポロジに適応させる利点が示唆された。
リスク型コスト関数に条件値を適用することで最適化が向上し、最適解と重複する確率が増大することを示す。
論文 参考訳(メタデータ) (2021-03-26T14:06:54Z) - Optimizing Large-Scale Hyperparameters via Automated Learning Algorithm [97.66038345864095]
ゼロ階超勾配(HOZOG)を用いた新しいハイパーパラメータ最適化法を提案する。
具体的には、A型制約最適化問題として、まずハイパーパラメータ最適化を定式化する。
次に、平均ゼロ階超勾配を用いてハイパーパラメータを更新する。
論文 参考訳(メタデータ) (2021-02-17T21:03:05Z) - The Archerfish Hunting Optimizer: a novel metaheuristic algorithm for
global optimization [0.8315801422499861]
グローバル最適化は、目的関数を最小化することにより、現実の問題を数値的にあるいは分析的に解決する。
我々はArcherfish Hunting (AHO)に基づくグローバルメタヒスティックアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-03T16:22:31Z) - Recent Theoretical Advances in Non-Convex Optimization [56.88981258425256]
近年、深層ネットワークにおける非最適化アルゴリズムの解析やデータ問題への関心が高まっており、非最適化のための理論的最適化アルゴリズムの最近の結果の概要を概説する。
論文 参考訳(メタデータ) (2020-12-11T08:28:51Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。