論文の概要: A Novel Hybrid Grey Wolf Differential Evolution Algorithm
- arxiv url: http://arxiv.org/abs/2507.03022v2
- Date: Tue, 08 Jul 2025 06:18:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 12:20:17.790829
- Title: A Novel Hybrid Grey Wolf Differential Evolution Algorithm
- Title(参考訳): 新しいハイブリッド・ウルフ微分進化アルゴリズム
- Authors: Ioannis D. Bougas, Pavlos Doanis, Maria S. Papadopoulou, Achilles D. Boursianis, Sotirios P. Sotiroudis, Zaharias D. Zaharis, George Koudouridis, Panagiotis Sarigiannidis, Mohammad Abdul Matint, George Karagiannidis, Sotirios K. Goudos,
- Abstract要約: 本稿では,GWOと2種類のDEのハイブリッド化に基づく新しいアルゴリズム,すなわちGWO-DEアルゴリズムを提案する。
様々な数値ベンチマーク関数を適用して新しいアルゴリズムを評価する。
- 参考スコア(独自算出の注目度): 1.2842469556228848
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Grey wolf optimizer (GWO) is a nature-inspired stochastic meta-heuristic of the swarm intelligence field that mimics the hunting behavior of grey wolves. Differential evolution (DE) is a popular stochastic algorithm of the evolutionary computation field that is well suited for global optimization. In this part, we introduce a new algorithm based on the hybridization of GWO and two DE variants, namely the GWO-DE algorithm. We evaluate the new algorithm by applying various numerical benchmark functions. The numerical results of the comparative study are quite satisfactory in terms of performance and solution quality.
- Abstract(参考訳): グレイオオカミオプティマイザ(Grey wolf Optimizationr、GWO)は、グレイオオカミの狩猟行動を模倣したスワム情報分野の確率的メタヒューリスティックである。
微分進化(DE)は、大域最適化に適した進化計算分野の確率的アルゴリズムである。
本稿では,GWO と 2 つの DE 変種,すなわち GWO-DE アルゴリズムのハイブリッド化に基づく新しいアルゴリズムを提案する。
様々な数値ベンチマーク関数を適用して新しいアルゴリズムを評価する。
比較研究の数値的な結果は、性能と解の質の点で非常に良好である。
関連論文リスト
- An Enhanced Grey Wolf Optimizer with Elite Inheritance and Balance Search Mechanisms [13.754649370512924]
グレイウルフ(GWO)は、灰色のオオカミの社会的リーダーシップ階層と狩猟メカニズムに触発された新しいメタヒューリスティックアルゴリズムとして認識されている。
オリジナルのGWOでは、その基本的な最適化メカニズムに2つの重大な欠陥がある。
エリート継承機構とバランス探索機構を備えた強化されたグレイウルフを提案する。
論文 参考訳(メタデータ) (2024-04-09T03:28:00Z) - Genetically Modified Wolf Optimization with Stochastic Gradient Descent
for Optimising Deep Neural Networks [0.0]
本研究の目的は、人口ベースメタヒューリスティックアルゴリズムを用いて、ニューラルネットワーク(NN)重み付けを最適化するための代替アプローチを分析することである。
Grey Wolf (GWO) と Genetic Modified Algorithms (GA) のハイブリッドをグラディエント・Descent (SGD) と組み合わせて検討した。
このアルゴリズムは、高次元性の問題にも対処しながら、エクスプロイトと探索の組み合わせを可能にする。
論文 参考訳(メタデータ) (2023-01-21T13:22:09Z) - Amortized Implicit Differentiation for Stochastic Bilevel Optimization [53.12363770169761]
決定論的条件と決定論的条件の両方において、二段階最適化問題を解決するアルゴリズムのクラスについて検討する。
厳密な勾配の推定を補正するために、ウォームスタート戦略を利用する。
このフレームワークを用いることで、これらのアルゴリズムは勾配の偏りのない推定値にアクセス可能な手法の計算複雑性と一致することを示す。
論文 参考訳(メタデータ) (2021-11-29T15:10:09Z) - Result Diversification by Multi-objective Evolutionary Algorithms with
Theoretical Guarantees [94.72461292387146]
両目的探索問題として結果の多様化問題を再構成し,多目的進化アルゴリズム(EA)を用いて解くことを提案する。
GSEMOが最適時間近似比1/2$を達成できることを理論的に証明する。
目的関数が動的に変化すると、GSEMOはこの近似比をランニングタイムで維持することができ、Borodinらによって提案されたオープンな問題に対処する。
論文 参考訳(メタデータ) (2021-10-18T14:00:22Z) - An Accelerated Variance-Reduced Conditional Gradient Sliding Algorithm
for First-order and Zeroth-order Optimization [111.24899593052851]
条件勾配アルゴリズム(Frank-Wolfeアルゴリズムとも呼ばれる)は、最近、機械学習コミュニティで人気を取り戻している。
ARCSは、ゼロ階最適化において凸問題を解く最初のゼロ階条件勾配スライディング型アルゴリズムである。
1次最適化では、ARCSの収束結果は、勾配クエリのオラクルの数で、従来のアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2021-09-18T07:08:11Z) - Polygonal Unadjusted Langevin Algorithms: Creating stable and efficient
adaptive algorithms for neural networks [0.0]
本稿では,Langevinベースのアルゴリズムを新たに導入し,一般的な適応的消滅アルゴリズムの欠点の多くを克服する。
特に、この新しいクラスのアルゴリズムの収束性についての漸近解析と完全な理論的保証を提供し、TH$varepsilon$O POULA(あるいは単にTheoPouLa)と名付けた。
論文 参考訳(メタデータ) (2021-05-28T15:58:48Z) - A Novel Hybrid GWO with WOA for Global Numerical Optimization and
Solving Pressure Vessel Design [1.1802674324027231]
Grey Wolf Optimization (GWO) は、他の一般的なメタヒューリスティックアルゴリズムと比較して非常に競合的なアルゴリズムである。
本稿では,WOAGWOと呼ばれるGWOをハイブリッド化したWOAについて述べる。
提案したWOAGWOは、元のWOA、GWOおよび他の3つの一般的なアルゴリズムに対して評価される。
論文 参考訳(メタデータ) (2020-02-28T21:15:16Z) - Adaptivity of Stochastic Gradient Methods for Nonconvex Optimization [71.03797261151605]
適応性は現代最適化理論において重要であるが、研究されていない性質である。
提案アルゴリズムは,PL目標に対して既存のアルゴリズムよりも優れた性能を保ちながら,PL目標に対して最適な収束性を実現することを実証した。
論文 参考訳(メタデータ) (2020-02-13T05:42:27Z) - Towards Better Understanding of Adaptive Gradient Algorithms in
Generative Adversarial Nets [71.05306664267832]
適応アルゴリズムは勾配の歴史を用いて勾配を更新し、深層ニューラルネットワークのトレーニングにおいてユビキタスである。
本稿では,非コンケーブ最小値問題に対するOptimisticOAアルゴリズムの変種を解析する。
実験の結果,適応型GAN非適応勾配アルゴリズムは経験的に観測可能であることがわかった。
論文 参考訳(メタデータ) (2019-12-26T22:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。