論文の概要: Robustness and Invariance of Hybrid Metaheuristics under Objective Function Transformations
- arxiv url: http://arxiv.org/abs/2509.05445v1
- Date: Fri, 05 Sep 2025 18:55:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.512096
- Title: Robustness and Invariance of Hybrid Metaheuristics under Objective Function Transformations
- Title(参考訳): 目的関数変換によるハイブリッドメタヒューリスティックスのロバスト性と不変性
- Authors: Grzegorz Sroka, Sławomir T. Wierzchoń,
- Abstract要約: 本稿では,様々な目的空間変換の下でのハイブリッド集団に基づくメタヒューリスティックスの頑健性と構造的不変性を評価する。
軽量なプラグアンドプレイハイブリダイゼーション演算子を19の最先端アルゴリズムに適用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper evaluates the robustness and structural invariance of hybrid population-based metaheuristics under various objective space transformations. A lightweight plug-and-play hybridization operator is applied to nineteen state-of-the-art algorithms-including differential evolution (DE), particle swarm optimization (PSO), and recent bio-inspired methods-without modifying their internal logic. Benchmarking on the CEC-2017 suite across four dimensions (10, 30, 50, 100) is performed under five transformation types: baseline, translation, scaling, rotation, and constant shift. Statistical comparisons based on Wilcoxon and Friedman tests, Bayesian dominance analysis, and convergence trajectory profiling consistently show that differential-based hybrids (e.g., hIMODE, hSHADE, hDMSSA) maintain high accuracy, stability, and invariance under all tested deformations. In contrast, classical algorithms-especially PSO- and HHO-based variants-exhibit significant performance degradation under non-separable or distorted landscapes. The findings confirm the superiority of adaptive, structurally resilient hybrids for real-world optimization tasks subject to domain-specific transformations.
- Abstract(参考訳): 本稿では,様々な目的空間変換の下でのハイブリッド集団に基づくメタヒューリスティックスの頑健性と構造的不変性を評価する。
軽量なプラグアンドプレイハイブリダイゼーション演算子は、19の最先端アルゴリズムを含む微分進化(DE)、パーティクルスウォーム最適化(PSO)、そして最近のバイオインスパイアされた手法に対して、内部ロジックを変更することなく適用される。
4次元(10,30,50,100)にわたるCEC-2017スイートのベンチマークは、ベースライン、トランスフォーメーション、スケーリング、ローテーション、定数シフトという5つの変換タイプの下で実行される。
Wilcoxon および Friedman 試験,ベイズ支配解析,収束軌道プロファイリングに基づく統計的比較では, 差分に基づくハイブリッド (例えば, hIMODE, hSHADE, hDMSSA) が全ての試験変形の下で高い精度, 安定性, および不変性を維持することが一貫して示されている。
対照的に、古典的アルゴリズム、特にPSOおよびHHOに基づく変種は、非分離または歪んだ風景下での顕著な性能劣化を阻害する。
これらの結果から, ドメイン固有変換による実世界の最適化タスクに対する適応的, 構造的にレジリエントなハイブリッドの優位性が確認された。
関連論文リスト
- Sequential, Parallel and Consecutive Hybrid Evolutionary-Swarm Optimization Metaheuristics [43.05659890525653]
本稿ではPSOとGAの特徴を連続的・並列的・連続的に組み合わせたハイブリッド進化・スワームメタヒューリスティックスについて検討する。
実験結果から,ハイブリッドアプローチはより優れた収束と一貫性を実現することが示された。
本稿では,PSOとGAステップ間の連続性を明示的な情報伝達機構を通じて保証する,新しいハイブリッドPSO-GA進化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-08-01T00:23:36Z) - EvoGrad: Metaheuristics in a Differentiable Wonderland [1.065497990128313]
微分プログラミングは、複雑なモデルの効率的な勾配に基づくトレーニングを可能にすることで最適化に革命をもたらした。
EvoGradは、ECとSIをグラデーションベースの最適化と統合した、統一的な差別化可能なフレームワークである。
以上の結果から,完全微分可能な進化最適化とスワム最適化の実質的なメリットが示された。
論文 参考訳(メタデータ) (2025-05-28T15:42:07Z) - Accelerating Evolution: Integrating PSO Principles into Real-Coded Genetic Algorithm Crossover [2.854482269849925]
本研究では、Particle Swarm Optimization-inspired Crossover (PSOX) という、革新的なクロスオーバー演算子を紹介する。
PSOXは、現在のグローバルベストソリューションと、複数の世代にわたる過去の最適ソリューションの両方からのガイダンスを独自に取り入れている。
この機構により,探索空間の有望な領域への収束を同時に促進しながら,個体数の多様性を維持することができる。
論文 参考訳(メタデータ) (2025-05-06T06:17:57Z) - Adaptive sparse variational approximations for Gaussian process regression [6.169364905804677]
階層型ベイズ法に対する変分近似を構築し, 変分後部の収縮率の上限を導出する。
我々の理論的結果は、合成データセットと実世界のデータセットの両方で数値解析される。
論文 参考訳(メタデータ) (2025-04-04T09:57:00Z) - Joint State Estimation and Noise Identification Based on Variational
Optimization [8.536356569523127]
CVIAKFと呼ばれる共役計算変分推論に基づく新しい適応カルマンフィルタ法を提案する。
CVIAKFの有効性は、目標追尾のための合成および実世界のデータセットを通して検証される。
論文 参考訳(メタデータ) (2023-12-15T07:47:03Z) - Manifold Gaussian Variational Bayes on the Precision Matrix [70.44024861252554]
複雑なモデルにおける変分推論(VI)の最適化アルゴリズムを提案する。
本研究では,変分行列上の正定値制約を満たすガウス変分推論の効率的なアルゴリズムを開発した。
MGVBPはブラックボックスの性質のため、複雑なモデルにおけるVIのための準備が整ったソリューションである。
論文 参考訳(メタデータ) (2022-10-26T10:12:31Z) - NAG-GS: Semi-Implicit, Accelerated and Robust Stochastic Optimizer [45.47667026025716]
2つの重要な要素に依存した、新しく、堅牢で、加速された反復を提案する。
NAG-GSと呼ばれる手法の収束と安定性は、まず広範に研究されている。
我々は、NAG-arityが、重量減衰を伴う運動量SGDや機械学習モデルのトレーニングのためのAdamWといった最先端の手法と競合していることを示す。
論文 参考訳(メタデータ) (2022-09-29T16:54:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。