論文の概要: Fast and robust parametric and functional learning with Hybrid Genetic Optimisation (HyGO)
- arxiv url: http://arxiv.org/abs/2510.09391v1
- Date: Fri, 10 Oct 2025 13:45:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 04:53:46.945303
- Title: Fast and robust parametric and functional learning with Hybrid Genetic Optimisation (HyGO)
- Title(参考訳): ハイブリッド遺伝的最適化(HyGO)を用いた高速で堅牢なパラメトリック・関数型学習
- Authors: Isaac Robledo, Yiqing Li, Guy Y. Cornejo Maceda, Rodrigo Castellanos,
- Abstract要約: HyGOは、進化的アルゴリズムのグローバルな探索機能と、ロバストな解の探索の高速化を統合している。
パラメトリック問題の場合、HyGOは遺伝的アルゴリズムとDSM(Dowhill Simplex Method)による目標改善を交互に行う。
機能最適化タスクでは、HyGOは遺伝プログラミングとDSMの間で回転する。
- 参考スコア(独自算出の注目度): 0.5628958216121255
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The Hybrid Genetic Optimisation framework (HyGO) is introduced to meet the pressing need for efficient and unified optimisation frameworks that support both parametric and functional learning in complex engineering problems. Evolutionary algorithms are widely employed as derivative-free global optimisation methods but often suffer from slow convergence rates, especially during late-stage learning. HyGO integrates the global exploration capabilities of evolutionary algorithms with accelerated local search for robust solution refinement. The key enabler is a two-stage strategy that balances exploration and exploitation. For parametric problems, HyGO alternates between a genetic algorithm and targeted improvement through a degradation-proof Dowhill Simplex Method (DSM). For function optimisation tasks, HyGO rotates between genetic programming and DSM. Validation is performed on (a) parametric optimisation benchmarks, where HyGO demonstrates faster and more robust convergence than standard genetic algorithms, and (b) function optimisation tasks, including control of a damped Landau oscillator. Practical relevance is showcased through aerodynamic drag reduction of an Ahmed body via Reynolds-Averaged Navier-Stokes simulations, achieving consistently interpretable results and reductions exceeding 20% by controlled jet injection in the back of the body for flow reattachment and separation bubble reduction. Overall, HyGO emerges as a versatile hybrid optimisation framework suitable for a broad spectrum of engineering and scientific problems involving parametric and functional learning.
- Abstract(参考訳): ハイブリッド遺伝的最適化フレームワーク(Hybrid Genetic Optimisation framework, HyGO)は、複雑なエンジニアリング問題におけるパラメトリック学習と関数学習の両方をサポートする、効率的で統一された最適化フレームワークの必要性を満たすために導入された。
進化的アルゴリズムはデリバティブフリーなグローバル最適化手法として広く用いられているが、特に後期学習では収束速度が遅い。
HyGOは、進化的アルゴリズムのグローバルな探索機能と、ロバストな解の探索の高速化を統合している。
重要なイネーブルは、探索とエクスプロイトのバランスをとる2段階の戦略である。
パラメトリック問題に対して、HyGOは遺伝的アルゴリズムとDSM(Dowhill Simplex Method)による目標改善を交互に行う。
機能最適化タスクでは、HyGOは遺伝プログラミングとDSMの間で回転する。
検証が行われます
(a)パラメトリック最適化ベンチマークでは、HyGOは標準的な遺伝的アルゴリズムよりも高速で堅牢な収束を示す。
b) 減衰ランダウ発振器の制御を含む関数最適化タスク。
Reynolds-Averaged Navier-StokesシミュレーションによるAhmed本体の空力的抵抗低減により実用的妥当性が示され, 流動再接触・分離気泡低減のための制御ジェット噴射による一貫した解釈結果と20%以上の低減が達成された。
全体として、HyGOはパラメトリックおよび関数型学習を含む幅広い工学的および科学的問題に適した多目的ハイブリッド最適化フレームワークとして登場している。
関連論文リスト
- Optimising 4th-Order Runge-Kutta Methods: A Dynamic Heuristic Approach for Efficiency and Low Storage [0.0]
遺伝的アルゴリズム (GA) と強化学習 (RL) による自動発見手法
探索空間探索のためのGA駆動突然変異とRLにインスパイアされた状態遷移機構により動的に選択を洗練させる。
遺伝的アルゴリズムは従来のESRK最適化プロセスと比較してIPOPTの25%削減を実現している。
論文 参考訳(メタデータ) (2025-06-26T16:51:22Z) - Synergizing Reinforcement Learning and Genetic Algorithms for Neural Combinatorial Optimization [25.633698252033756]
本稿では,DRLの学習効率をGAのグローバル検索能力と相乗化するための進化的拡張機構を提案する。
EAMは、学習されたポリシーからソリューションを生成し、クロスオーバーや突然変異といったドメイン固有の遺伝子操作によってそれらを精製することで機能する。
EAMは、アテンションモデル、POMO、SymNCOのような最先端のDRLソルバとシームレスに統合できる。
論文 参考訳(メタデータ) (2025-06-11T05:17:30Z) - Goat Optimization Algorithm: A Novel Bio-Inspired Metaheuristic for Global Optimization [1.2289361708127877]
本稿では,ヤギの適応採餌,戦略運動,寄生虫の回避行動に触発された,生物にインスパイアされたメタヒューリスティックな最適化手法を提案する。
アルゴリズムの性能は標準の単調なベンチマーク関数で評価される。
その結果,GOAはバイオインスパイアされた最適化技術において有望な進歩であることが明らかとなった。
論文 参考訳(メタデータ) (2025-03-04T06:44:07Z) - A Stochastic Approach to Bi-Level Optimization for Hyperparameter Optimization and Meta Learning [74.80956524812714]
我々は,現代のディープラーニングにおいて広く普及している一般的なメタ学習問題に対処する。
これらの問題は、しばしばBi-Level Optimizations (BLO)として定式化される。
我々は,与えられたBLO問題を,内部損失関数が滑らかな分布となり,外損失が内部分布に対する期待損失となるようなii最適化に変換することにより,新たな視点を導入する。
論文 参考訳(メタデータ) (2024-10-14T12:10:06Z) - Improved Genetic Algorithm Based on Greedy and Simulated Annealing Ideas for Vascular Robot Ordering Strategy [7.51372615162241]
本研究では,医療環境におけるABLVR血管ロボットの獲得,利用,維持を最適化するための包括的アプローチを提案する。
ダイナミックな医療環境を考えると、ロボット船やオペレーターのためのロバストな資源配分モデルを含む。
演算子に対する適応学習プロセスのユニークな要件と,ロボット部品のメンテナンスニーズを取り入れた。
論文 参考訳(メタデータ) (2024-03-28T15:14:03Z) - Massively Parallel Genetic Optimization through Asynchronous Propagation
of Populations [50.591267188664666]
Propulateは、グローバル最適化のための進化的最適化アルゴリズムとソフトウェアパッケージである。
提案アルゴリズムは, 選択, 突然変異, 交叉, 移動の変種を特徴とする。
Propulateは解の精度を犠牲にすることなく、最大で3桁高速であることがわかった。
論文 参考訳(メタデータ) (2023-01-20T18:17:34Z) - Nesterov Meets Optimism: Rate-Optimal Separable Minimax Optimization [108.35402316802765]
本稿では,新しい一階最適化アルゴリズムであるAcceleratedGradient-OptimisticGradient (AG-OG) Ascentを提案する。
我々はAG-OGが様々な設定に対して最適収束率(定数まで)を達成することを示す。
アルゴリズムを拡張して設定を拡張し、bi-SC-SCとbi-C-SCの両方で最適な収束率を達成する。
論文 参考訳(メタデータ) (2022-10-31T17:59:29Z) - SUPER-ADAM: Faster and Universal Framework of Adaptive Gradients [99.13839450032408]
一般的な問題を解決するための適応アルゴリズムのための普遍的な枠組みを設計することが望まれる。
特に,本フレームワークは,非収束的設定支援の下で適応的手法を提供する。
論文 参考訳(メタデータ) (2021-06-15T15:16:28Z) - Optimizing Large-Scale Hyperparameters via Automated Learning Algorithm [97.66038345864095]
ゼロ階超勾配(HOZOG)を用いた新しいハイパーパラメータ最適化法を提案する。
具体的には、A型制約最適化問題として、まずハイパーパラメータ最適化を定式化する。
次に、平均ゼロ階超勾配を用いてハイパーパラメータを更新する。
論文 参考訳(メタデータ) (2021-02-17T21:03:05Z) - EOS: a Parallel, Self-Adaptive, Multi-Population Evolutionary Algorithm
for Constrained Global Optimization [68.8204255655161]
EOSは実数値変数の制約付きおよび制約なし問題に対する大域的最適化アルゴリズムである。
これはよく知られた微分進化(DE)アルゴリズムに多くの改良を加えている。
その結果、EOSisは、最先端の単一人口自己適応Dアルゴリズムと比較して高い性能を達成可能であることが証明された。
論文 参考訳(メタデータ) (2020-07-09T10:19:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。