論文の概要: Genetic algorithm formulation and tuning with use of test functions
- arxiv url: http://arxiv.org/abs/2210.03217v1
- Date: Thu, 6 Oct 2022 21:24:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 13:24:29.144701
- Title: Genetic algorithm formulation and tuning with use of test functions
- Title(参考訳): テスト関数を用いた遺伝的アルゴリズムの定式化とチューニング
- Authors: Tomasz Tarkowski
- Abstract要約: 本研究は、浮動小数点、整数、二進数、置換表現を用いた単目的制約付き遺伝的アルゴリズムについて論じる。
テスト関数の使用によるチューニングは行われ、比較的優れたパフォーマンスを持つパラメータ化につながります。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This work discusses single-objective constrained genetic algorithm with
floating-point, integer, binary and permutation representation. Floating-point
genetic algorithm tuning with use of test functions is done and leads to a
parameterization with comparatively outstanding performance.
- Abstract(参考訳): 本研究は,浮動小数点,整数,バイナリ,置換表現を用いた単一目的制約付き遺伝的アルゴリズムについて論じる。
テスト関数を用いた浮動小数点遺伝的アルゴリズムのチューニングを行い、比較的優れた性能でパラメータ化を行う。
関連論文リスト
- Primal Methods for Variational Inequality Problems with Functional Constraints [25.261426717550293]
本稿では,関数的制約付き変分不等式問題に対処する手法として,制約付き勾配法(Constrained Gradient Method, CGM)を提案する。
滑らかな制約下での単調作用素による変分不等式問題に対するアルゴリズムの非漸近収束解析を確立する。
提案アルゴリズムは, 単調・強単調両方の演算子問合せにおいて, プロジェクションに基づく手法の複雑さに適合する。
論文 参考訳(メタデータ) (2024-03-19T16:03:03Z) - A Globally Convergent Algorithm for Neural Network Parameter
Optimization Based on Difference-of-Convex Functions [29.58728073957055]
隠れ層ネットワークのパラメータを最適化するアルゴリズムを提案する。
具体的には,ブロックワイズ(DC-of-the-art)差分関数を導出する。
論文 参考訳(メタデータ) (2024-01-15T19:53:35Z) - Benchmarking Differential Evolution on a Quantum Simulator [0.0]
微分進化(DE)はラストリギン関数やローゼンブロック関数などの関数の最小値を計算するために用いられる。
この研究は、古典的チューリングモデル計算で生成される候補個体を用いて、これらの関数にDE法を適用した結果の研究である。
論文 参考訳(メタデータ) (2023-11-06T14:27:00Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Self-concordant Smoothing for Large-Scale Convex Composite Optimization [0.0]
2つの凸関数の和を最小化する自己協和スムージングの概念を導入し、そのうちの1つは滑らかであり、もう1つは非滑らかである。
本稿では, 近位ニュートンアルゴリズムであるProx-N-SCOREと近位一般化したガウスニュートンアルゴリズムであるProx-GGN-SCOREの2つのアルゴリズムの収束性を証明する。
論文 参考訳(メタデータ) (2023-09-04T19:47:04Z) - Linearization Algorithms for Fully Composite Optimization [61.20539085730636]
本稿では,完全合成最適化問題を凸コンパクト集合で解くための一階アルゴリズムについて検討する。
微分可能および非微分可能を別々に扱い、滑らかな部分のみを線形化することで目的の構造を利用する。
論文 参考訳(メタデータ) (2023-02-24T18:41:48Z) - A Sequential Deep Learning Algorithm for Sampled Mixed-integer
Optimisation Problems [0.3867363075280544]
混合整数最適化問題に対する2つの効率的なアルゴリズムを導入,解析する。
両アルゴリズムが最適解に対して有限時間収束を示すことを示す。
3つの数値実験により,これらのアルゴリズムの有効性を定量的に確立する。
論文 参考訳(メタデータ) (2023-01-25T17:10:52Z) - Amortized Implicit Differentiation for Stochastic Bilevel Optimization [53.12363770169761]
決定論的条件と決定論的条件の両方において、二段階最適化問題を解決するアルゴリズムのクラスについて検討する。
厳密な勾配の推定を補正するために、ウォームスタート戦略を利用する。
このフレームワークを用いることで、これらのアルゴリズムは勾配の偏りのない推定値にアクセス可能な手法の計算複雑性と一致することを示す。
論文 参考訳(メタデータ) (2021-11-29T15:10:09Z) - Sequential Subspace Search for Functional Bayesian Optimization
Incorporating Experimenter Intuition [63.011641517977644]
本アルゴリズムは,実験者のガウス過程から引き出された一組の引き数で区切られた関数空間の有限次元ランダム部分空間列を生成する。
標準ベイズ最適化は各部分空間に適用され、次の部分空間の出発点(オリジン)として用いられる最良の解である。
シミュレーションおよび実世界の実験,すなわちブラインド関数マッチング,アルミニウム合金の最適析出強化関数の探索,深層ネットワークの学習速度スケジュール最適化において,本アルゴリズムを検証した。
論文 参考訳(メタデータ) (2020-09-08T06:54:11Z) - Exploiting Higher Order Smoothness in Derivative-free Optimization and
Continuous Bandits [99.70167985955352]
強凸関数のゼロ次最適化問題について検討する。
予測勾配降下アルゴリズムのランダム化近似を考察する。
その結果,0次アルゴリズムはサンプルの複雑性や問題パラメータの点でほぼ最適であることが示唆された。
論文 参考訳(メタデータ) (2020-06-14T10:42:23Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。