論文の概要: Hybridizing the 1/5-th Success Rule with Q-Learning for Controlling the
Mutation Rate of an Evolutionary Algorithm
- arxiv url: http://arxiv.org/abs/2006.11026v1
- Date: Fri, 19 Jun 2020 09:12:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 04:15:00.030377
- Title: Hybridizing the 1/5-th Success Rule with Q-Learning for Controlling the
Mutation Rate of an Evolutionary Algorithm
- Title(参考訳): 進化的アルゴリズムの突然変異率制御のためのq-learningによる1/5次成功規則のハイブリダイゼーション
- Authors: Arina Buzdalova, Carola Doerr, Anna Rodionova
- Abstract要約: 本研究では、よく知られた1/5成功規則とQ-ラーニングを組み合わせた新しいハイブリッドパラメータ制御手法を導入する。
我々のHQLメカニズムは、[Rodionova et al., GECCO'19]でテストされたすべてのテクニックと同等または優れたパフォーマンスを達成できることを示します。
- 参考スコア(独自算出の注目度): 0.9281671380673306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is well known that evolutionary algorithms (EAs) achieve peak performance
only when their parameters are suitably tuned to the given problem. Even more,
it is known that the best parameter values can change during the optimization
process. Parameter control mechanisms are techniques developed to identify and
to track these values.
Recently, a series of rigorous theoretical works confirmed the superiority of
several parameter control techniques over EAs with best possible static
parameters. Among these results are examples for controlling the mutation rate
of the $(1+\lambda)$~EA when optimizing the OneMax problem. However, it was
shown in [Rodionova et al., GECCO'19] that the quality of these techniques
strongly depends on the offspring population size $\lambda$.
We introduce in this work a new hybrid parameter control technique, which
combines the well-known one-fifth success rule with Q-learning. We demonstrate
that our HQL mechanism achieves equal or superior performance to all techniques
tested in [Rodionova et al., GECCO'19] and this -- in contrast to previous
parameter control methods -- simultaneously for all offspring population sizes
$\lambda$. We also show that the promising performance of HQL is not restricted
to OneMax, but extends to several other benchmark problems.
- Abstract(参考訳): 進化的アルゴリズム(EA)は、パラメータが与えられた問題に適切に調整された場合にのみピーク性能を達成することはよく知られている。
さらに、最適化プロセス中に最適なパラメータ値が変更できることが知られている。
パラメータ制御機構は、これらの値を識別し追跡するために開発された技術である。
近年、一連の厳密な理論的研究により、最適な静的パラメータを持つEAよりもいくつかのパラメータ制御技術の優位性が確認されている。
これらの結果の中には、OneMax問題を最適化する際の$(1+\lambda)$~EAの突然変異率を制御する例がある。
しかし、 [rodionova et al., gecco'19] では、これらの技術の品質は子孫の個体数に強く依存していることが示されている。
本稿では,有名な1-fifth成功ルールとq-learningを組み合わせた新しいハイブリッドパラメータ制御手法を提案する。
私たちは、hqlメカニズムが [rodionova et al., gecco'19] でテストされたすべてのテクニックと同等あるいは優れたパフォーマンスを実現することを実証しています。
また、HQLの有望なパフォーマンスはOneMaxに限らず、他のベンチマーク問題にも及んでいることも示しています。
関連論文リスト
- On the Effectiveness of Parameter-Efficient Fine-Tuning [79.6302606855302]
現在、多くの研究が、パラメータのごく一部のみを微調整し、異なるタスク間で共有されるパラメータのほとんどを保持することを提案している。
これらの手法は, いずれも細粒度モデルであり, 新たな理論的解析を行う。
我々の理論に根ざした空間性の有効性にもかかわらず、調整可能なパラメータをどう選ぶかという問題はまだ未解決のままである。
論文 参考訳(メタデータ) (2022-11-28T17:41:48Z) - A Parameter Setting Heuristic for the Quantum Alternating Operator
Ansatz [0.0]
本稿では,問題の大きさに応じて異なるコスト値の数が増加する場合に適したパラメータ設定戦略を提案する。
我々は、完全均一性が正確に保持され、状態と期待値の両方を記述する情報が得られるQAOAの古典的同次プロキシを定義する。
最大3ドルのQAOAレベルでは、これまでのグローバルに最適化されたアプローチによって返される近似比にマッチするパラメータを容易に見つけることができます。
論文 参考訳(メタデータ) (2022-11-17T00:18:06Z) - META-STORM: Generalized Fully-Adaptive Variance Reduced SGD for
Unbounded Functions [23.746620619512573]
最近の研究は「メガバッチ」の勾配を計算する効果を克服している
作業は、競争力のあるディープラーニングタスクで更新された後に広く使用される。
論文 参考訳(メタデータ) (2022-09-29T15:12:54Z) - Twisted hybrid algorithms for combinatorial optimization [68.8204255655161]
提案されたハイブリッドアルゴリズムは、コスト関数をハミルトニアン問題にエンコードし、回路の複雑さの低い一連の状態によってエネルギーを最適化する。
レベル$p=2,ldots, 6$の場合、予想される近似比をほぼ維持しながら、レベル$p$を1に減らすことができる。
論文 参考訳(メタデータ) (2022-03-01T19:47:16Z) - STORM+: Fully Adaptive SGD with Momentum for Nonconvex Optimization [74.1615979057429]
本研究では,スムーズな損失関数に対する期待値である非バッチ最適化問題について検討する。
我々の研究は、学習率と運動量パラメータを適応的に設定する新しいアプローチとともに、STORMアルゴリズムの上に構築されている。
論文 参考訳(メタデータ) (2021-11-01T15:43:36Z) - Online Hyperparameter Meta-Learning with Hypergradient Distillation [59.973770725729636]
勾配に基づくメタラーニング法は、内部最適化に関与しないパラメータのセットを仮定する。
知識蒸留による2次項の近似により,これらの限界を克服できる新しいHO法を提案する。
論文 参考訳(メタデータ) (2021-10-06T05:14:53Z) - Lazy Parameter Tuning and Control: Choosing All Parameters Randomly From
a Power-Law Distribution [8.34061303235504]
ほとんどの進化的アルゴリズムは複数のパラメータを持ち、その値は性能に大きな影響を及ぼす。
そこで本研究では,各繰り返しにおけるパラメータの値を,適切にスケールされたパワー・ロー分布からランダムに選択する,遅延だが効果的な解を提案する。
静的パラメータで知られている最高のパフォーマンスに匹敵する性能を保証する。
論文 参考訳(メタデータ) (2021-04-14T09:17:18Z) - Self-Adjusting Population Sizes for Non-Elitist Evolutionary Algorithms:
Why Success Rates Matter [0.0]
進化的アルゴリズム(EA)は、親や子孫のサイズや突然変異率など、いくつかのパラメータを持つ汎用的なオプティマイザである。
最近の理論的研究により、自己調整パラメータ制御機構は離散的な問題においてEAの最高の静的パラメータよりも優れていることが示されている。
論文 参考訳(メタデータ) (2021-04-12T16:44:54Z) - Optimizing Large-Scale Hyperparameters via Automated Learning Algorithm [97.66038345864095]
ゼロ階超勾配(HOZOG)を用いた新しいハイパーパラメータ最適化法を提案する。
具体的には、A型制約最適化問題として、まずハイパーパラメータ最適化を定式化する。
次に、平均ゼロ階超勾配を用いてハイパーパラメータを更新する。
論文 参考訳(メタデータ) (2021-02-17T21:03:05Z) - Optimal Static Mutation Strength Distributions for the $(1+\lambda)$
Evolutionary Algorithm on OneMax [1.0965065178451106]
人口が十分に大きくなると、このような最適な分布は驚くほど複雑で直感に反する可能性がある。
人口が十分に大きくなると、このような最適な分布は驚くほど複雑で直感に反する可能性がある。
論文 参考訳(メタデータ) (2021-02-09T16:56:25Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。