論文の概要: Stochastic models of Jaya and semi-steady-state Jaya algorithms
- arxiv url: http://arxiv.org/abs/2202.06944v1
- Date: Mon, 14 Feb 2022 23:23:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-25 20:58:12.209297
- Title: Stochastic models of Jaya and semi-steady-state Jaya algorithms
- Title(参考訳): Jayaと半定常Jayaアルゴリズムの確率モデル
- Authors: Uday K. Chakraborty
- Abstract要約: 我々はJayaと半定常Jayaアルゴリズムを解析するためのモデルを構築した。
私たちのモデルが提供する洞察は、新しい、より改良された人口ベースの検索/最適化の設計に役立つだろう。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We build stochastic models for analyzing Jaya and semi-steady-state Jaya
algorithms. The analysis shows that for semi-steady-state Jaya (a) the maximum
expected value of the number of worst-index updates per generation is a paltry
1.7 regardless of the population size; (b) regardless of the population size,
the expectation of the number of best-index updates per generation decreases
monotonically with generations; (c) exact upper bounds as well as asymptotics
of the expected best-update counts can be obtained for specific distributions;
the upper bound is 0.5 for normal and logistic distributions, $\ln 2$ for the
uniform distribution, and $e^{-\gamma} \ln 2$ for the exponential distribution,
where $\gamma$ is the Euler-Mascheroni constant; the asymptotic is $e^{-\gamma}
\ln 2$ for logistic and exponential distributions and $\ln 2$ for the uniform
distribution (the asymptotic cannot be obtained analytically for the normal
distribution). The models lead to the derivation of computational complexities
of Jaya and semi-steady-state Jaya. The theoretical analysis is supported with
empirical results on a benchmark suite. The insights provided by our stochastic
models should help design new, improved population-based search/optimization
heuristics.
- Abstract(参考訳): 我々はJayaと半定常Jayaアルゴリズムを解析するための確率モデルを構築した。
半定常Jayaについての解析
(a)世代ごとの最悪のインデクス更新回数の最大期待値は、人口規模にかかわらず、約1.7である。
b) 人口規模にかかわらず,世代ごとのベストインデクス更新数の期待は,世代ごとに単調に減少する。
(c) exact upper bounds as well as asymptotics of the expected best-update counts can be obtained for specific distributions; the upper bound is 0.5 for normal and logistic distributions, $\ln 2$ for the uniform distribution, and $e^{-\gamma} \ln 2$ for the exponential distribution, where $\gamma$ is the Euler-Mascheroni constant; the asymptotic is $e^{-\gamma} \ln 2$ for logistic and exponential distributions and $\ln 2$ for the uniform distribution (the asymptotic cannot be obtained analytically for the normal distribution).
このモデルは、Jayaと半定常状態Jayaの計算複雑性の導出につながる。
理論解析はベンチマークスイートで実証的な結果と共にサポートされている。
我々の確率モデルが提供する洞察は、新しい、人口ベース検索/最適化ヒューリスティックスの設計に役立つだろう。
関連論文リスト
- Minimax Optimality of Score-based Diffusion Models: Beyond the Density
Lower Bound Assumptions [12.260288510756796]
カーネルベースのスコア推定器は$widetildeOleft(n-1 t-fracd+22(tfracd2 vee 1)rightの最適平均二乗誤差を達成する
核を用いたスコア推定器は,拡散モデルで生成した試料の分布の総変動誤差に対して,極小ガウスの下での最大平均2乗誤差を$widetildeOleft(n-1/2 t-fracd4right)$上界で達成することを示す。
論文 参考訳(メタデータ) (2024-02-23T20:51:31Z) - Dynamical System Identification, Model Selection and Model Uncertainty
Quantification by Bayesian Inference [0.8999666725996975]
2つのアルゴリズム(JMAP)と変分ベイズ近似(VBA)を比較した。
多変量ガウス確率とそれ以前の分布に対して、ベイジアン定式化はガウス後続分布と証拠分布を与える。
後ガウスノルムは、量的モデル選択のための堅牢な計量を提供する。
論文 参考訳(メタデータ) (2024-01-30T12:16:52Z) - Optimality in Mean Estimation: Beyond Worst-Case, Beyond Sub-Gaussian,
and Beyond $1+\alpha$ Moments [10.889739958035536]
本稿では,アルゴリズムの微細な最適性を分析するための新しい定義フレームワークを提案する。
平均値の中央値は近傍最適であり, 一定の要因が得られている。
定数係数のずれのない近傍分離推定器を見つけることは自由である。
論文 参考訳(メタデータ) (2023-11-21T18:50:38Z) - Convergence Analysis of Decentralized ASGD [1.8710230264817358]
本稿では,ノード間の部分同期や制限的ネットワークトポロジを必要としない分散非同期SGD(DASGD)に対する新しい収束速度解析法を提案する。
我々の収束証明は、固定段数と任意の非滑らかで同質でL字型の目的函数を仮定する。
論文 参考訳(メタデータ) (2023-09-07T14:50:31Z) - Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models [49.81937966106691]
我々は拡散モデルのデータ生成過程を理解するための非漸近理論のスイートを開発する。
従来の研究とは対照的に,本理論は基本的だが多目的な非漸近的アプローチに基づいて開発されている。
論文 参考訳(メタデータ) (2023-06-15T16:30:08Z) - Stochastic Approximation Approaches to Group Distributionally Robust
Optimization [96.26317627118912]
群分散ロバスト最適化(GDRO)
オンライン学習技術は、各ラウンドに必要なサンプル数をm$から1$に減らし、同じサンプルを保持する。
分布依存収束率を導出できる重み付きGDROの新規な定式化。
論文 参考訳(メタデータ) (2023-02-18T09:24:15Z) - Hessian Averaging in Stochastic Newton Methods Achieves Superlinear
Convergence [69.65563161962245]
ニュートン法を用いて,滑らかで強凸な目的関数を考える。
最適段階において局所収束に遷移する普遍重み付き平均化スキームが存在することを示す。
論文 参考訳(メタデータ) (2022-04-20T07:14:21Z) - Optimal and instance-dependent guarantees for Markovian linear
stochastic approximation [77.84027086542827]
標準スキームの最後の繰り返しの2乗誤差に対して、$t_mathrmmix tfracdn$の非漸近境界を示す。
マルコフ雑音による政策評価について,これらの結果のまとめを導出する。
論文 参考訳(メタデータ) (2021-12-23T18:47:50Z) - Robust Learning of Optimal Auctions [84.13356290199603]
本研究では、入札者の評価値のサンプルを逆向きに破損させたり、逆向きに歪んだ分布から引き出すことができる場合に、サンプルから収益-最適マルチバイダオークションを学習する問題について検討する。
我々は,コルモゴロフ-スミルノフ距離における元の分布に対して$alpha$-closeの「全ての真の分布」に対して,収入がほぼ同時に最適であるメカニズムを学習できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-07-13T17:37:21Z) - On Stochastic Moving-Average Estimators for Non-Convex Optimization [105.22760323075008]
本稿では,移動平均(SEMA)問題に基づく広く利用されている推定器のパワーを実証する。
これらすべてのアートな結果に対して、これらのアートな問題に対する結果も提示します。
論文 参考訳(メタデータ) (2021-04-30T08:50:24Z) - Optimal Sub-Gaussian Mean Estimation in $\mathbb{R}$ [5.457150493905064]
ガウス下収束を考慮した新しい推定器を提案する。
我々の推定器はその分散に関する事前の知識を必要としない。
我々の推定器の構成と分析は、他の問題に一般化可能なフレームワークを提供する。
論文 参考訳(メタデータ) (2020-11-17T02:47:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。