論文の概要: Improving CMA-ES Convergence Speed, Efficiency, and Reliability in Noisy Robot Optimization Problems
- arxiv url: http://arxiv.org/abs/2601.09594v1
- Date: Wed, 14 Jan 2026 16:12:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.462665
- Title: Improving CMA-ES Convergence Speed, Efficiency, and Reliability in Noisy Robot Optimization Problems
- Title(参考訳): 雑音ロボット最適化問題におけるCMA-ES収束速度, 効率, 信頼性の向上
- Authors: Russell M. Martin, Steven H. Collins,
- Abstract要約: 我々は、適応サンプリングCMA-ES(AS-CMA)と呼ばれるCMA-ES最適化アルゴリズムのサプリメントを導入する。
AS-CMAは、予測ソート困難に基づいてサンプリング時間を候補に割り当て、一貫した精度を達成する。
我々は,AS-CMAをエキソスケルトン最適化実験に導入し,アルゴリズムの挙動が期待と一致していることを発見した。
- 参考スコア(独自算出の注目度): 2.23017937341178
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Experimental robot optimization often requires evaluating each candidate policy for seconds to minutes. The chosen evaluation time influences optimization because of a speed-accuracy tradeoff: shorter evaluations enable faster iteration, but are also more subject to noise. Here, we introduce a supplement to the CMA-ES optimization algorithm, named Adaptive Sampling CMA-ES (AS-CMA), which assigns sampling time to candidates based on predicted sorting difficulty, aiming to achieve consistent precision. We compared AS-CMA to CMA-ES and Bayesian optimization using a range of static sampling times in four simulated cost landscapes. AS-CMA converged on 98% of all runs without adjustment to its tunable parameter, and converged 24-65% faster and with 29-76% lower total cost than each landscape's best CMA-ES static sampling time. As compared to Bayesian optimization, AS-CMA converged more efficiently and reliably in complex landscapes, while in simpler landscapes, AS-CMA was less efficient but equally reliable. We deployed AS-CMA in an exoskeleton optimization experiment and found the optimizer's behavior was consistent with expectations. These results indicate that AS-CMA can improve optimization efficiency in the presence of noise while minimally affecting optimization setup complexity and tuning requirements.
- Abstract(参考訳): 実験ロボットの最適化は、しばしば数秒から数分の間、それぞれの候補ポリシーを評価する必要がある。
選択された評価時間は、速度精度のトレードオフのために最適化に影響を与える。
本稿では、予測ソート難易度に基づいてサンプリング時間を割り当て、一貫した精度を達成することを目的とした、CMA-ES最適化アルゴリズムであるAdaptive Smpling CMA-ES(AS-CMA)のサプリメントを紹介する。
As-CMA と CMA-ES および Bayesian の最適化を4つのコストランドスケープの静的サンプリング時間を用いて比較した。
AS-CMAは、調整可能なパラメータを調整せずに98%まで収束し、24~65%の速度で収束し、各ランドスケープで最高のCMA-ESの静的サンプリング時間よりも29~76%低いコストで収束した。
ベイズ最適化と比較して、AS-CMAはより効率的で信頼性の高い複雑な風景に収束し、単純な風景では、AS-CMAはより効率的だが等しく信頼性が低い。
我々は,AS-CMAをエキソスケルトン最適化実験に導入し,最適化器の挙動が期待と一致していることを発見した。
これらの結果から,AS-CMAは,最適化セットアップの複雑さやチューニング要求に最小限の影響を与えながら,ノイズ発生時の最適化効率を向上できることが示された。
関連論文リスト
- Yukthi Opus: A Multi-Chain Hybrid Metaheuristic for Large-Scale NP-Hard Optimization [0.0]
Yukthi Opus (YO) は、NP-hard最適化のためのマルチチェーンハイブリッドメタヒューリスティックである。
YOは、構造化された2相アーキテクチャに3つの相補的なメカニズムを統合する。
YOは、予測可能な評価予算を維持しながら、大規模かつマルチモーダルな問題における競争性能を達成する。
論文 参考訳(メタデータ) (2026-01-05T06:51:08Z) - Adam assisted Fully informed Particle Swarm Optimization ( Adam-FIPSO ) based Parameter Prediction for the Quantum Approximate Optimization Algorithm (QAOA) [1.024113475677323]
量子近似最適化アルゴリズム(Quantum Approximate Optimization Algorithm, QAOA)は、マックス・カット問題などの最適化問題の解法として用いられる顕著な変分アルゴリズムである。
QAOAの重要な課題は、高品質なソリューションにつながる適切なパラメータを効率的に特定することである。
論文 参考訳(メタデータ) (2025-06-07T13:14:41Z) - Performance-driven Constrained Optimal Auto-Tuner for MPC [36.143463447995536]
MPCのための制約付き最適オートチューニングであるCOAT-MPCを提案する。
COAT-MPCは、パフォーマンスデータを収集し、その後続の信念を更新することによって学習する。
理論的にはCOAT-MPCを解析し,性能制約を任意に高い確率で満たすことを示した。
論文 参考訳(メタデータ) (2025-03-10T09:56:08Z) - CMA-ES for Discrete and Mixed-Variable Optimization on Sets of Points [9.130749109828717]
本稿では,点集合の最適化に焦点をあて,共分散行列適応進化戦略(CMA-ES)を拡張した最適化手法を提案する。
CMA-ES-SoPは、隣接点の生成確率を維持するマージン補正を組み込んで、特定の非最適点への早めの収束を防ぐ。
数値シミュレーションにより、CMA-ES-SoPは点集合の最適化に成功し、単純CMA-ESは初期収束のために最適化に失敗した。
論文 参考訳(メタデータ) (2024-08-23T13:10:06Z) - MADA: Meta-Adaptive Optimizers through hyper-gradient Descent [73.1383658672682]
メタ適応(MADA)は、複数の既知の収束を一般化し、トレーニング中に最も適した収束を動的に学習できる統合フレームワークである。
私たちは、MADAを視覚や言語タスクに関する他の人気と経験的に比較し、MADAがAdamや他の人気を一貫して上回っていることに気付きました。
AVGradは最大演算子を平均演算子に置き換えたもので、高次最適化に適している。
論文 参考訳(メタデータ) (2024-01-17T00:16:46Z) - Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - Nesterov Meets Optimism: Rate-Optimal Separable Minimax Optimization [108.35402316802765]
本稿では,新しい一階最適化アルゴリズムであるAcceleratedGradient-OptimisticGradient (AG-OG) Ascentを提案する。
我々はAG-OGが様々な設定に対して最適収束率(定数まで)を達成することを示す。
アルゴリズムを拡張して設定を拡張し、bi-SC-SCとbi-C-SCの両方で最適な収束率を達成する。
論文 参考訳(メタデータ) (2022-10-31T17:59:29Z) - Performance comparison of optimization methods on variational quantum
algorithms [2.690135599539986]
変分量子アルゴリズム(VQA)は、学術・工業研究への応用に短期的な量子ハードウェアを使用するための有望な道を提供する。
SLSQP, COBYLA, CMA-ES, SPSAの4つの最適化手法の性能について検討した。
論文 参考訳(メタデータ) (2021-11-26T12:13:20Z) - Stochastic Optimization Forests [60.523606291705214]
標準的なランダムな森林アルゴリズムのように予測精度を向上させるために分割するのではなく、分割を選択した木を栽培し、下流の意思決定品質を直接最適化することで、森林決定政策の訓練方法を示す。
概略分割基準は、各候補分割に対して正確に最適化された森林アルゴリズムに近い性能を保ちながら、100倍のランニング時間を短縮できることを示す。
論文 参考訳(メタデータ) (2020-08-17T16:56:06Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。