論文の概要: Stochastic Optimization with Random Search
- arxiv url: http://arxiv.org/abs/2510.15610v1
- Date: Fri, 17 Oct 2025 12:57:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.624244
- Title: Stochastic Optimization with Random Search
- Title(参考訳): ランダム探索による確率最適化
- Authors: El Mahdi Chayti, Taha El Bakkali El Kadi, Omar Saadi, Martin Jaggi,
- Abstract要約: ノイズの多い関数評価しかできない最適化のためのランダム検索を再検討する。
提案手法は従来考えられていたよりもスムーズな仮定の下で機能し、より強い仮定は保証の改善を可能にすることを示す。
- 参考スコア(独自算出の注目度): 39.143454487196536
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We revisit random search for stochastic optimization, where only noisy function evaluations are available. We show that the method works under weaker smoothness assumptions than previously considered, and that stronger assumptions enable improved guarantees. In the finite-sum setting, we design a variance-reduced variant that leverages multiple samples to accelerate convergence. Our analysis relies on a simple translation invariance property, which provides a principled way to balance noise and reduce variance.
- Abstract(参考訳): 雑音関数の評価のみが可能な確率的最適化のランダム探索を再検討する。
提案手法は従来考えられていたよりもスムーズな仮定の下で機能し、より強い仮定は保証の改善を可能にすることを示す。
有限サム設定では、複数のサンプルを活用して収束を加速する分散還元変種を設計する。
我々の分析は単純な変換不変性に依存しており、ノイズのバランスと分散の低減を原則とした方法を提供する。
関連論文リスト
- Variance Reduction and Low Sample Complexity in Stochastic Optimization via Proximal Point Method [2.339665141986377]
このような保証は、有界分散というより弱い仮定の下でも達成できることを示す。
この方法は、本質的に分散を減少させるサブプロブレムソルバと、信頼性を高信頼な結果に増幅する確率ブースターを組み合わせる。
論文 参考訳(メタデータ) (2024-02-14T07:34:22Z) - High-Probability Convergence for Composite and Distributed Stochastic Minimization and Variational Inequalities with Heavy-Tailed Noise [96.80184504268593]
グラデーション、クリッピングは、優れた高確率保証を導き出すアルゴリズムの鍵となる要素の1つである。
クリッピングは、合成および分散最適化の一般的な方法の収束を損なう可能性がある。
論文 参考訳(メタデータ) (2023-10-03T07:49:17Z) - Minibatch vs Local SGD with Shuffling: Tight Convergence Bounds and
Beyond [63.59034509960994]
シャッフルに基づく変種(ミニバッチと局所ランダムリシャッフル)について検討する。
ポリアック・ロジャシエヴィチ条件を満たす滑らかな函数に対して、これらのシャッフル型不変量(英語版)(shuffling-based variants)がそれらの置換式よりも早く収束することを示す収束境界を得る。
我々は, 同期シャッフル法と呼ばれるアルゴリズムの修正を提案し, ほぼ均一な条件下では, 下界よりも収束速度が速くなった。
論文 参考訳(メタデータ) (2021-10-20T02:25:25Z) - Robust, Accurate Stochastic Optimization for Variational Inference [68.83746081733464]
また, 共通最適化手法は, 問題が適度に大きい場合, 変分近似の精度が低下することを示した。
これらの結果から,基礎となるアルゴリズムをマルコフ連鎖の生成とみなして,より堅牢で正確な最適化フレームワークを開発する。
論文 参考訳(メタデータ) (2020-09-01T19:12:11Z) - Variance Regularization for Accelerating Stochastic Optimization [14.545770519120898]
ミニバッチ勾配に隠れた統計情報を利用してランダムな誤りの蓄積を低減する普遍原理を提案する。
これは、ミニバッチのばらつきに応じて学習率を正規化することで達成される。
論文 参考訳(メタデータ) (2020-08-13T15:34:01Z) - Incremental Without Replacement Sampling in Nonconvex Optimization [0.0]
経験的リスクに対する最小限の分解法は、一般に近似設定で分析される。
一方、このような手法の現代的な実装は漸進的であり、それらは置換せずにサンプリングに依存しており、利用可能な分析は極めて少ない。
我々は、多変数な漸進勾配スキームを解析することにより、後者の変分に対する収束保証を提供する。
論文 参考訳(メタデータ) (2020-07-15T09:17:29Z) - Stochastic Optimization with Heavy-Tailed Noise via Accelerated Gradient
Clipping [69.9674326582747]
そこで本研究では,重み付き分散雑音を用いたスムーズな凸最適化のための,クリップ付きSSTMと呼ばれる新しい1次高速化手法を提案する。
この場合、最先端の結果を上回る新たな複雑さが証明される。
本研究は,SGDにおいて,ノイズに対する光細かな仮定を伴わずにクリッピングを施した最初の非自明な高確率複雑性境界を導出した。
論文 参考訳(メタデータ) (2020-05-21T17:05:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。