論文の概要: A Note on Stability in Asynchronous Stochastic Approximation without Communication Delays
- arxiv url: http://arxiv.org/abs/2312.15091v2
- Date: Tue, 13 Aug 2024 23:17:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-15 18:16:52.935910
- Title: A Note on Stability in Asynchronous Stochastic Approximation without Communication Delays
- Title(参考訳): 通信遅延のない非同期確率近似の安定性に関する一考察
- Authors: Huizhen Yu, Yi Wan, Richard S. Sutton,
- Abstract要約: 通信遅延のない非同期近似アルゴリズムについて検討する。
私たちの主な貢献は、これらのアルゴリズムの安定性の証明です。
本稿では,それらの応用を,平均回帰学習における重要な課題として論じる。
- 参考スコア(独自算出の注目度): 11.868402302316131
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study asynchronous stochastic approximation algorithms without communication delays. Our main contribution is a stability proof for these algorithms that extends a method of Borkar and Meyn by accommodating more general noise conditions. We also derive convergence results from this stability result and discuss their application in important average-reward reinforcement learning problems.
- Abstract(参考訳): 本稿では,通信遅延のない非同期確率近似アルゴリズムについて検討する。
我々の主な貢献は、より一般的な雑音条件を調節することによってボルカーとメインの手法を拡張するこれらのアルゴリズムの安定性証明である。
また、この安定性結果から収束結果を導出し、それらの重要な平均回帰強化学習問題への応用について議論する。
関連論文リスト
- Asynchronous Stochastic Approximation and Average-Reward Reinforcement Learning [11.868402302316131]
我々は、より一般的な雑音条件を満たすために、ボルカールとメインの安定性証明法を拡張した。
我々は、Schweitzerの古典的相対値アルゴリズムRVI Q-learningの非同期SAアナログの収束を確立する。
RVIQ学習における最適報酬率を推定するための新しい単調性条件を導入する。
論文 参考訳(メタデータ) (2024-09-05T21:23:51Z) - Stochastic Approximation with Delayed Updates: Finite-Time Rates under Markovian Sampling [73.5602474095954]
マルコフサンプリングの遅延更新による近似スキームの非漸近的性能について検討した。
我々の理論的な発見は、幅広いアルゴリズムの遅延の有限時間効果に光を当てた。
論文 参考訳(メタデータ) (2024-02-19T03:08:02Z) - The ODE Method for Stochastic Approximation and Reinforcement Learning with Markovian Noise [17.493808856903303]
近似アルゴリズムを解析する根本的な課題は、その安定性を確立することである。
本稿では,マルティンゲール差分雑音設定からマルコフ雑音設定へ有界な安定に対するボルカー・メイン定理を拡張する。
我々の分析の中心は、少数の関数の変化の減少率であり、これは多量の強い法則の形式とよく用いられるV4 Lynovドリフト条件の両方によって示唆される。
論文 参考訳(メタデータ) (2024-01-15T17:20:17Z) - Stability and Generalization of Stochastic Compositional Gradient
Descent Algorithms [61.59448949684493]
学習例から構築した合成降下アルゴリズムの安定性と一般化解析について述べる。
SCGD と SCSC という2つの一般的な合成勾配勾配勾配アルゴリズムの均一安定性について検討した。
SCGD と SCSC の非依存的過剰リスク境界は,安定性結果と最適化誤差をトレードオフすることによって導出する。
論文 参考訳(メタデータ) (2023-07-07T02:40:09Z) - First Order Methods with Markovian Noise: from Acceleration to Variational Inequalities [91.46841922915418]
本稿では,一階変分法の理論解析のための統一的アプローチを提案する。
提案手法は非線形勾配問題とモンテカルロの強い問題の両方をカバーする。
凸法最適化問題の場合、オラクルに強く一致するような境界を与える。
論文 参考訳(メタデータ) (2023-05-25T11:11:31Z) - Learning to Optimize with Stochastic Dominance Constraints [103.26714928625582]
本稿では,不確実量を比較する問題に対して,単純かつ効率的なアプローチを開発する。
我々はラグランジアンの内部最適化をサロゲート近似の学習問題として再考した。
提案したライト-SDは、ファイナンスからサプライチェーン管理に至るまで、いくつかの代表的な問題において優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-14T21:54:31Z) - STRONG: Synchronous and asynchronous RObust Network localization, under
Non-Gaussian noise [0.0]
現実世界のネットワークアプリケーションは、故障したノード、悪意のある攻撃、および外れ値として分類されたデータに対処しなければならない。
本研究はセンサネットワークローカライゼーションアルゴリズムの範囲内でこれらの懸念に対処する。
コントリビューションの大きな目玉は、証明可能な配布に対して、正確性も、通信コストも、速度も、何の費用も払わないという事実にあります。
論文 参考訳(メタデータ) (2021-10-01T18:01:28Z) - Asynchronous Iterations in Optimization: New Sequence Results and
Sharper Algorithmic Guarantees [10.984101749941471]
並列および分散最適化アルゴリズムの解析に現れる非同期反復に対する新しい収束結果を紹介する。
結果は簡単に適用でき、非同期の度合いが反復の収束率にどのように影響するかを明確に見積もることができる。
論文 参考訳(メタデータ) (2021-09-09T19:08:56Z) - Exact solution to the random sequential dynamics of a message passing
algorithm [4.066211670342284]
ランダムな相互作用を持つIsingモデルに対するメッセージパッシングアルゴリズムのランダムな連続ダイナミクスを大規模システムリミットで解析する。
Em de Almedia-Thouless stability criterion of the static problem is found to be necessary and enough for the global convergence of the random sequence dynamics。
論文 参考訳(メタデータ) (2021-01-05T15:03:54Z) - Fast Objective & Duality Gap Convergence for Non-Convex Strongly-Concave
Min-Max Problems with PL Condition [52.08417569774822]
本稿では,深層学習(深層AUC)により注目度が高まっている,円滑な非凹部min-max問題の解法に焦点をあてる。
論文 参考訳(メタデータ) (2020-06-12T00:32:21Z) - Stochastic Optimization with Heavy-Tailed Noise via Accelerated Gradient
Clipping [69.9674326582747]
そこで本研究では,重み付き分散雑音を用いたスムーズな凸最適化のための,クリップ付きSSTMと呼ばれる新しい1次高速化手法を提案する。
この場合、最先端の結果を上回る新たな複雑さが証明される。
本研究は,SGDにおいて,ノイズに対する光細かな仮定を伴わずにクリッピングを施した最初の非自明な高確率複雑性境界を導出した。
論文 参考訳(メタデータ) (2020-05-21T17:05:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。