論文の概要: Stability and Generalization for Randomized Coordinate Descent
- arxiv url: http://arxiv.org/abs/2108.07414v1
- Date: Tue, 17 Aug 2021 02:52:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-18 22:48:07.814881
- Title: Stability and Generalization for Randomized Coordinate Descent
- Title(参考訳): ランダム座標降下の安定性と一般化
- Authors: Puyu Wang, Liang Wu, Yunwen Lei
- Abstract要約: RCDによってトレーニングされたモデルがどのように例をテストするかを研究する作業はない。
本稿では,アルゴリズム安定性の強力なツールを活用することにより,RCDの一般化解析を初期化する。
解析の結果,RCDは勾配降下よりも安定性がよいことがわかった。
- 参考スコア(独自算出の注目度): 19.687456295228156
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Randomized coordinate descent (RCD) is a popular optimization algorithm with
wide applications in solving various machine learning problems, which motivates
a lot of theoretical analysis on its convergence behavior. As a comparison,
there is no work studying how the models trained by RCD would generalize to
test examples. In this paper, we initialize the generalization analysis of RCD
by leveraging the powerful tool of algorithmic stability. We establish argument
stability bounds of RCD for both convex and strongly convex objectives, from
which we develop optimal generalization bounds by showing how to early-stop the
algorithm to tradeoff the estimation and optimization. Our analysis shows that
RCD enjoys better stability as compared to stochastic gradient descent.
- Abstract(参考訳): ランダム化座標降下法(Randomized coordinate descent, RCD)は、様々な機械学習問題の解法において広く用いられる最適化アルゴリズムであり、収束挙動に関する多くの理論的解析を動機付けている。
比較として、RCDによって訓練されたモデルがどのように例をテストするかは研究されていない。
本稿では,アルゴリズム安定性の強力なツールを用いて,rcdの一般化解析を初期化する。
我々は、凸と強凸の両方の目的に対してRCDの引数安定性境界を確立し、そこから推定と最適化のトレードオフをアルゴリズムの早期停止方法を示すことによって最適な一般化境界を開発する。
解析の結果,rcdは確率勾配降下に比べて安定性が良好であった。
関連論文リスト
- A Primal-Dual Algorithm for Faster Distributionally Robust Optimization [12.311794669976047]
本稿では,Dragoについて述べる。Dragoは,DRO問題に対して,最先端の線形収束率を実現するアルゴリズムである。
分類と回帰の数値的なベンチマークで理論的結果を支持する。
論文 参考訳(メタデータ) (2024-03-16T02:06:14Z) - ALEXR: An Optimal Single-Loop Algorithm for Convex Finite-Sum Coupled Compositional Stochastic Optimization [53.14532968909759]
ALEXRと呼ばれる,効率的な単ループプリマルデュアルブロックコーディネートアルゴリズムを提案する。
本研究では, ALEXR の凸面および強凸面の収束速度を滑らか性および非滑らか性条件下で確立する。
本稿では,ALEXRの収束速度が,検討されたcFCCO問題に対する1次ブロック座標アルゴリズムの中で最適であることを示すために,より低い複雑性境界を示す。
論文 参考訳(メタデータ) (2023-12-04T19:00:07Z) - Stability and Generalization of the Decentralized Stochastic Gradient
Descent Ascent Algorithm [80.94861441583275]
本稿では,分散勾配勾配(D-SGDA)アルゴリズムの一般化境界の複雑さについて検討する。
本研究は,D-SGDAの一般化における各因子の影響を解析した。
また、最適凸凹設定を得るために一般化とバランスをとる。
論文 参考訳(メタデータ) (2023-10-31T11:27:01Z) - Stability and Generalization of Stochastic Compositional Gradient
Descent Algorithms [61.59448949684493]
学習例から構築した合成降下アルゴリズムの安定性と一般化解析について述べる。
SCGD と SCSC という2つの一般的な合成勾配勾配勾配アルゴリズムの均一安定性について検討した。
SCGD と SCSC の非依存的過剰リスク境界は,安定性結果と最適化誤差をトレードオフすることによって導出する。
論文 参考訳(メタデータ) (2023-07-07T02:40:09Z) - Exploring the Algorithm-Dependent Generalization of AUPRC Optimization
with List Stability [107.65337427333064]
AUPRC(Area Under the Precision-Recall Curve)の最適化は、機械学習にとって重要な問題である。
本研究では, AUPRC最適化の単依存一般化における最初の試行について述べる。
3つの画像検索データセットの実験は、我々のフレームワークの有効性と健全性に言及する。
論文 参考訳(メタデータ) (2022-09-27T09:06:37Z) - Gradient Descent Averaging and Primal-dual Averaging for Strongly Convex
Optimization [15.731908248435348]
強凸の場合の勾配降下平均化と主双進平均化アルゴリズムを開発する。
一次二重平均化は出力平均化の観点から最適な収束率を導出し、SC-PDAは最適な個々の収束を導出する。
SVMとディープラーニングモデルに関するいくつかの実験は、理論解析の正確性とアルゴリズムの有効性を検証する。
論文 参考訳(メタデータ) (2020-12-29T01:40:30Z) - Bilevel Optimization: Convergence Analysis and Enhanced Design [63.64636047748605]
バイレベル最適化は多くの機械学習問題に対するツールである。
Stoc-BiO という新しい確率効率勾配推定器を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:09:48Z) - Kernel Distributionally Robust Optimization [17.909696462645023]
本稿では、ロバスト最適化理論と関数解析の知見を用いたカーネル分散ロバスト最適化(カーネルDRO)を提案する。
提案手法では,カーネルカーネル(RKHS)を用いて幅広い凸曖昧性を構築し,確率測定値と有限次モーメント集合に基づく集合に一般化することができる。
普遍的な RKHS を用いることで、この定理は損失関数の幅広いクラスに適用され、損失やリプシッツ定数の知識のような共通の制限が解かれる。
論文 参考訳(メタデータ) (2020-06-12T07:46:59Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。