論文の概要: Stability-based Generalization Analysis for Mixtures of Pointwise and
Pairwise Learning
- arxiv url: http://arxiv.org/abs/2302.09967v1
- Date: Mon, 20 Feb 2023 13:25:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 15:24:57.380172
- Title: Stability-based Generalization Analysis for Mixtures of Pointwise and
Pairwise Learning
- Title(参考訳): 点学習と対学習の混合に対する安定性に基づく一般化解析
- Authors: Jiahuan Wang, Jun Chen, Hong Chen, Bin Gu, Weifu Li, Xin Tang
- Abstract要約: ポイントワイド・ペアワイド・ラーニング(PPL)のいくつかのアルゴリズムは、「ポイントワイド・ロスとペアワイド・ロス」のハイブリッド・エラー・メトリックを用いて定式化されている。
本稿では,PPLの一般化特性を解明し,この理論的ギャップを埋めようとしている。
- 参考スコア(独自算出の注目度): 27.8712875561043
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, some mixture algorithms of pointwise and pairwise learning (PPL)
have been formulated by employing the hybrid error metric of "pointwise loss +
pairwise loss" and have shown empirical effectiveness on feature selection,
ranking and recommendation tasks. However, to the best of our knowledge, the
learning theory foundation of PPL has not been touched in the existing works.
In this paper, we try to fill this theoretical gap by investigating the
generalization properties of PPL. After extending the definitions of
algorithmic stability to the PPL setting, we establish the high-probability
generalization bounds for uniformly stable PPL algorithms. Moreover, explicit
convergence rates of stochastic gradient descent (SGD) and regularized risk
minimization (RRM) for PPL are stated by developing the stability analysis
technique of pairwise learning. In addition, the refined generalization bounds
of PPL are obtained by replacing uniform stability with on-average stability.
- Abstract(参考訳): 近年,「ポイントワイド・ペアワイド・ラーニング(PPL)」の混合アルゴリズムが「ポイントワイド・ロス+ペアワイド・ロス」というハイブリッド・エラー・メトリックを用いて定式化され,特徴選択,ランキング,レコメンデーションに実証的な効果が示された。
しかし、我々の知る限りでは、PPLの学習理論の基礎は、既存の研究には触れられていない。
本稿では,PPLの一般化特性を解明し,この理論的ギャップを埋めようとしている。
アルゴリズム安定性の定義をPPL設定に拡張した後、一様安定なPPLアルゴリズムの高確率一般化境界を確立する。
さらに,ペアワイズ学習の安定性解析手法を開発し,確率的勾配降下 (sgd) と正則化リスク最小化 (rrm) の明示的な収束率について述べる。
さらに、一様安定性を平均安定性に置き換えることで、PPLの洗練された一般化境界が得られる。
関連論文リスト
- Full error analysis of policy gradient learning algorithms for exploratory linear quadratic mean-field control problem in continuous time with common noise [0.0]
政策勾配学習(PG)について検討し,まずモデルベース環境での収束を実証する。
モデルフリー環境では,2点勾配推定を用いたPGアルゴリズムの線形収束とサンプル複雑性を大域的に証明する。
この設定では、パラメータ化された最適ポリシーは、状態と人口分布のサンプルから学習される。
論文 参考訳(メタデータ) (2024-08-05T14:11:51Z) - A Unified Theory of Stochastic Proximal Point Methods without Smoothness [52.30944052987393]
近点法はその数値的安定性と不完全なチューニングに対する頑健性からかなりの関心を集めている。
本稿では,近位点法(SPPM)の幅広いバリエーションの包括的解析について述べる。
論文 参考訳(メタデータ) (2024-05-24T21:09:19Z) - Improved High-Probability Bounds for the Temporal Difference Learning Algorithm via Exponential Stability [17.771354881467435]
一般化された, インスタンスに依存しないステップサイズを持つ単純なアルゴリズムは, ほぼ最適分散とバイアス項を得るのに十分であることを示す。
本手法は, 線形近似のための洗練された誤差境界と, ランダム行列の積に対する新しい安定性結果に基づく。
論文 参考訳(メタデータ) (2023-10-22T12:37:25Z) - Distributionally Robust Optimization with Bias and Variance Reduction [9.341215359733601]
勾配に基づくアルゴリズムであるProspectは、スムーズな正規化損失に対する線形収束を享受していることを示す。
また、勾配法のようなベースラインよりも2~3$times$早く収束できることも示している。
論文 参考訳(メタデータ) (2023-10-21T00:03:54Z) - Stability and Generalization of Stochastic Compositional Gradient
Descent Algorithms [61.59448949684493]
学習例から構築した合成降下アルゴリズムの安定性と一般化解析について述べる。
SCGD と SCSC という2つの一般的な合成勾配勾配勾配アルゴリズムの均一安定性について検討した。
SCGD と SCSC の非依存的過剰リスク境界は,安定性結果と最適化誤差をトレードオフすることによって導出する。
論文 参考訳(メタデータ) (2023-07-07T02:40:09Z) - Fully Stochastic Trust-Region Sequential Quadratic Programming for
Equality-Constrained Optimization Problems [62.83783246648714]
目的と決定論的等式制約による非線形最適化問題を解くために,逐次2次プログラミングアルゴリズム(TR-StoSQP)を提案する。
アルゴリズムは信頼領域半径を適応的に選択し、既存の直線探索StoSQP方式と比較して不確定なヘッセン行列を利用することができる。
論文 参考訳(メタデータ) (2022-11-29T05:52:17Z) - Stability and Generalization for Markov Chain Stochastic Gradient
Methods [49.981789906200035]
本稿では,最小化問題と最小化問題の両方に対して,MC-SGMの包括的一般化解析を行う。
我々はスムーズかつ非スムーズなケースに対して最適な過剰人口リスク境界を確立する。
コンベックス・コンケーブ問題に対する最初期のほぼ最適な収束率を期待と高い確率で開発する。
論文 参考訳(メタデータ) (2022-09-16T15:42:51Z) - Boosting the Confidence of Generalization for $L_2$-Stable Randomized
Learning Algorithms [41.082982732100696]
適切に設計されたサブバッグプロセスは、データとアルゴリズムの両方にほぼ28の指数関数的一般化バウンダリをもたらすことを示す。
さらに、自然減衰学習率を持つ凸問題や非重み付き問題に対する高確率一般化境界を改善するために、総合的な結果を導出する。
論文 参考訳(メタデータ) (2022-06-08T12:14:01Z) - Regularization Guarantees Generalization in Bayesian Reinforcement
Learning through Algorithmic Stability [48.62272919754204]
ベイズ RL の一般化を、おそらくほぼ正しい (PAC) フレームワークで研究する。
我々の主な貢献は、正規化を加えることで、最適な政策が適切な意味で安定することを示しています。
論文 参考訳(メタデータ) (2021-09-24T07:48:34Z) - Fine-Grained Analysis of Stability and Generalization for Stochastic
Gradient Descent [55.85456985750134]
我々は,SGDの反復的リスクによって制御される新しい境界を開発する,平均モデル安定性と呼ばれる新しい安定性尺度を導入する。
これにより、最良のモデルの振舞いによって一般化境界が得られ、低雑音環境における最初の既知の高速境界が導かれる。
我々の知る限りでは、このことはSGDの微分不能な損失関数でさえも初めて知られている安定性と一般化を与える。
論文 参考訳(メタデータ) (2020-06-15T06:30:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。