論文の概要: The Bayesian Stability Zoo
- arxiv url: http://arxiv.org/abs/2310.18428v2
- Date: Tue, 5 Dec 2023 09:50:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 19:08:56.114631
- Title: The Bayesian Stability Zoo
- Title(参考訳): ベイズ安定動物園
- Authors: Shay Moran, Hilla Schefler, Jonathan Shafer
- Abstract要約: 学習理論文献に見られる安定性の多くの定義が互いに等価であることを示す。
各家族において、近似微分プライバシー、純粋微分プライバシー、複製可能性、グローバル安定性、完全一般化、テレビの安定性、相互情報安定性、KL分割安定性、R'enyi分割安定性を含む様々な定義の等価性を確立する。
この研究は、学習理論における安定性概念のより体系的な分類への一歩であり、これは明確性を促進し、近年出現した安定性概念の一連の理解を改善することができる。
- 参考スコア(独自算出の注目度): 18.074002943658055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We show that many definitions of stability found in the learning theory
literature are equivalent to one another. We distinguish between two families
of definitions of stability: distribution-dependent and
distribution-independent Bayesian stability. Within each family, we establish
equivalences between various definitions, encompassing approximate differential
privacy, pure differential privacy, replicability, global stability, perfect
generalization, TV stability, mutual information stability, KL-divergence
stability, and R\'enyi-divergence stability. Along the way, we prove boosting
results that enable the amplification of the stability of a learning rule. This
work is a step towards a more systematic taxonomy of stability notions in
learning theory, which can promote clarity and an improved understanding of an
array of stability concepts that have emerged in recent years.
- Abstract(参考訳): 学習理論文献に見られる安定性の多くの定義が互いに等価であることを示す。
安定性の定義は, 分布依存と分布非依存の二つのベイズ安定性とを区別する。
各ファミリーにおいて、近似微分プライバシー、純粋微分プライバシー、再現性、グローバル安定性、完全一般化、テレビ安定性、相互情報安定性、kl-ダイバージェンス安定性、r\'enyi-divergence stabilityを含む様々な定義間の等価性を確立する。
その過程で,学習規則の安定性の増幅を可能にする結果が得られた。
この研究は、学習理論における安定性概念のより体系的な分類への一歩であり、これは明確性を促進し、近年出現した安定性概念の一連の理解を改善することができる。
関連論文リスト
- On the Selection Stability of Stability Selection and Its Applications [2.263635133348731]
本稿では,安定度選択フレームワークの全体的な安定性を評価するため,確立された安定度推定器の利用を拡大することを目的とする。
安定性推定器は、得られた結果の堅牢性を反映する参照として機能し、安定性を向上させるために最適な正規化値を特定するのに役立つ。
論文 参考訳(メタデータ) (2024-11-14T00:02:54Z) - Stable Update of Regression Trees [0.0]
本稿では,回帰木という,本質的に説明可能な機械学習手法の安定性に着目した。
本稿では,初期モデルの不確実性に基づいてデータポイントを重み付けする正規化手法を提案する。
その結果、提案手法は、類似またはより良い予測性能を達成しつつ、安定性の向上を図っている。
論文 参考訳(メタデータ) (2024-02-21T09:41:56Z) - Evaluating and Improving Continual Learning in Spoken Language
Understanding [58.723320551761525]
本研究では,連続学習における安定性,可塑性,一般化性に関する統一的な評価手法を提案する。
提案手法を用いることで,SLUモデルのこれらの3つの特性の異なる側面を,様々な知識蒸留の導入によってどのように改善するかを実証する。
論文 参考訳(メタデータ) (2024-02-16T03:30:27Z) - Stochastic Subgradient Methods with Guaranteed Global Stability in Nonsmooth Nonconvex Optimization [3.0586855806896045]
まず、対応する微分包含物が強制的リャプノフ関数を許容する下次手法の一般的な枠組みについて検討する。
我々は,Lyapunov関数が非強制的であるような,幅広い下位段階の手法のグローバルな安定性を確立するためのフレームワークを提案するために,改良された分析法を開発した。
論文 参考訳(メタデータ) (2023-07-19T15:26:18Z) - Stability and Generalization of Stochastic Compositional Gradient
Descent Algorithms [61.59448949684493]
学習例から構築した合成降下アルゴリズムの安定性と一般化解析について述べる。
SCGD と SCSC という2つの一般的な合成勾配勾配勾配アルゴリズムの均一安定性について検討した。
SCGD と SCSC の非依存的過剰リスク境界は,安定性結果と最適化誤差をトレードオフすることによって導出する。
論文 参考訳(メタデータ) (2023-07-07T02:40:09Z) - Minimax Optimal Estimation of Stability Under Distribution Shift [8.893526921869137]
分散シフト中のシステムの安定性を解析する。
安定性尺度は、より直感的な量、許容される性能劣化のレベルで定義される。
ミニマックス収束速度の特性は, 高い性能劣化に対する安定性の評価が統計的コストをもたらすことを示している。
論文 参考訳(メタデータ) (2022-12-13T02:40:30Z) - KCRL: Krasovskii-Constrained Reinforcement Learning with Guaranteed
Stability in Nonlinear Dynamical Systems [66.9461097311667]
形式的安定性を保証するモデルに基づく強化学習フレームワークを提案する。
提案手法は,特徴表現を用いて信頼区間までシステムダイナミクスを学習する。
我々は、KCRLが、基礎となる未知のシステムとの有限数の相互作用において安定化ポリシーを学ぶことが保証されていることを示す。
論文 参考訳(メタデータ) (2022-06-03T17:27:04Z) - Continual evaluation for lifelong learning: Identifying the stability
gap [35.99653845083381]
我々は、新しいタスクの学習を始める際に、一般的な最先端の手法のセットを忘れることに苦しむことを示す。
興味深いが潜在的に問題となる現象を安定性ギャップと呼ぶ。
我々は,各項目評価を用いた連続評価のためのフレームワークを構築し,最悪の場合のパフォーマンスを定量化するための新しい指標セットを定義する。
論文 参考訳(メタデータ) (2022-05-26T15:56:08Z) - Stability and Identification of Random Asynchronous Linear
Time-Invariant Systems [81.02274958043883]
線形力学系の安定性に対するランダム化と非同期化の付加的な利点を示す。
未知のランダム化LTIシステムに対して,基礎となる力学を復元するための系統的同定手法を提案する。
論文 参考訳(メタデータ) (2020-12-08T02:00:04Z) - Efficient Empowerment Estimation for Unsupervised Stabilization [75.32013242448151]
エンパワーメント原理は 直立位置での 力学系の教師なし安定化を可能にする
本稿では,ガウスチャネルとして動的システムのトレーニング可能な表現に基づく代替解を提案する。
提案手法は, サンプルの複雑さが低く, 訓練時より安定であり, エンパワーメント機能の本質的特性を有し, 画像からエンパワーメントを推定できることを示す。
論文 参考訳(メタデータ) (2020-07-14T21:10:16Z) - Fine-Grained Analysis of Stability and Generalization for Stochastic
Gradient Descent [55.85456985750134]
我々は,SGDの反復的リスクによって制御される新しい境界を開発する,平均モデル安定性と呼ばれる新しい安定性尺度を導入する。
これにより、最良のモデルの振舞いによって一般化境界が得られ、低雑音環境における最初の既知の高速境界が導かれる。
我々の知る限りでは、このことはSGDの微分不能な損失関数でさえも初めて知られている安定性と一般化を与える。
論文 参考訳(メタデータ) (2020-06-15T06:30:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。