論文の概要: Stability and Accuracy Trade-offs in Statistical Estimation
- arxiv url: http://arxiv.org/abs/2601.11701v1
- Date: Fri, 16 Jan 2026 18:48:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.291957
- Title: Stability and Accuracy Trade-offs in Statistical Estimation
- Title(参考訳): 統計的推定における安定性と精度のトレードオフ
- Authors: Abhinav Chakraborty, Yuetian Luo, Rina Foygel Barber,
- Abstract要約: 4つの正準推定問題に対する最適安定推定器を開発する。
平均ケース安定性が最悪のケース安定性よりも質的に弱い制約を課すという直観を定式化する。
- 参考スコア(独自算出の注目度): 7.213400161126317
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic stability is a central concept in statistics and learning theory that measures how sensitive an algorithm's output is to small changes in the training data. Stability plays a crucial role in understanding generalization, robustness, and replicability, and a variety of stability notions have been proposed in different learning settings. However, while stability entails desirable properties, it is typically not sufficient on its own for statistical learning -- and indeed, it may be at odds with accuracy, since an algorithm that always outputs a constant function is perfectly stable but statistically meaningless. Thus, it is essential to understand the potential statistical cost of stability. In this work, we address this question by adopting a statistical decision-theoretic perspective, treating stability as a constraint in estimation. Focusing on two representative notions-worst-case stability and average-case stability-we first establish general lower bounds on the achievable estimation accuracy under each type of stability constraint. We then develop optimal stable estimators for four canonical estimation problems, including several mean estimation and regression settings. Together, these results characterize the optimal trade-offs between stability and accuracy across these tasks. Our findings formalize the intuition that average-case stability imposes a qualitatively weaker restriction than worst-case stability, and they further reveal that the gap between these two can vary substantially across different estimation problems.
- Abstract(参考訳): アルゴリズム安定性は、アルゴリズムの出力がトレーニングデータの小さな変化にどれほど敏感であるかを測定する統計学と学習理論における中心的な概念である。
安定性は、一般化、堅牢性、複製可能性を理解する上で重要な役割を担い、様々な学習環境で様々な安定性の概念が提案されている。
しかし、安定性には望ましい性質が伴うが、統計学習にはそれ自身では不十分であり、実際には、常に一定の関数を出力するアルゴリズムが完全に安定だが統計的には無意味であるため、正確性に反する可能性がある。
したがって、安定性の潜在的な統計的コストを理解することが不可欠である。
本研究では,統計的決定論的な視点を取り入れ,安定性を推定の制約として扱うことにより,この問題に対処する。
平均ケース安定性と平均ケース安定性の2つの代表的な概念に着目して、まず、各種類の安定性制約の下で達成可能な推定精度の一般的な下限を確立する。
次に、いくつかの平均推定と回帰設定を含む4つの正準推定問題に対する最適安定推定器を開発する。
これらの結果は、これらのタスク間での安定性と精度の最適なトレードオフを特徴付ける。
平均ケース安定性は最悪のケース安定性よりも定性的に弱い制約を課すという直観を定式化し、これらの2つのギャップは推定問題によって大きく異なることを明らかにした。
関連論文リスト
- The Relative Instability of Model Comparison with Cross-validation [65.90853456199493]
クロスバリデーションは、安定した機械学習アルゴリズムのテストエラーに対する信頼区間を提供するために使用できる。
相対安定性は、単純なアルゴリズムであっても、既存の安定性の結果から容易に導き出すことはできない。
ソフトスレッディングまたはラッソを用いた場合、試験誤差差に対するCV信頼区間の無効性を実証的に確認する。
論文 参考訳(メタデータ) (2025-08-06T12:54:56Z) - Towards Robust Stability Prediction in Smart Grids: GAN-based Approach under Data Constraints and Adversarial Challenges [53.2306792009435]
本稿では,安定したデータのみを用いて,スマートグリッドの不安定性を検出する新しいフレームワークを提案する。
最大98.1%の精度でグリッド安定性を予測でき、98.9%で敵の攻撃を検知できる。
シングルボードコンピュータ上で実装され、7ms以下の平均応答時間でリアルタイムな意思決定を可能にする。
論文 参考訳(メタデータ) (2025-01-27T20:48:25Z) - Probabilistic Modeling of Disparity Uncertainty for Robust and Efficient Stereo Matching [61.73532883992135]
本稿では,新しい不確実性を考慮したステレオマッチングフレームワークを提案する。
我々はベイズリスクを不確実性の測定として採用し、データを別々に見積もり、不確実性をモデル化する。
論文 参考訳(メタデータ) (2024-12-24T23:28:20Z) - On the Selection Stability of Stability Selection and Its Applications [2.263635133348731]
本研究は,安定度選択結果の総合的安定性を評価するため,確立された安定性推定器の利用を拡大することを目的とする。
鍵安定性選択パラメータ、すなわち決定しきい値と期待される偽選択変数数を校正する。
連続するサブサンプルに対する安定性値の収束は、サブサンプルの必要個数に光を放つ。
論文 参考訳(メタデータ) (2024-11-14T00:02:54Z) - Stable Update of Regression Trees [0.0]
本稿では,回帰木という,本質的に説明可能な機械学習手法の安定性に着目した。
本稿では,初期モデルの不確実性に基づいてデータポイントを重み付けする正規化手法を提案する。
その結果、提案手法は、類似またはより良い予測性能を達成しつつ、安定性の向上を図っている。
論文 参考訳(メタデータ) (2024-02-21T09:41:56Z) - The Bayesian Stability Zoo [18.074002943658055]
学習理論文献に見られる安定性の多くの定義が互いに等価であることを示す。
各家族において、近似微分プライバシー、純粋微分プライバシー、複製可能性、グローバル安定性、完全一般化、テレビの安定性、相互情報安定性、KL分割安定性、R'enyi分割安定性を含む様々な定義の等価性を確立する。
この研究は、学習理論における安定性概念のより体系的な分類への一歩であり、これは明確性を促進し、近年出現した安定性概念の一連の理解を改善することができる。
論文 参考訳(メタデータ) (2023-10-27T18:59:31Z) - Stability and Generalization of Stochastic Compositional Gradient
Descent Algorithms [61.59448949684493]
学習例から構築した合成降下アルゴリズムの安定性と一般化解析について述べる。
SCGD と SCSC という2つの一般的な合成勾配勾配勾配アルゴリズムの均一安定性について検討した。
SCGD と SCSC の非依存的過剰リスク境界は,安定性結果と最適化誤差をトレードオフすることによって導出する。
論文 参考訳(メタデータ) (2023-07-07T02:40:09Z) - Probabilistic robust linear quadratic regulators with Gaussian processes [73.0364959221845]
ガウス過程(GP)のような確率モデルは、制御設計に続く使用のためのデータから未知の動的システムを学ぶための強力なツールです。
本稿では、確率的安定性マージンに関して堅牢なコントローラを生成する線形化GPダイナミクスのための新しいコントローラ合成について述べる。
論文 参考訳(メタデータ) (2021-05-17T08:36:18Z) - Fine-Grained Analysis of Stability and Generalization for Stochastic
Gradient Descent [55.85456985750134]
我々は,SGDの反復的リスクによって制御される新しい境界を開発する,平均モデル安定性と呼ばれる新しい安定性尺度を導入する。
これにより、最良のモデルの振舞いによって一般化境界が得られ、低雑音環境における最初の既知の高速境界が導かれる。
我々の知る限りでは、このことはSGDの微分不能な損失関数でさえも初めて知られている安定性と一般化を与える。
論文 参考訳(メタデータ) (2020-06-15T06:30:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。