論文の概要: The Price of Robustness: Stable Classifiers Need Overparameterization
- arxiv url: http://arxiv.org/abs/2603.02806v1
- Date: Tue, 03 Mar 2026 09:47:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.743613
- Title: The Price of Robustness: Stable Classifiers Need Overparameterization
- Title(参考訳): ロバストネスの価格:安定な分類器は過パラメータ化を必要とする
- Authors: Jonas von Berg, Adalbert Fono, Massimiliano Datres, Sohir Maskey, Gitta Kutyniok,
- Abstract要約: クラス安定性で逆改善する有限関数クラスに対して有界な一般化を確立する。
我々は、ブベックとセルケの結果を拡張する分類の堅牢性の法則として導かれる。
実験は我々の理論を支持するが、伝統的なノルムに基づく測度はほとんど非形式的である。
- 参考スコア(独自算出の注目度): 17.335490896384265
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The relationship between overparameterization, stability, and generalization remains incompletely understood in the setting of discontinuous classifiers. We address this gap by establishing a generalization bound for finite function classes that improves inversely with class stability, defined as the expected distance to the decision boundary in the input domain (margin). Interpreting class stability as a quantifiable notion of robustness, we derive as a corollary a law of robustness for classification that extends the results of Bubeck and Sellke beyond smoothness assumptions to discontinuous functions. In particular, any interpolating model with $p \approx n$ parameters on $n$ data points must be unstable, implying that substantial overparameterization is necessary to achieve high stability. We obtain analogous results for parameterized infinite function classes by analyzing a stronger robustness measure derived from the margin in the codomain, which we refer to as the normalized co-stability. Experiments support our theory: stability increases with model size and correlates with test performance, while traditional norm-based measures remain largely uninformative.
- Abstract(参考訳): 過パラメータ化、安定性、一般化の関係は、不連続分類器の設定において完全には理解されていない。
このギャップは、入力領域(マージン)における決定境界への期待距離として定義されるクラス安定性と逆改善する有限関数クラスに対する一般化境界を確立することで解決する。
クラス安定性をロバスト性の定量化の概念として解釈すると、ブベックとセルケの結果を滑らかな仮定を越えて不連続函数へと拡張する分類のロバスト性法則として導かれる。
特に、$n$のデータポイント上の$p \approx n$パラメータを持つ補間モデルは不安定でなければならない。
パラメータ化無限関数クラスに対する類似した結果を得るには、コドメインのマージンから導かれる強い頑健性尺度を解析し、正規化コスタビリティ(英語版)と呼ぶ。
実験は我々の理論を支持する: 安定性はモデルのサイズとともに増加し、テスト性能と相関する。
関連論文リスト
- Stability and Generalization of Push-Sum Based Decentralized Optimization over Directed Graphs [55.77845440440496]
プッシュベースの分散通信は、情報交換が非対称である可能性のある通信ネットワークの最適化を可能にする。
我々は、グラディエント・プッシュ(SGP)アルゴリズムのための統一的な一様安定性フレームワークを開発する。
重要な技術的要素は、2つの量に束縛された不均衡認識の一般化である。
論文 参考訳(メタデータ) (2026-02-24T05:32:03Z) - Stability and Concentration in Nonlinear Inverse Problems with Block-Structured Parameters: Lipschitz Geometry, Identifiability, and an Application to Gaussian Splatting [0.552480439325792]
ブロック構造パラメータを持つ非線形逆問題における安定度と統計的集中度に関する演算子理論の枠組みを開発する。
全体として、この分析は、現代の画像と微分可能レンダリングで生じる幅広い高次元非線形逆問題に対する演算子レベル限界を特徴づける。
論文 参考訳(メタデータ) (2026-02-10T05:11:06Z) - Avoiding the Price of Adaptivity: Inference in Linear Contextual Bandits via Stability [2.5782420501870296]
安定性と統計的効率は、単一の文脈的帯域幅法で共存することができると論じる。
本アルゴリズムは,対数的因子に最適化された最小限の誤差保証を実現する。
論文 参考訳(メタデータ) (2025-12-23T13:53:53Z) - Regulating Model Reliance on Non-Robust Features by Smoothing Input Marginal Density [93.32594873253534]
信頼できる機械学習は、非ロバストな特徴に依存するモデルの厳密な規制を必要とする。
本稿では,モデル予測を入力に関連付けることによって,そのような特徴を記述・規制するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-05T09:16:56Z) - A Precise Characterization of SGD Stability Using Loss Surface Geometry [8.942671556572073]
Descent Gradient (SGD) は実世界の実証的な成功を証明しているが、理論的な理解は比較的限られている。
最近の研究は、その実用性に寄与する重要な要因である暗黙の正規化を照らしている。
論文 参考訳(メタデータ) (2024-01-22T19:46:30Z) - Robustness and Accuracy Could Be Reconcilable by (Proper) Definition [109.62614226793833]
強靭性と精度のトレードオフは、敵文学において広く研究されている。
局所的不変性の帰納的バイアスを課す不適切に定義された頑健な誤差に由来する可能性がある。
定義上、SCOREは、最悪のケースの不確実性に対処しながら、堅牢性と正確性の間の和解を促進する。
論文 参考訳(メタデータ) (2022-02-21T10:36:09Z) - Toward Better Generalization Bounds with Locally Elastic Stability [41.7030651617752]
局所的な弾性安定性は、一様安定性に基づいて導出されたものよりも厳密な一般化境界を意味すると論じる。
我々は、有界支持ベクトルマシン、正規化最小二乗回帰、勾配降下の例を再考する。
論文 参考訳(メタデータ) (2020-10-27T02:04:53Z) - Fine-Grained Analysis of Stability and Generalization for Stochastic
Gradient Descent [55.85456985750134]
我々は,SGDの反復的リスクによって制御される新しい境界を開発する,平均モデル安定性と呼ばれる新しい安定性尺度を導入する。
これにより、最良のモデルの振舞いによって一般化境界が得られ、低雑音環境における最初の既知の高速境界が導かれる。
我々の知る限りでは、このことはSGDの微分不能な損失関数でさえも初めて知られている安定性と一般化を与える。
論文 参考訳(メタデータ) (2020-06-15T06:30:19Z) - Stable and consistent density-based clustering via multiparameter persistence [49.1574468325115]
トポロジカルデータ解析による次数-リップス構成について考察する。
我々は,入力データの摂動に対する安定性を,通信間距離を用いて解析する。
私たちはこれらのメソッドを、Persistableと呼ばれる密度ベースのクラスタリングのためのパイプラインに統合します。
論文 参考訳(メタデータ) (2020-05-18T19:45:04Z) - The Curse of Performance Instability in Analysis Datasets: Consequences,
Source, and Suggestions [93.62888099134028]
自然言語推論(NLI)および読み込み(RC)解析/ストレスセットにおける最先端モデルの性能は極めて不安定であることがわかった。
このことは、(1)不安定さがこれらの分析セットに基づいて引き出された結論の信頼性にどのように影響するかという3つの疑問を提起する。
不安定の原因に関する理論的説明と実証的証拠の両方を提示する。
論文 参考訳(メタデータ) (2020-04-28T15:41:12Z) - Distributional Robustness and Regularization in Reinforcement Learning [62.23012916708608]
経験値関数の新しい正規化器を導入し、ワッサーシュタイン分布のロバストな値関数を下限とすることを示す。
強化学習における$textitexternalな不確実性に対処するための実用的なツールとして正規化を使用することを提案する。
論文 参考訳(メタデータ) (2020-03-05T19:56:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。