論文の概要: Malign Overfitting: Interpolation Can Provably Preclude Invariance
- arxiv url: http://arxiv.org/abs/2211.15724v1
- Date: Mon, 28 Nov 2022 19:17:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 15:10:02.281148
- Title: Malign Overfitting: Interpolation Can Provably Preclude Invariance
- Title(参考訳): 悪性オーバーフィッティング:補間はおそらく不変性を妨げる
- Authors: Yoav Wald, Gal Yona, Uri Shalit, Yair Carmon
- Abstract要約: 我々は、任意の補間学習規則が(任意に小さなマージンを持つ)不変性を満たすことはないことを証明した。
次に,非補間分類器をうまく学習するアルゴリズムを提案し,解析する。
シミュレーションデータとウォーターバードデータセットに関する理論的考察を検証した。
- 参考スコア(独自算出の注目度): 23.200494258766447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learned classifiers should often possess certain invariance properties meant
to encourage fairness, robustness, or out-of-distribution generalization.
However, multiple recent works empirically demonstrate that common
invariance-inducing regularizers are ineffective in the over-parameterized
regime, in which classifiers perfectly fit (i.e. interpolate) the training
data. This suggests that the phenomenon of ``benign overfitting," in which
models generalize well despite interpolating, might not favorably extend to
settings in which robustness or fairness are desirable.
In this work we provide a theoretical justification for these observations.
We prove that -- even in the simplest of settings -- any interpolating learning
rule (with arbitrarily small margin) will not satisfy these invariance
properties. We then propose and analyze an algorithm that -- in the same
setting -- successfully learns a non-interpolating classifier that is provably
invariant. We validate our theoretical observations on simulated data and the
Waterbirds dataset.
- Abstract(参考訳): 学習された分類器は、公平性、堅牢性、分散の一般化を促進するためのある種の不変性を持つべきである。
しかし、近年の複数の研究により、共通不分散誘導正規化器は、分類器がトレーニングデータに完全に適合する(つまり補間する)過剰パラメータ化方式では有効ではないことが実証されている。
これは、補間にもかかわらずモデルがうまく一般化する「良心過剰」現象が、堅牢性や公正性が望ましい設定にまで好ましくないことを示唆している。
この研究では、これらの観測を理論的に正当化します。
最も単純な設定であっても、任意の補間学習規則(任意にマージンが小さい)がこれらの不変性特性を満たさないことを証明します。
そして、同じ設定で、証明可能な不変な非補間分類器をうまく学習するアルゴリズムを提案し、解析する。
シミュレーションデータと水鳥データセットに関する理論的観察を検証する。
関連論文リスト
- Equivariance and Invariance Inductive Bias for Learning from
Insufficient Data [65.42329520528223]
不十分なデータがモデルを、通常テストとは異なる限られたトレーニング環境にバイアスしやすくする理由が示されています。
従来のIRMにおける環境アノテーションの欠如を効果的に解決するクラスワイド不変リスク最小化(IRM)を提案する。
論文 参考訳(メタデータ) (2022-07-25T15:26:19Z) - On the Strong Correlation Between Model Invariance and Generalization [54.812786542023325]
一般化は、見えないデータを分類するモデルの能力をキャプチャする。
不変性はデータの変換におけるモデル予測の一貫性を測定する。
データセット中心の視点から、あるモデルの精度と不変性は異なるテストセット上で線形に相関している。
論文 参考訳(メタデータ) (2022-07-14T17:08:25Z) - Predicting Out-of-Domain Generalization with Neighborhood Invariance [59.05399533508682]
局所変換近傍における分類器の出力不変性の尺度を提案する。
私たちの測度は計算が簡単で、テストポイントの真のラベルに依存しません。
画像分類,感情分析,自然言語推論のベンチマーク実験において,我々の測定値と実際のOOD一般化との間に強い相関関係を示す。
論文 参考訳(メタデータ) (2022-07-05T14:55:16Z) - Ensembling over Classifiers: a Bias-Variance Perspective [13.006468721874372]
Pfau (2013) による偏差分解の拡張の上に構築し, 分類器のアンサンブルの挙動に関する重要な知見を得る。
条件付き推定は必然的に既約誤差を生じさせることを示す。
経験的に、標準的なアンサンブルはバイアスを減少させ、この予期せぬ減少のために、分類器のアンサンブルがうまく機能するかもしれないという仮説を立てる。
論文 参考訳(メタデータ) (2022-06-21T17:46:35Z) - Equivariance Discovery by Learned Parameter-Sharing [153.41877129746223]
データから解釈可能な等価性を発見する方法について検討する。
具体的には、モデルのパラメータ共有方式に対する最適化問題として、この発見プロセスを定式化する。
また,ガウスデータの手法を理論的に解析し,研究された発見スキームとオラクルスキームの間の平均2乗ギャップを限定する。
論文 参考訳(メタデータ) (2022-04-07T17:59:19Z) - Nonlinear Invariant Risk Minimization: A Causal Approach [5.63479133344366]
非線形環境下での分布外一般化を可能にする学習パラダイムを提案する。
我々は、非常に単純な変換までデータ表現の識別性を示す。
合成データと実世界のデータセットの両方に関する広範な実験は、我々のアプローチが様々なベースラインメソッドを大きく上回っていることを示している。
論文 参考訳(メタデータ) (2021-02-24T15:38:41Z) - Understanding Double Descent Requires a Fine-Grained Bias-Variance
Decomposition [34.235007566913396]
ラベルに関連付けられた用語への分散の解釈可能で対称的な分解について述べる。
バイアスはネットワーク幅とともに単調に減少するが、分散項は非単調な振る舞いを示す。
我々はまた、著しく豊かな現象論も分析する。
論文 参考訳(メタデータ) (2020-11-04T21:04:02Z) - Learning Invariances in Neural Networks [51.20867785006147]
ネットワークパラメータや拡張パラメータに関して,拡張性よりも分布をパラメータ化し,トレーニング損失を同時に最適化する方法を示す。
画像分類,回帰,セグメンテーション,分子特性予測における不均一性の正確なセットと範囲を,拡張の広い空間から復元することができる。
論文 参考訳(メタデータ) (2020-10-22T17:18:48Z) - What causes the test error? Going beyond bias-variance via ANOVA [21.359033212191218]
現代の機械学習手法は、しばしば過度にパラメータ化され、細かいレベルでのデータへの適応を可能にする。
最近の研究は、なぜ過度なパラメータ化が一般化に役立つのかをより深く理解することを目的としている。
本研究では, 差分解析(ANOVA)を用いて, テスト誤差の分散を対称的に分解する手法を提案する。
論文 参考訳(メタデータ) (2020-10-11T05:21:13Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。