論文の概要: The Implicit Bias of Benign Overfitting
- arxiv url: http://arxiv.org/abs/2201.11489v1
- Date: Thu, 27 Jan 2022 12:49:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-28 14:05:06.258128
- Title: The Implicit Bias of Benign Overfitting
- Title(参考訳): 良性オーバーフィッティングの必然的バイアス
- Authors: Ohad Shamir
- Abstract要約: 我々は,ある学習問題におけるその存在が,他の学習問題における存在を除外するという意味で,ある種の問題に対して,良性の過剰適合が「バイアス」されていることを示す。
そして、分類問題に目を向け、状況がずっと有利であることを示す。
これにより、分類における良性過剰適合の問題を、この損失が予測誤差のよい代役であるかどうかというより単純な問題に減らし、新しい設定で良性過剰適合を示すために使用することができる。
- 参考スコア(独自算出の注目度): 31.714928102950584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The phenomenon of benign overfitting, where a predictor perfectly fits noisy
training data while attaining low expected loss, has received much attention in
recent years, but still remains not fully understood beyond simple linear
regression setups. In this paper, we show that for regression, benign
overfitting is "biased" towards certain types of problems, in the sense that
its existence on one learning problem excludes its existence on other learning
problems. On the negative side, we use this to argue that one should not expect
benign overfitting to occur in general, for several natural extensions of the
plain linear regression problems studied so far. We then turn to classification
problems, and show that the situation there is much more favorable.
Specifically, we consider a model where an arbitrary input distribution of some
fixed dimension $k$ is concatenated with a high-dimensional distribution, and
prove that the max-margin predictor (to which gradient-based methods are known
to converge in direction) is asymptotically biased towards minimizing the
expected *squared hinge loss* w.r.t. the $k$-dimensional distribution. This
allows us to reduce the question of benign overfitting in classification to the
simpler question of whether this loss is a good surrogate for the prediction
error, and use it to show benign overfitting in some new settings.
- Abstract(参考訳): 予測器がノイズの多いトレーニングデータに完全に適合し、期待損失が低いという良性過剰化現象は近年注目されているが、単純な線形回帰のセットアップ以外には未だ完全には理解されていない。
本稿では,回帰においては,ある学習問題の存在が他の学習問題の存在を除外するという意味で,ある種の問題に対して良性過剰フィッティングが「偏り」であることを示す。
負の面では、これまで研究されてきた平面線形回帰問題に対するいくつかの自然な拡張に対して、ベニグオーバーフィッティングが一般的に起こることを期待してはならない。
次に分類問題に目を向け、状況がより有利であることを示します。
具体的には、ある固定次元$k$の任意の入力分布が高次元分布と連結されたモデルを考え、最大マージン予測器(勾配に基づく方法が方向収束することが知られている)が期待される*2乗ヒンジ損失を最小化するために漸近的にバイアスを受けていることを証明する。
これにより、分類における良性過剰適合の問題を、この損失が予測誤差のよい代役であるかどうかというより単純な問題に減らし、新しい設定で良性過剰適合を示すために使用することができる。
関連論文リスト
- Regularized Linear Regression for Binary Classification [20.710343135282116]
正規化線形回帰は、トレーニングセットがノイズラベルを持つ二項分類問題に対して有望なアプローチである。
十分な正則化強度に対して、最適重みは反対符号の2つの値の周りに集中していることを示す。
多くの場合、各重みの1ビットに対する「圧縮」が性能の損失を極めて少なくする。
論文 参考訳(メタデータ) (2023-11-03T23:18:21Z) - Uncertainty Voting Ensemble for Imbalanced Deep Regression [20.176217123752465]
本稿では,不均衡なデータから学習するUVOTEを紹介する。
従来の回帰損失を負の対数類似度に置き換え、サンプルワイドのアレタリックな不確実性も予測する。
UVOTEは先行技術より一貫して優れており、同時に精度のよい不確実性評価が得られている。
論文 参考訳(メタデータ) (2023-05-24T14:12:21Z) - Benign-Overfitting in Conditional Average Treatment Effect Prediction
with Linear Regression [14.493176427999028]
線形回帰モデルを用いて条件平均処理効果(CATE)の予測における良性過剰適合理論について検討した。
一方,IPW-learnerは確率スコアが分かっていればリスクをゼロに収束させるが,T-learnerはランダムな割り当て以外の一貫性を達成できないことを示す。
論文 参考訳(メタデータ) (2022-02-10T18:51:52Z) - Benign Overfitting in Adversarially Robust Linear Classification [91.42259226639837]
分類器がノイズの多いトレーニングデータを記憶しながらも、優れた一般化性能を達成している「双曲オーバーフィッティング」は、機械学習コミュニティにおいて大きな注目を集めている。
本研究は, 対人訓練において, 対人訓練において, 良心過剰が実際に発生することを示し, 対人訓練に対する防御の原則的アプローチを示す。
論文 参考訳(メタデータ) (2021-12-31T00:27:31Z) - Interpolation can hurt robust generalization even when there is no noise [76.3492338989419]
リッジの正規化による一般化の回避は,ノイズがなくても大幅に一般化できることを示す。
この現象は線形回帰と分類の両方のロバストなリスクを証明し、したがってロバストなオーバーフィッティングに関する最初の理論的結果を与える。
論文 参考訳(メタデータ) (2021-08-05T23:04:15Z) - Near-optimal inference in adaptive linear regression [60.08422051718195]
最小二乗法のような単純な方法でさえ、データが適応的に収集されるときの非正規な振る舞いを示すことができる。
我々は,これらの分布異常を少なくとも2乗推定で補正するオンラインデバイアス推定器のファミリーを提案する。
我々は,マルチアームバンディット,自己回帰時系列推定,探索による能動的学習などの応用を通して,我々の理論の有用性を実証する。
論文 参考訳(メタデータ) (2021-07-05T21:05:11Z) - Risk Bounds for Over-parameterized Maximum Margin Classification on
Sub-Gaussian Mixtures [100.55816326422773]
線形分類問題に対する最大マージン分類器の現象について検討する。
その結果、良性的なオーバーフィットが起きる条件を正確に特徴づけます。
論文 参考訳(メタデータ) (2021-04-28T08:25:16Z) - Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression [91.3373131262391]
不確かさが唯一の確実性である。
伝統的に、直接回帰定式化を考慮し、ある確率分布の族に出力空間を変更することによって不確実性をモデル化する。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
論文 参考訳(メタデータ) (2021-03-25T06:56:09Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Online and Distribution-Free Robustness: Regression and Contextual
Bandits with Huber Contamination [29.85468294601847]
線形回帰と文脈的帯域幅という2つの古典的高次元オンライン学習問題を再考する。
従来の手法が失敗した場合にアルゴリズムが成功することを示す。
論文 参考訳(メタデータ) (2020-10-08T17:59:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。