論文の概要: Bias-Variance Decompositions for Margin Losses
- arxiv url: http://arxiv.org/abs/2204.12155v1
- Date: Tue, 26 Apr 2022 08:45:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 12:37:20.872263
- Title: Bias-Variance Decompositions for Margin Losses
- Title(参考訳): マージン損失に対するバイアス分散分解
- Authors: Danny Wood and Tingting Mu and Gavin Brown
- Abstract要約: 厳格な凸マージン損失に対して、予測されるリスクは「中央」モデルのリスクに分解されることを示す。
これらの分解は、モデルオーバーフィット/アンダーフィットを理解するための診断ツールを提供する。
- 参考スコア(独自算出の注目度): 3.574241508860471
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a novel bias-variance decomposition for a range of strictly
convex margin losses, including the logistic loss (minimized by the classic
LogitBoost algorithm), as well as the squared margin loss and canonical
boosting loss. Furthermore, we show that, for all strictly convex margin
losses, the expected risk decomposes into the risk of a "central" model and a
term quantifying variation in the functional margin with respect to variations
in the training data. These decompositions provide a diagnostic tool for
practitioners to understand model overfitting/underfitting, and have
implications for additive ensemble models -- for example, when our
bias-variance decomposition holds, there is a corresponding "ambiguity"
decomposition, which can be used to quantify model diversity.
- Abstract(参考訳): 本稿では,ロジスティック損失(古典的なLogitBoostアルゴリズムで最小化される)を含む厳密な凸マージン損失に対する新たなバイアス分散分解と,正方形マージン損失と正準昇降損失について紹介する。
さらに,すべての厳密な凸マージン損失に対して,期待されるリスクは「中央」モデルのリスクと,トレーニングデータの変化に関して機能マージンの変動を定量化する項に分解することを示した。
これらの分解は、モデルオーバーフィッティング/アンダーフィッティングを理解するための診断ツールを提供し、付加的なアンサンブルモデル(例えば、バイアス分散分解が成り立つ場合、モデルの多様性を定量化するために使用できる対応する「あいまいさ」分解がある。
関連論文リスト
- Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - Supervised Contrastive Learning with Heterogeneous Similarity for
Distribution Shifts [3.7819322027528113]
本稿では,教師付きコントラスト学習を用いた新たな正規化手法を提案する。
サブポピュレーションシフトや領域一般化などの分布シフトをエミュレートするベンチマークデータセットの実験は,提案手法の利点を実証している。
論文 参考訳(メタデータ) (2023-04-07T01:45:09Z) - General Loss Functions Lead to (Approximate) Interpolation in High
Dimensions [6.738946307589741]
閉形式における勾配降下の暗黙バイアスを概ね特徴づける統一的な枠組みを提供する。
具体的には、暗黙バイアスが高次元の最小ノルムに近似されている(正確には同値ではない)ことを示す。
また,本フレームワークは,バイナリとマルチクラス設定間で指数関数的に制限された損失に対して,既存の正確な等価性を回復する。
論文 参考訳(メタデータ) (2023-03-13T21:23:12Z) - Regularized Vector Quantization for Tokenized Image Synthesis [126.96880843754066]
画像の離散表現への量子化は、統合生成モデリングにおける根本的な問題である。
決定論的量子化は、厳しいコードブックの崩壊と推論段階の誤調整に悩まされ、一方、量子化は、コードブックの利用率の低下と再構築の目的に悩まされる。
本稿では、2つの視点から正規化を適用することにより、上記の問題を効果的に緩和できる正規化ベクトル量子化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-11T15:20:54Z) - Model-Based Uncertainty in Value Functions [89.31922008981735]
MDP上の分布によって引き起こされる値の分散を特徴付けることに重点を置いている。
従来の作業は、いわゆる不確実性ベルマン方程式を解くことで、値よりも後方の分散を境界にしている。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式を提案する。
論文 参考訳(メタデータ) (2023-02-24T09:18:27Z) - Fluctuations, Bias, Variance & Ensemble of Learners: Exact Asymptotics
for Convex Losses in High-Dimension [25.711297863946193]
我々は、異なる、しかし相関のある特徴に基づいて訓練された一般化線形モデルの集合における揺らぎの研究の理論を開発する。
一般凸損失と高次元限界における正則化のための経験的リスク最小化器の結合分布の完全な記述を提供する。
論文 参考訳(メタデータ) (2022-01-31T17:44:58Z) - Shaping Deep Feature Space towards Gaussian Mixture for Visual
Classification [74.48695037007306]
視覚分類のためのディープニューラルネットワークのためのガウス混合損失関数(GM)を提案する。
分類マージンと可能性正規化により、GM損失は高い分類性能と特徴分布の正確なモデリングの両方を促進する。
提案したモデルは、追加のトレーニング可能なパラメータを使わずに、簡単かつ効率的に実装できる。
論文 参考訳(メタデータ) (2020-11-18T03:32:27Z) - Accounting for Unobserved Confounding in Domain Generalization [107.0464488046289]
本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
論文 参考訳(メタデータ) (2020-07-21T08:18:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。