論文の概要: When is Importance Weighting Correction Needed for Covariate Shift
Adaptation?
- arxiv url: http://arxiv.org/abs/2303.04020v1
- Date: Tue, 7 Mar 2023 16:37:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-08 14:36:12.308955
- Title: When is Importance Weighting Correction Needed for Covariate Shift
Adaptation?
- Title(参考訳): 共変量シフト適応における重み付け補正はいつ必要か?
- Authors: Davit Gogolashvili, Matteo Zecchin, Motonobu Kanagawa, Marios
Kountouris, Maurizio Filippone
- Abstract要約: 本稿では,教師あり学習における重み付け(IW)補正の必要性について検討する。
古典的な結果は、モデルがパラメトリックで不特定の場合には、IW補正が必要であることを示している。
最近の結果は、モデルが非パラメトリックで適切に特定されている場合、IW補正は不要であることを示している。
- 参考スコア(独自算出の注目度): 15.622171482618805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates when the importance weighting (IW) correction is
needed to address covariate shift, a common situation in supervised learning
where the input distributions of training and test data differ. Classic results
show that the IW correction is needed when the model is parametric and
misspecified. In contrast, recent results indicate that the IW correction may
not be necessary when the model is nonparametric and well-specified. We examine
the missing case in the literature where the model is nonparametric and
misspecified, and show that the IW correction is needed for obtaining the best
approximation of the true unknown function for the test distribution. We do
this by analyzing IW-corrected kernel ridge regression, covering a variety of
settings, including parametric and nonparametric models, well-specified and
misspecified settings, and arbitrary weighting functions.
- Abstract(参考訳): 本稿では,共変量シフトに対処するために重要重み付け(iw)補正がいつ必要か,トレーニングとテストデータの入力分布が異なる教師あり学習における共通状況について検討する。
古典的な結果は、モデルがパラメトリックで不特定の場合にiw補正が必要であることを示している。
対照的に、最近の結果は、モデルが非パラメトリックで適切に特定されている場合、IW補正は不要であることを示している。
本論文では, モデルが非パラメトリックで不特定な文献の欠落事例について検討し, テスト分布に対する真の未知関数の最適近似を得るためには, IW補正が必要であることを示す。
我々は、IW補正されたカーネルリッジ回帰を分析し、パラメトリックモデルや非パラメトリックモデル、よく特定され、不特定な設定、任意の重み付け機能など、様々な設定を網羅する。
関連論文リスト
- Normalizing Flows for Conformal Regression [0.0]
Conformal Prediction (CP)アルゴリズムは、ラベル付きデータに基づいて出力を校正することで予測モデルの不確実性を推定する。
キャリブレーション過程をトレーニングすることで、間隔をローカライズする一般的なスキームを提案する。
PapadopoulosらによるError Reweighting CPアルゴリズム(2008年)とは異なり、このフレームワークは名目と経験的条件の妥当性のギャップを推定できる。
論文 参考訳(メタデータ) (2024-06-05T15:04:28Z) - Schroedinger's Threshold: When the AUC doesn't predict Accuracy [6.091702876917282]
エリアアンダーカーブ測度(AUC)は、様々なモデルを評価し比較する傾向にある。
我々は,AUCが,アプリケーションで観測される実際の精度と誤認できる,学術的で楽観的な精度の概念を導出することを示す。
論文 参考訳(メタデータ) (2024-04-04T10:18:03Z) - Importance Weighting Correction of Regularized Least-Squares for
Covariate and Target Shifts [0.0]
多くの実世界の問題では、トレーニングデータとテストデータが異なる分布を持つ。
重要重み付け(IW)補正は、データセットシフトの下で学習シナリオに存在するバイアスを修正する普遍的な方法である。
IW補正は、異なるデータセットシフトシナリオに対して等しく有効であることを示す。
論文 参考訳(メタデータ) (2022-10-18T09:39:36Z) - Parametric and Multivariate Uncertainty Calibration for Regression and
Object Detection [4.630093015127541]
一般的な検出モデルでは,観測誤差と比較して空間的不確かさが過大評価されている。
実験の結果, 簡便な等速回帰補正法は, 良好な校正不確実性を実現するのに十分であることがわかった。
対照的に、後続のプロセスに正規分布が必要な場合、GP-Normal再校正法が最良の結果をもたらす。
論文 参考訳(メタデータ) (2022-07-04T08:00:20Z) - T-Cal: An optimal test for the calibration of predictive models [49.11538724574202]
有限検証データセットを用いた予測モデルの誤校正を仮説検証問題として検討する。
誤校正の検出は、クラスの条件付き確率が予測の十分滑らかな関数である場合にのみ可能である。
我々は、$ell$-Expected Error(ECE)のデバイアスドプラグイン推定器に基づくキャリブレーションのためのミニマックステストであるT-Calを提案する。
論文 参考訳(メタデータ) (2022-03-03T16:58:54Z) - Training on Test Data with Bayesian Adaptation for Covariate Shift [96.3250517412545]
ディープニューラルネットワークは、信頼できない不確実性推定で不正確な予測を行うことが多い。
分布シフトの下でのラベルなし入力とモデルパラメータとの明確に定義された関係を提供するベイズモデルを導出する。
本手法は精度と不確実性の両方を向上することを示す。
論文 参考訳(メタデータ) (2021-09-27T01:09:08Z) - Tail-to-Tail Non-Autoregressive Sequence Prediction for Chinese
Grammatical Error Correction [49.25830718574892]
本稿では,Tail-to-Tail (textbfTtT) という新しいフレームワークを提案する。
ほとんどのトークンが正しいので、ソースからターゲットに直接転送でき、エラー位置を推定して修正することができる。
標準データセット、特に可変長データセットに関する実験結果は、文レベルの精度、精度、リコール、F1-Measureの観点からTtTの有効性を示す。
論文 参考訳(メタデータ) (2021-06-03T05:56:57Z) - Unsupervised Calibration under Covariate Shift [92.02278658443166]
ドメインシフト下でのキャリブレーションの問題を導入し、それに対処するための重要サンプリングに基づくアプローチを提案する。
実世界のデータセットと合成データセットの両方において,本手法の有効性を評価し検討した。
論文 参考訳(メタデータ) (2020-06-29T21:50:07Z) - Evaluating Prediction-Time Batch Normalization for Robustness under
Covariate Shift [81.74795324629712]
我々は予測時間バッチ正規化と呼び、共変量シフト時のモデル精度とキャリブレーションを大幅に改善する。
予測時間バッチ正規化は、既存の最先端アプローチに相補的な利点をもたらし、ロバスト性を向上させることを示します。
この手法は、事前トレーニングと併用して使用すると、さまざまな結果が得られるが、より自然なタイプのデータセットシフトでは、パフォーマンスが良くないようだ。
論文 参考訳(メタデータ) (2020-06-19T05:08:43Z) - On the Inference Calibration of Neural Machine Translation [54.48932804996506]
校正と翻訳性能と誤校正の言語特性の相関について検討した。
そこで本研究では,推論キャリブレーションと翻訳性能を両立できる新しいラベル平滑化手法を提案する。
論文 参考訳(メタデータ) (2020-05-03T02:03:56Z) - Stable Prediction with Model Misspecification and Agnostic Distribution
Shift [41.26323389341987]
機械学習アルゴリズムでは、2つの主要な仮定が性能を保証するために必要である。
1つは、トレーニングデータと同じ分布からテストデータが引き出され、もう1つは、モデルが正しく指定されていることである。
モデルのミススペクテーションの下では、トレーニングデータとテストデータの間の分布シフトは、パラメータ推定の不正確さと未知のテストデータ間の予測の不安定性をもたらす。
可変デコリレーション正規化器と重み付き回帰モデルとを協調的に最適化する新しいDecororrelated Weighting Regression (DWR)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-31T08:56:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。