論文の概要: Unsupervised Calibration under Covariate Shift
- arxiv url: http://arxiv.org/abs/2006.16405v1
- Date: Mon, 29 Jun 2020 21:50:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 14:05:34.382169
- Title: Unsupervised Calibration under Covariate Shift
- Title(参考訳): 共変量シフト下における教師なし校正
- Authors: Anusri Pampari and Stefano Ermon
- Abstract要約: ドメインシフト下でのキャリブレーションの問題を導入し、それに対処するための重要サンプリングに基づくアプローチを提案する。
実世界のデータセットと合成データセットの両方において,本手法の有効性を評価し検討した。
- 参考スコア(独自算出の注目度): 92.02278658443166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A probabilistic model is said to be calibrated if its predicted probabilities
match the corresponding empirical frequencies. Calibration is important for
uncertainty quantification and decision making in safety-critical applications.
While calibration of classifiers has been widely studied, we find that
calibration is brittle and can be easily lost under minimal covariate shifts.
Existing techniques, including domain adaptation ones, primarily focus on
prediction accuracy and do not guarantee calibration neither in theory nor in
practice. In this work, we formally introduce the problem of calibration under
domain shift, and propose an importance sampling based approach to address it.
We evaluate and discuss the efficacy of our method on both real-world datasets
and synthetic datasets.
- Abstract(参考訳): 確率モデル(probabilistic model)は、その予測確率が対応する経験周波数と一致した場合に校正されるとされる。
キャリブレーションは、安全クリティカルな応用における不確実な定量化と意思決定に重要である。
分類器の校正は広く研究されているが、校正は不安定であり、最小の共変量シフトで容易に失われる。
ドメイン適応を含む既存の技術は主に予測精度に重点を置いており、理論上も実際においても校正を保証していない。
本研究では,ドメインシフト下でのキャリブレーションの問題を正式に導入し,それに対応する重要なサンプリングベースアプローチを提案する。
本手法の有効性を実世界データセットと合成データセットの両方で評価・検討する。
関連論文リスト
- Towards Certification of Uncertainty Calibration under Adversarial Attacks [96.48317453951418]
攻撃はキャリブレーションを著しく損なう可能性を示し, 対向的摂動下でのキャリブレーションにおける最悪のキャリブレーション境界として認定キャリブレーションを提案する。
我々は,新しいキャリブレーション攻撃を提案し,テクスタディバーショナルキャリブレーショントレーニングによりモデルキャリブレーションを改善する方法を示す。
論文 参考訳(メタデータ) (2024-05-22T18:52:09Z) - Calibration by Distribution Matching: Trainable Kernel Calibration
Metrics [56.629245030893685]
カーネルベースのキャリブレーションメトリクスを導入し、分類と回帰の両方で一般的なキャリブレーションの形式を統一・一般化する。
これらの指標は、異なるサンプル推定を許容しており、キャリブレーションの目的を経験的リスク最小化に組み込むのが容易である。
決定タスクにキャリブレーションメトリクスを調整し、正確な損失推定を行ない、後悔しない決定を行うための直感的なメカニズムを提供する。
論文 参考訳(メタデータ) (2023-10-31T06:19:40Z) - Causal isotonic calibration for heterogeneous treatment effects [0.5249805590164901]
異種治療効果の予測因子を校正する新しい非パラメトリック手法である因果等方性キャリブレーションを提案する。
また、データ効率の良いキャリブレーションの変種であるクロスキャリブレーションを導入し、ホールドアウトキャリブレーションセットの必要性を排除した。
論文 参考訳(メタデータ) (2023-02-27T18:07:49Z) - On Calibrating Semantic Segmentation Models: Analyses and An Algorithm [51.85289816613351]
セマンティックセグメンテーションキャリブレーションの問題について検討する。
モデルキャパシティ、作物サイズ、マルチスケールテスト、予測精度はキャリブレーションに影響を及ぼす。
我々は、単純で統一的で効果的なアプローチ、すなわち選択的スケーリングを提案する。
論文 参考訳(メタデータ) (2022-12-22T22:05:16Z) - T-Cal: An optimal test for the calibration of predictive models [49.11538724574202]
有限検証データセットを用いた予測モデルの誤校正を仮説検証問題として検討する。
誤校正の検出は、クラスの条件付き確率が予測の十分滑らかな関数である場合にのみ可能である。
我々は、$ell$-Expected Error(ECE)のデバイアスドプラグイン推定器に基づくキャリブレーションのためのミニマックステストであるT-Calを提案する。
論文 参考訳(メタデータ) (2022-03-03T16:58:54Z) - Post-hoc Uncertainty Calibration for Domain Drift Scenarios [46.88826364244423]
既存のポストホックキャリブレーション手法は、ドメインシフト下での過信予測を高い精度で得ることを示した。
ポストホックキャリブレーションステップを実行する前に、検証セットのサンプルに摂動を適用する簡単な戦略を紹介します。
論文 参考訳(メタデータ) (2020-12-20T18:21:13Z) - Improving model calibration with accuracy versus uncertainty
optimization [17.056768055368384]
適切に校正されたモデルは、その予測が確実であるときに正確であり、不正確な場合に高い不確実性を示すべきである。
精度と不確実性の関係を不確実性校正のアンカーとして活用する最適化手法を提案する。
平均場変動推定によるアプローチの実証と最先端手法との比較を行った。
論文 参考訳(メタデータ) (2020-12-14T20:19:21Z) - Transferable Calibration with Lower Bias and Variance in Domain
Adaptation [139.4332115349543]
ドメイン適応(DA)は、ラベル付きソースドメインからラベル付きターゲットドメインへの学習マシンの転送を可能にする。
DAモデルの予測的不確実性を推定する方法は、安全クリティカルなシナリオにおける意思決定に不可欠である。
TransCalは既存のDAメソッドの校正に簡単に適用できる。
論文 参考訳(メタデータ) (2020-07-16T11:09:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。