論文の概要: Distribution-free uncertainty quantification for classification under
label shift
- arxiv url: http://arxiv.org/abs/2103.03323v1
- Date: Thu, 4 Mar 2021 20:51:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-08 15:01:41.345269
- Title: Distribution-free uncertainty quantification for classification under
label shift
- Title(参考訳): ラベルシフトによる分類の分布自由不確実性定量化
- Authors: Aleksandr Podkopaev, Aaditya Ramdas
- Abstract要約: 2つの経路による分類問題に対する不確実性定量化(UQ)に焦点を当てる。
まず、ラベルシフトはカバレッジとキャリブレーションの低下を示すことでuqを損なうと論じる。
これらの手法を, 理論上, 分散性のない枠組みで検討し, その優れた実用性を示す。
- 参考スコア(独自算出の注目度): 105.27463615756733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trustworthy deployment of ML models requires a proper measure of uncertainty,
especially in safety-critical applications. We focus on uncertainty
quantification (UQ) for classification problems via two avenues -- prediction
sets using conformal prediction and calibration of probabilistic predictors by
post-hoc binning -- since these possess distribution-free guarantees for i.i.d.
data. Two common ways of generalizing beyond the i.i.d. setting include
handling covariate and label shift. Within the context of distribution-free UQ,
the former has already received attention, but not the latter. It is known that
label shift hurts prediction, and we first argue that it also hurts UQ, by
showing degradation in coverage and calibration. Piggybacking on recent
progress in addressing label shift (for better prediction), we examine the
right way to achieve UQ by reweighting the aforementioned conformal and
calibration procedures whenever some unlabeled data from the target
distribution is available. We examine these techniques theoretically in a
distribution-free framework and demonstrate their excellent practical
performance.
- Abstract(参考訳): MLモデルの信頼できる展開には、特に安全クリティカルなアプリケーションにおいて、不確実性の適切な測定が必要です。
我々は,2つの経路による分類問題に対する不確実性定量化 (uq) に焦点をあて, 共形予測を用いた予測セットとポストホックバイナリ化による確率的予測器のキャリブレーションを行う。
データだ
i.i.d.を超えて一般化する2つの一般的な方法
設定には共変量とラベルシフトの扱いが含まれる。
流通のないUQの文脈では、前者は既に注目を集めていますが、後者ではありません。
ラベルシフトは予測を損なうことが知られており、最初に、カバレッジとキャリブレーションの劣化を示すことでuqも損なうと論じる。
ラベルシフトへの対応(より良い予測のために)の最近の進歩を裏付けて、ターゲット分布からのラベルされていないデータが利用可能であるたびに、上記の適合および校正手順を重み付けすることにより、UQを達成する正しい方法を検討します。
これらの手法を, 理論上, 分散性のない枠組みで検討し, その優れた実用性を示す。
関連論文リスト
- Sparse Activations as Conformal Predictors [19.298282860984116]
共形予測と疎ソフトマックス様変換の新たな関連性を見いだす。
本研究では, キャリブレーションプロセスが広く使用されている温度スケーリング法に対応するように, 分類のための新しい非整合性スコアを導入する。
提案手法は, 適用範囲, 効率, 適応性の観点から, 競合する結果が得られることを示す。
論文 参考訳(メタデータ) (2025-02-20T17:53:41Z) - Conformal Prediction Sets with Improved Conditional Coverage using Trust Scores [52.92618442300405]
有限サンプルにおいて、正確に分布のない条件付きカバレッジを達成することは不可能である。
本稿では,最も重要となる範囲を対象とするコンフォメーション予測アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-01-17T12:01:56Z) - Provable Uncertainty Decomposition via Higher-Order Calibration [4.969075533165688]
本稿では,モデルの予測的不確かさをアレタリック成分とてんかん成分に分解する原理的手法を提案する。
我々の手法は、高次校正という新しい概念に基づいている。
本手法が画像分類において意味のある不確実性分解を生じさせることを示す。
論文 参考訳(メタデータ) (2024-12-25T07:26:36Z) - Provably Reliable Conformal Prediction Sets in the Presence of Data Poisoning [53.42244686183879]
コンフォーマル予測は、モデルに依存しない、分布のない不確実性定量化を提供する。
しかし、敵が訓練データと校正データを操作した場合の毒殺攻撃では、共形予測は信頼性が低い。
信頼性予測セット (RPS): 汚染下での信頼性保証を証明可能な共形予測セットを構築するための最初の効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-13T15:37:11Z) - Online scalable Gaussian processes with conformal prediction for guaranteed coverage [32.21093722162573]
結果として生じる不確実な値の整合性は、学習関数がGPモデルで指定された特性に従うという前提に基づいている。
提案するGPは,分散のない後処理フレームワークである共形予測(CP)を用いて,有意なカバレッジで予測セットを生成する。
論文 参考訳(メタデータ) (2024-10-07T19:22:15Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Generating Unbiased Pseudo-labels via a Theoretically Guaranteed
Chebyshev Constraint to Unify Semi-supervised Classification and Regression [57.17120203327993]
分類におけるしきい値と擬似ラベルプロセス(T2L)は、ラベルの品質を決定するために信頼性を使用する。
本質的には、レグレッションは高品質なラベルを生成するためにバイアスのない方法も必要である。
チェビシェフの不等式に基づく不偏ラベルを生成するための理論的に保証された制約を提案する。
論文 参考訳(メタデータ) (2023-11-03T08:39:35Z) - Test-time Recalibration of Conformal Predictors Under Distribution Shift
Based on Unlabeled Examples [30.61588337557343]
コンフォーマル予測器は、ユーザが特定した確率で一連のクラスを計算することで不確実性の推定を提供する。
本研究では,自然分布シフト下での優れた不確実性推定を行う手法を提案する。
論文 参考訳(メタデータ) (2022-10-09T04:46:00Z) - Approximate Conditional Coverage via Neural Model Approximations [0.030458514384586396]
実験的に信頼性の高い近似条件付きカバレッジを得るためのデータ駆動手法を解析する。
我々は、限界範囲のカバレッジ保証を持つ分割型代替案で、実質的な(そして、そうでない)アンダーカバーの可能性を実証する。
論文 参考訳(メタデータ) (2022-05-28T02:59:05Z) - Distribution-free binary classification: prediction sets, confidence
intervals and calibration [106.50279469344937]
分布自由条件における二項分類のための不確実性定量化(キャリブレーション、信頼区間、予測セット)の3つの概念について検討する。
固定幅と一様質量の両双対の双対確率に対する信頼区間を導出する。
我々の「三脚」定理の結果として、双有理確率に対するこれらの信頼区間は分布自由キャリブレーションに繋がる。
論文 参考訳(メタデータ) (2020-06-18T14:17:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。