論文の概要: Few-Shot Calibration of Set Predictors via Meta-Learned
Cross-Validation-Based Conformal Prediction
- arxiv url: http://arxiv.org/abs/2210.03067v1
- Date: Thu, 6 Oct 2022 17:21:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 15:58:55.430114
- Title: Few-Shot Calibration of Set Predictors via Meta-Learned
Cross-Validation-Based Conformal Prediction
- Title(参考訳): メタラーニング型クロスバリデーションに基づくコンフォーマル予測による集合予測子のFew-Shot校正
- Authors: Sangwoo Park, Kfir M. Cohen, Osvaldo Simeone
- Abstract要約: 本稿では,設定した予測サイズを減らすことを目的としたメタ学習ソリューションを提案する。
より効率的なバリデーションベースのCPではなく、クロスバリデーションベースのCP上に構築されている。
これは、厳格なタスク・マージナル保証を減らすのではなく、正式なタスク毎のキャリブレーション保証を保持する。
- 参考スコア(独自算出の注目度): 33.33774397643919
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional frequentist learning is known to yield poorly calibrated models
that fail to reliably quantify the uncertainty of their decisions. Bayesian
learning can improve calibration, but formal guarantees apply only under
restrictive assumptions about correct model specification. Conformal prediction
(CP) offers a general framework for the design of set predictors with
calibration guarantees that hold regardless of the underlying data generation
mechanism. However, when training data are limited, CP tends to produce large,
and hence uninformative, predicted sets. This paper introduces a novel
meta-learning solution that aims at reducing the set prediction size. Unlike
prior work, the proposed meta-learning scheme, referred to as meta-XB, (i)
builds on cross-validation-based CP, rather than the less efficient
validation-based CP; and (ii) preserves formal per-task calibration guarantees,
rather than less stringent task-marginal guarantees. Finally, meta-XB is
extended to adaptive non-conformal scores, which are shown empirically to
further enhance marginal per-input calibration.
- Abstract(参考訳): 従来の頻繁な学習は、不確かさを確実に定量化できない不適切な校正されたモデルを生み出すことが知られている。
ベイズ学習は校正を改善することができるが、正式な保証は正しいモデル仕様に関する限定的な仮定の下でのみ適用される。
コンフォーマル予測(CP)は、基礎となるデータ生成メカニズムにかかわらず保持されるキャリブレーション保証を備えたセット予測器の設計のための一般的なフレームワークを提供する。
しかし、訓練データに制限がある場合、CPは巨大で非形式的な予測セットを生成する傾向にある。
本稿では,集合予測を小さくすることを目的とした新しいメタラーニングソリューションを提案する。
先行研究とは異なり、提案されたメタラーニングスキームはmeta-xbと呼ばれる。
(i)より効率の低い検証ベースのCPではなく、クロスバリデーションベースのCP上に構築する。
(ii) 厳密なタスクマージの保証よりも、正式なタスク毎のキャリブレーションの保証を保持する。
最後に、メタXBは適応的な非コンフォーマルスコアに拡張され、これは経験的に示され、入力当たりの限界校正をさらに強化する。
関連論文リスト
- Provably Reliable Conformal Prediction Sets in the Presence of Data Poisoning [53.42244686183879]
コンフォーマル予測は、モデルに依存しない、分布のない不確実性定量化を提供する。
しかし、敵が訓練データと校正データを操作した場合の毒殺攻撃では、共形予測は信頼性が低い。
信頼性予測セット (RPS): 汚染下での信頼性保証を証明可能な共形予測セットを構築するための最初の効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-13T15:37:11Z) - Online scalable Gaussian processes with conformal prediction for guaranteed coverage [32.21093722162573]
結果として生じる不確実な値の整合性は、学習関数がGPモデルで指定された特性に従うという前提に基づいている。
提案するGPは,分散のない後処理フレームワークである共形予測(CP)を用いて,有意なカバレッジで予測セットを生成する。
論文 参考訳(メタデータ) (2024-10-07T19:22:15Z) - Normalizing Flows for Conformal Regression [0.0]
Conformal Prediction (CP)アルゴリズムは、ラベル付きデータに基づいて出力を校正することで予測モデルの不確実性を推定する。
キャリブレーション過程をトレーニングすることで、間隔をローカライズする一般的なスキームを提案する。
PapadopoulosらによるError Reweighting CPアルゴリズム(2008年)とは異なり、このフレームワークは名目と経験的条件の妥当性のギャップを推定できる。
論文 参考訳(メタデータ) (2024-06-05T15:04:28Z) - Adapting Conformal Prediction to Distribution Shifts Without Labels [16.478151550456804]
コンフォーマル予測(CP)により、機械学習モデルは、保証されたカバレッジ率で予測セットを出力できる。
我々の目標は、テストドメインからのラベルなしデータのみを使用して、CP生成予測セットの品質を改善することです。
これは、未ラベルテストデータに対するベースモデルの不確実性に応じてCPのスコア関数を調整する、ECP と EACP と呼ばれる2つの新しい手法によって達成される。
論文 参考訳(メタデータ) (2024-06-03T15:16:02Z) - Calibration by Distribution Matching: Trainable Kernel Calibration
Metrics [56.629245030893685]
カーネルベースのキャリブレーションメトリクスを導入し、分類と回帰の両方で一般的なキャリブレーションの形式を統一・一般化する。
これらの指標は、異なるサンプル推定を許容しており、キャリブレーションの目的を経験的リスク最小化に組み込むのが容易である。
決定タスクにキャリブレーションメトリクスを調整し、正確な損失推定を行ない、後悔しない決定を行うための直感的なメカニズムを提供する。
論文 参考訳(メタデータ) (2023-10-31T06:19:40Z) - Calibration-Aware Bayesian Learning [37.82259435084825]
本稿では、キャリブレーション対応ベイズニューラルネットワーク(CA-BNN)と呼ばれる統合フレームワークを提案する。
ベイズ学習のように変分分布を最適化しながら、データ依存あるいはデータ非依存の正則化をそれぞれ適用する。
予測キャリブレーション誤差(ECE)と信頼性図を用いて,提案手法の利点を検証した。
論文 参考訳(メタデータ) (2023-05-12T14:19:15Z) - Sharp Calibrated Gaussian Processes [58.94710279601622]
キャリブレーションされたモデルを設計するための最先端のアプローチは、ガウス過程の後方分散を膨らませることに依存している。
本稿では,バニラガウス過程の後方分散にインスパイアされた計算を用いて,予測量子化を生成するキャリブレーション手法を提案する。
我々のアプローチは合理的な仮定の下で校正されたモデルが得られることを示す。
論文 参考訳(メタデータ) (2023-02-23T12:17:36Z) - Modular Conformal Calibration [80.33410096908872]
回帰における再校正のためのアルゴリズムを多種多様なクラスで導入する。
このフレームワークは、任意の回帰モデルをキャリブレーションされた確率モデルに変換することを可能にする。
我々は17の回帰データセットに対するMCCの実証的研究を行った。
論文 参考訳(メタデータ) (2022-06-23T03:25:23Z) - T-Cal: An optimal test for the calibration of predictive models [49.11538724574202]
有限検証データセットを用いた予測モデルの誤校正を仮説検証問題として検討する。
誤校正の検出は、クラスの条件付き確率が予測の十分滑らかな関数である場合にのみ可能である。
我々は、$ell$-Expected Error(ECE)のデバイアスドプラグイン推定器に基づくキャリブレーションのためのミニマックステストであるT-Calを提案する。
論文 参考訳(メタデータ) (2022-03-03T16:58:54Z) - Learning Optimal Conformal Classifiers [32.68483191509137]
コンフォーマル予測(CP)は、真のクラスを含む信頼セットをユーザが特定した確率で予測するために用いられる。
本稿では, CP を用いた学習において, コンフォーマルラッパーをエンド・ツー・エンドとしたトレーニングモデルを用いて, CP による差別化戦略について検討する。
コンフォメーショントレーニング(ConfTr)は、平均信頼度セットのサイズを小さくすることで、最先端のCP手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-18T11:25:33Z) - Unsupervised Calibration under Covariate Shift [92.02278658443166]
ドメインシフト下でのキャリブレーションの問題を導入し、それに対処するための重要サンプリングに基づくアプローチを提案する。
実世界のデータセットと合成データセットの両方において,本手法の有効性を評価し検討した。
論文 参考訳(メタデータ) (2020-06-29T21:50:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。