論文の概要: Powerful batch conformal prediction for classification
- arxiv url: http://arxiv.org/abs/2411.02239v2
- Date: Tue, 18 Mar 2025 17:38:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 14:11:53.942626
- Title: Powerful batch conformal prediction for classification
- Title(参考訳): 分類のための強力なバッチ共形予測
- Authors: Ulysse Gazin, Ruth Heller, Etienne Roquain, Aldo Solari,
- Abstract要約: ラベル付けされていない例のラベルに推論するために、$n$ラベル付き例の校正サンプルが観察される。
共形$p$-値の組み合わせで有効な推論を行うための一般的なレシピを提供する。
また、バッチスコアを集約し、さらに強力な方法も導入しています。
- 参考スコア(独自算出の注目度): 0.9374652839580183
- License:
- Abstract: In a split conformal framework with $K$ classes, a calibration sample of $n$ labeled examples is observed for inference on the label of a new unlabeled example. We explore the setting where a `batch' of $m$ independent such unlabeled examples is given, and the goal is to construct a batch prediction set with 1-$\alpha$ coverage. Unlike individual prediction sets, the batch prediction set is a collection of label vectors of size $m$, while the calibration sample consists of univariate labels. A natural approach is to apply the Bonferroni correction, which concatenates individual prediction sets at level $1-\alpha/m$. We propose a uniformly more powerful solution, based on specific combinations of conformal $p$-values that exploit the Simes inequality. We provide a general recipe for valid inference with any combinations of conformal $p$-values, and compare the performance of several useful choices. Intuitively, the pooled evidence of relatively `easy' examples within the batch can help provide narrower batch prediction sets. Additionally, we introduce a more computationally intensive method that aggregates batch scores and can be even more powerful. The theoretical guarantees are established when all examples are independent and identically distributed (iid), as well as more generally when iid is assumed only conditionally within each class. Notably, our results remain valid under label distribution shift, since the distribution of the labels need not be the same in the calibration sample and in the new batch. The effectiveness of the methods is highlighted through illustrative synthetic and real data examples.
- Abstract(参考訳): $K$クラスを持つ分割コンフォメーションフレームワークでは、新しいラベル付き例のラベルで推論するために、$n$ラベル付き例のキャリブレーションサンプルが観察される。
我々は、$m$の独立な'バッチ'がラベルのない例が与えられる状況について検討し、その目標は、1-$\alpha$カバレッジを持つバッチ予測セットを構築することである。
個々の予測セットとは異なり、バッチ予測セットは$m$のラベルベクトルの集まりであり、キャリブレーションサンプルは単変量ラベルで構成されている。
自然なアプローチはボンフェロニ補正(英語版)(Bonferroni correct)を適用することである。
我々はシムズ不等式を利用する共形$p$-値の特定の組み合わせに基づいて、一様に強力な解を提案する。
共形な$p$-値の組み合わせで妥当な推論を行うための一般的なレシピを提供し、いくつかの有用な選択のパフォーマンスを比較する。
直感的には、バッチ内の比較的‘easy’な例のプールされたエビデンスは、より狭いバッチ予測セットを提供するのに役立つ。
さらに、バッチスコアを集約し、さらに強力な計算集約手法を導入する。
理論的な保証は、すべての例が独立で同一に分布している(iid)ときに成立し、より一般的には、iidが各クラス内でのみ条件付きであると仮定されるときに成立する。
ラベルの分布はキャリブレーションサンプルと新しいバッチで同じでなくてもよいので, ラベル分布シフトの下でも有効である。
提案手法の有効性は, 実データ例と実データ例を用いて明らかにした。
関連論文リスト
- Sparse Activations as Conformal Predictors [19.298282860984116]
共形予測と疎ソフトマックス様変換の新たな関連性を見いだす。
本研究では, キャリブレーションプロセスが広く使用されている温度スケーリング法に対応するように, 分類のための新しい非整合性スコアを導入する。
提案手法は, 適用範囲, 効率, 適応性の観点から, 競合する結果が得られることを示す。
論文 参考訳(メタデータ) (2025-02-20T17:53:41Z) - Stochastic Online Conformal Prediction with Semi-Bandit Feedback [29.334511328067777]
実例が時間とともに現れるオンライン学習環境について検討し、その目標は予測セットを動的に構築することである。
本稿では,この設定を対象とする新しい共形予測アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-22T00:42:49Z) - On Computationally Efficient Multi-Class Calibration [9.032290717007065]
プロジェクトのキャリブレーションは、下流の意思決定者全員に強い保証を与えます。
これは、ラベルに割り当てられた確率を$T$にまとめることで予測される確率が、完全に校正されたバイナリ予測器に近いことを保証している。
論文 参考訳(メタデータ) (2024-02-12T17:25:23Z) - ELSA: Efficient Label Shift Adaptation through the Lens of
Semiparametric Models [2.73424570009809]
ラベルシフトのコンテキスト下では、ラベルの限界分布はトレーニングとテストデータセットによって異なる。
本稿では,影響関数の幾何学に基づくラベルシフト適応のためのモーメントマッチングフレームワークを提案する。
このような枠組みの下では、 underlineEfficient underlineLabel underlineShift underline Adaptation (ELSA) という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-30T15:31:44Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Bias Mimicking: A Simple Sampling Approach for Bias Mitigation [57.17709477668213]
本稿では,新しいクラス条件サンプリング手法であるBias Mimickingを紹介する。
Bias Mimickingは、4つのベンチマークで3%の精度でサンプリングの精度を向上する。
論文 参考訳(メタデータ) (2022-09-30T17:33:00Z) - Active Learning by Feature Mixing [52.16150629234465]
本稿では,ALFA-Mixと呼ばれるバッチ能動学習手法を提案する。
予測の不整合を求めることにより,不整合な特徴を持つインスタンスを同定する。
これらの予測の不整合は、モデルが未認識のインスタンスで認識できない特徴を発見するのに役立ちます。
論文 参考訳(メタデータ) (2022-03-14T12:20:54Z) - Instance-Dependent Partial Label Learning [69.49681837908511]
部分ラベル学習は、典型的には弱教師付き学習問題である。
既存のほとんどのアプローチでは、トレーニングサンプルの間違ったラベルがランダムに候補ラベルとして選択されていると仮定している。
本稿では,各例が実数で構成された潜在ラベル分布と関連していると仮定する。
論文 参考訳(メタデータ) (2021-10-25T12:50:26Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Disentangling Sampling and Labeling Bias for Learning in Large-Output
Spaces [64.23172847182109]
異なる負のサンプリングスキームが支配的ラベルと稀なラベルで暗黙的にトレードオフパフォーマンスを示す。
すべてのラベルのサブセットで作業することで生じるサンプリングバイアスと、ラベルの不均衡に起因するデータ固有のラベルバイアスの両方に明示的に対処する統一された手段を提供する。
論文 参考訳(メタデータ) (2021-05-12T15:40:13Z) - Capturing Label Distribution: A Case Study in NLI [19.869498599986006]
予測されたラベルエントロピーに一致する予測されたラベル分布のポストホックスムージングは非常に効果的です。
トレーニングに複数の参照を持つ少数の例を紹介します。
論文 参考訳(メタデータ) (2021-02-13T04:14:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。