論文の概要: Powerful batch conformal prediction for classification
- arxiv url: http://arxiv.org/abs/2411.02239v1
- Date: Mon, 04 Nov 2024 16:32:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:38:19.473597
- Title: Powerful batch conformal prediction for classification
- Title(参考訳): 分類のための強力なバッチ共形予測
- Authors: Ulysse Gazin, Ruth Heller, Etienne Roquain, Aldo Solari,
- Abstract要約: この研究では、$m$の独立なラベルなし例の"バッチ"が与えられる場合について検討する。
我々は、共形$p$-値の特定の組み合わせに基づいて、より強力な解を提案する。
理論上の保証はすべての例が iid であるときに提供され、より一般的には iid が各クラス内でのみ条件付きであると仮定されるときに提供される。
- 参考スコア(独自算出の注目度): 0.9374652839580183
- License:
- Abstract: In a supervised classification split conformal/inductive framework with $K$ classes, a calibration sample of $n$ labeled examples is observed for inference on the label of a new unlabeled example. In this work, we explore the case where a "batch" of $m$ independent such unlabeled examples is given, and a multivariate prediction set with $1-\alpha$ coverage should be provided for this batch. Hence, the batch prediction set takes the form of a collection of label vectors of size $m$, while the calibration sample only contains univariate labels. Using the Bonferroni correction consists in concatenating the individual prediction sets at level $1-\alpha/m$ (Vovk 2013). We propose a uniformly more powerful solution, based on specific combinations of conformal $p$-values that exploit the Simes inequality (Simes 1986). Intuitively, the pooled evidence of fairly "easy" examples of the batch can help provide narrower batch prediction sets. We also introduced adaptive versions of the novel procedure that are particularly effective when the batch prediction set is expected to be large. The theoretical guarantees are provided when all examples are iid, as well as more generally when iid is assumed only conditionally within each class. In particular, our results are also valid under a label distribution shift since the distribution of the labels need not be the same in the calibration sample and in the new `batch'. The usefulness of the method is illustrated on synthetic and real data examples.
- Abstract(参考訳): 教師付き分類分割共形/帰納的フレームワークの$K$クラスでは、新しいラベル付き例のラベル付き例を推論するために$n$ラベル付き例の校正サンプルが観察される。
本研究では、そのようなラベルのない例に$m$の独立なバッチが与えられる場合について検討し、このバッチに対して1-\alpha$カバレッジを持つ多変量予測セットを提供する。
したがって、バッチ予測セットはサイズ$m$のラベルベクトルの集まりの形式を取るが、キャリブレーションサンプルは単変量ラベルのみを含む。
ボンフェロニ補正を用いると、個々の予測セットをレベル1-\alpha/m$ (Vovk 2013) で連結する。
我々はシムズ不等式を利用する共形$p$-値の特定の組み合わせに基づいて、一様に強力な解を提案する(Simes 1986)。
直感的には、バッチのかなり"簡単"な例のプールされた証拠は、より狭いバッチ予測セットを提供するのに役立つ。
また,バッチ予測セットが大きくなると特に有効となる新しい手順の適応版も導入した。
理論上の保証はすべての例が iid であるときに提供され、より一般的には iid が各クラス内でのみ条件付きであると仮定されるときに提供される。
特に, ラベルの分布はキャリブレーションサンプルや新しい'バッチ'では同じでなくてもよいため, ラベル分布シフトの下でも有効である。
本手法の有用性は, 合成および実データ例で示される。
関連論文リスト
- Stochastic Online Conformal Prediction with Semi-Bandit Feedback [29.334511328067777]
実例が時間とともに現れるオンライン学習環境について検討し、その目標は予測セットを動的に構築することである。
本稿では,この設定を対象とする新しい共形予測アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-22T00:42:49Z) - On Computationally Efficient Multi-Class Calibration [9.032290717007065]
プロジェクトのキャリブレーションは、下流の意思決定者全員に強い保証を与えます。
これは、ラベルに割り当てられた確率を$T$にまとめることで予測される確率が、完全に校正されたバイナリ予測器に近いことを保証している。
論文 参考訳(メタデータ) (2024-02-12T17:25:23Z) - ELSA: Efficient Label Shift Adaptation through the Lens of
Semiparametric Models [2.73424570009809]
ラベルシフトのコンテキスト下では、ラベルの限界分布はトレーニングとテストデータセットによって異なる。
本稿では,影響関数の幾何学に基づくラベルシフト適応のためのモーメントマッチングフレームワークを提案する。
このような枠組みの下では、 underlineEfficient underlineLabel underlineShift underline Adaptation (ELSA) という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-30T15:31:44Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Bias Mimicking: A Simple Sampling Approach for Bias Mitigation [57.17709477668213]
本稿では,新しいクラス条件サンプリング手法であるBias Mimickingを紹介する。
Bias Mimickingは、4つのベンチマークで3%の精度でサンプリングの精度を向上する。
論文 参考訳(メタデータ) (2022-09-30T17:33:00Z) - Active Learning by Feature Mixing [52.16150629234465]
本稿では,ALFA-Mixと呼ばれるバッチ能動学習手法を提案する。
予測の不整合を求めることにより,不整合な特徴を持つインスタンスを同定する。
これらの予測の不整合は、モデルが未認識のインスタンスで認識できない特徴を発見するのに役立ちます。
論文 参考訳(メタデータ) (2022-03-14T12:20:54Z) - AggMatch: Aggregating Pseudo Labels for Semi-Supervised Learning [25.27527138880104]
半教師付き学習は、大量のラベルのないデータを活用するための効果的なパラダイムであることが証明されている。
AggMatchは、異なる自信のあるインスタンスを使用して初期擬似ラベルを洗練する。
我々は,AggMatchの標準ベンチマークにおける最新の手法に対する有効性を示す実験を行った。
論文 参考訳(メタデータ) (2022-01-25T16:41:54Z) - Instance-Dependent Partial Label Learning [69.49681837908511]
部分ラベル学習は、典型的には弱教師付き学習問題である。
既存のほとんどのアプローチでは、トレーニングサンプルの間違ったラベルがランダムに候補ラベルとして選択されていると仮定している。
本稿では,各例が実数で構成された潜在ラベル分布と関連していると仮定する。
論文 参考訳(メタデータ) (2021-10-25T12:50:26Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Disentangling Sampling and Labeling Bias for Learning in Large-Output
Spaces [64.23172847182109]
異なる負のサンプリングスキームが支配的ラベルと稀なラベルで暗黙的にトレードオフパフォーマンスを示す。
すべてのラベルのサブセットで作業することで生じるサンプリングバイアスと、ラベルの不均衡に起因するデータ固有のラベルバイアスの両方に明示的に対処する統一された手段を提供する。
論文 参考訳(メタデータ) (2021-05-12T15:40:13Z) - Capturing Label Distribution: A Case Study in NLI [19.869498599986006]
予測されたラベルエントロピーに一致する予測されたラベル分布のポストホックスムージングは非常に効果的です。
トレーニングに複数の参照を持つ少数の例を紹介します。
論文 参考訳(メタデータ) (2021-02-13T04:14:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。