論文の概要: Conformal Prediction for Class-wise Coverage via Augmented Label Rank Calibration
- arxiv url: http://arxiv.org/abs/2406.06818v2
- Date: Thu, 31 Oct 2024 02:32:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-01 16:57:01.591532
- Title: Conformal Prediction for Class-wise Coverage via Augmented Label Rank Calibration
- Title(参考訳): Augmented Label Rank Calibration によるクラスワイド被覆の等角予測
- Authors: Yuanjie Shi, Subhankar Ghosh, Taha Belkhouja, Janardhan Rao Doppa, Yan Yan,
- Abstract要約: 本稿では,クラス条件カバレッジを実現するための予測セットサイズを削減するために,ランク校正型クラス条件CP(RC3P)アルゴリズムを提案する。
複数の実世界のデータセットの実験により、RC3Pは平均的な予測セットサイズを26.25%削減した。
- 参考スコア(独自算出の注目度): 30.039997048267
- License:
- Abstract: Conformal prediction (CP) is an emerging uncertainty quantification framework that allows us to construct a prediction set to cover the true label with a pre-specified marginal or conditional probability. Although the valid coverage guarantee has been extensively studied for classification problems, CP often produces large prediction sets which may not be practically useful. This issue is exacerbated for the setting of class-conditional coverage on imbalanced classification tasks with many and/or imbalanced classes. This paper proposes the Rank Calibrated Class-conditional CP (RC3P) algorithm to reduce the prediction set sizes to achieve class-conditional coverage, where the valid coverage holds for each class. In contrast to the standard class-conditional CP (CCP) method that uniformly thresholds the class-wise conformity score for each class, the augmented label rank calibration step allows RC3P to selectively iterate this class-wise thresholding subroutine only for a subset of classes whose class-wise top-k error is small. We prove that agnostic to the classifier and data distribution, RC3P achieves class-wise coverage. We also show that RC3P reduces the size of prediction sets compared to the CCP method. Comprehensive experiments on multiple real-world datasets demonstrate that RC3P achieves class-wise coverage and 26.25% reduction in prediction set sizes on average.
- Abstract(参考訳): コンフォーマル予測(CP)は新たな不確実性定量化フレームワークであり、真ラベルをカバーするための予測セットを予め特定された限界あるいは条件付き確率で構築することができる。
分類問題に対して有効なカバレッジ保証は広く研究されているが、CPは実際は役に立たない大きな予測セットを生成することが多い。
この問題は、多くの不均衡なクラスと/または不均衡なクラスからなる不均衡な分類タスクのクラス条件カバレッジの設定において、さらに悪化する。
本稿では,各クラスに対して有効なカバレッジを持つクラス条件付きカバレッジを実現するために,予測セットサイズを削減するために,ランクキャリブレーション型クラス条件付きCP(RC3P)アルゴリズムを提案する。
クラスごとのクラスワイド適合度スコアを均一に閾値付けする標準クラス条件CP(CCP)法とは対照的に、拡張ラベルランクキャリブレーションステップでは、クラスワイドトップkエラーが小さいクラスのサブルーチンに対してのみ、RC3Pがこのクラスワイド閾値サブルーチンを選択的に反復することができる。
分類器やデータ分布に依存しないRC3Pは,クラスワイドのカバレッジを実現する。
また,RC3PはCCP法と比較して予測セットのサイズを小さくすることを示した。
複数の実世界のデータセットに関する総合的な実験により、RC3Pは平均的な予測セットサイズを26.25%削減した。
関連論文リスト
- Posterior Conformal Prediction [11.576645675675096]
コンフォーマル予測は、分布のないカバレッジ保証を伴う予測区間を構築するための一般的な手法である。
本稿では,境界条件と近似条件の双方で予測間隔を生成する手法として,後続コンフォメーション予測(PCP)を提案する。
社会経済・科学・医療分野の多様なデータセットを対象としたPCPの性能評価を行った。
論文 参考訳(メタデータ) (2024-09-29T14:09:07Z) - A Conformal Prediction Score that is Robust to Label Noise [13.22445242068721]
ラベルノイズに頑健なコンフォメーションスコアを導入する。
ノイズラベル付きデータとノイズレベルを用いて、ノイズフリーコンフォメーションスコアを推定する。
提案手法は,予測セットの平均サイズにおいて,現在の手法よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2024-05-04T12:22:02Z) - On Temperature Scaling and Conformal Prediction of Deep Classifiers [9.975341265604577]
この目的のための2つの一般的なアプローチは、(1)最大値が正当性確率をより正確に推定するように分類器のソフトマックス値を変更すること、(2)整形予測(CP):真のラベルを含む候補ラベルの予測セットをユーザ特定確率で生成することである。
実際には、どちらの種類の表示も望ましいが、今のところ両者の相互作用は研究されていない。
論文 参考訳(メタデータ) (2024-02-08T16:45:12Z) - Deep Imbalanced Regression via Hierarchical Classification Adjustment [50.19438850112964]
コンピュータビジョンにおける回帰タスクは、しばしば、対象空間をクラスに定量化することで分類される。
トレーニングサンプルの大多数は目標値の先頭にあるが、少数のサンプルは通常より広い尾幅に分布する。
不均衡回帰タスクを解くために階層型分類器を構築することを提案する。
不均衡回帰のための新しい階層型分類調整(HCA)は,3つのタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2023-10-26T04:54:39Z) - PAC Prediction Sets Under Label Shift [52.30074177997787]
予測セットは、個々のラベルではなくラベルのセットを予測することによって不確実性を捉える。
ラベルシフト設定においてPAC保証付き予測セットを構築するための新しいアルゴリズムを提案する。
提案手法を5つのデータセットで評価する。
論文 参考訳(メタデータ) (2023-10-19T17:57:57Z) - Class-Conditional Conformal Prediction with Many Classes [60.8189977620604]
類似した共形スコアを持つクラスをクラスタ化するクラスタ化共形予測法を提案する。
クラスタ化されたコンフォメーションは、クラス条件カバレッジとセットサイズメトリクスの点で、既存のメソッドよりも一般的に優れています。
論文 参考訳(メタデータ) (2023-06-15T17:59:02Z) - ProTeCt: Prompt Tuning for Taxonomic Open Set Classification [59.59442518849203]
分類学的オープンセット(TOS)設定では、ほとんどショット適応法はうまくいきません。
本稿では,モデル予測の階層的一貫性を校正する即時チューニング手法を提案する。
次に,階層整合性のための新しいPrompt Tuning(ProTeCt)手法を提案し,ラベル集合の粒度を分類する。
論文 参考訳(メタデータ) (2023-06-04T02:55:25Z) - Re-Assessing the "Classify and Count" Quantification Method [88.60021378715636]
分類とカウント(CC)は、しばしば偏りのある推定器である。
以前の作業では、CCの適切に最適化されたバージョンを適切に使用できなかった。
最先端の手法に劣っているものの、ほぼ最先端の精度を実現している、と我々は主張する。
論文 参考訳(メタデータ) (2020-11-04T21:47:39Z) - Uncertainty Sets for Image Classifiers using Conformal Prediction [112.54626392838163]
本稿では,任意の分類器を修飾して真のラベルを含む予測集合を,90%などのユーザ指定確率で出力するアルゴリズムを提案する。
このアルゴリズムはPlatetスケーリングのようにシンプルで高速だが、すべてのモデルとデータセットに対して正式な有限サンプルカバレッジを保証する。
提案手法は,Plattスケーリング後の可逆クラスの小さなスコアを正規化することにより,より安定した予測セットを与えるために,既存の共形予測アルゴリズムを改良する。
論文 参考訳(メタデータ) (2020-09-29T17:58:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。