論文の概要: Conformalized Credal Regions for Classification with Ambiguous Ground Truth
- arxiv url: http://arxiv.org/abs/2411.04852v1
- Date: Thu, 07 Nov 2024 16:39:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-08 19:40:06.826627
- Title: Conformalized Credal Regions for Classification with Ambiguous Ground Truth
- Title(参考訳): 異質地盤の分類のための等角化クレダル地域
- Authors: Michele Caprio, David Stutz, Shuo Li, Arnaud Doucet,
- Abstract要約: 分類問題において、クレダル領域は現実的な仮定の下で証明可能な保証を提供することができるツールである。
そこで本研究では, コンフォメーション法により, 干潟域を直接構築できることを示す。
合成データと実データの両方について実験により検証した。
- 参考スコア(独自算出の注目度): 37.03352666927449
- License:
- Abstract: An open question in \emph{Imprecise Probabilistic Machine Learning} is how to empirically derive a credal region (i.e., a closed and convex family of probabilities on the output space) from the available data, without any prior knowledge or assumption. In classification problems, credal regions are a tool that is able to provide provable guarantees under realistic assumptions by characterizing the uncertainty about the distribution of the labels. Building on previous work, we show that credal regions can be directly constructed using conformal methods. This allows us to provide a novel extension of classical conformal prediction to problems with ambiguous ground truth, that is, when the exact labels for given inputs are not exactly known. The resulting construction enjoys desirable practical and theoretical properties: (i) conformal coverage guarantees, (ii) smaller prediction sets (compared to classical conformal prediction regions) and (iii) disentanglement of uncertainty sources (epistemic, aleatoric). We empirically verify our findings on both synthetic and real datasets.
- Abstract(参考訳): emph{Imprecise Probabilistic Machine Learning} におけるオープンな疑問は、事前の知識や仮定なしに、利用可能なデータからクレダル領域(すなわち、出力空間上のクローズドで凸な確率族)を実験的に導出する方法である。
分類問題において、クレダル領域は、ラベルの分布の不確かさを特徴付けることにより、現実的な仮定の下で証明可能な保証を提供することができるツールである。
本研究は, 過去の研究に基づいて, コンフォメーション法を用いて, 直接干潟域を構築することができることを示す。
これにより、与えられた入力の正確なラベルが正確には分かっていないような、曖昧な基底真理を持つ問題に対する古典的共形予測の新たな拡張を提供することができる。
得られた構造は、望ましい実用的および理論的特性を享受する。
(i)適合範囲保証
(二)より小さい予測集合(古典的共形予測領域と比較して)、及び
三 不確実性源のゆがみ(緊急性、失効性)
合成データと実データの両方について実験により検証した。
関連論文リスト
- Provably Reliable Conformal Prediction Sets in the Presence of Data Poisoning [53.42244686183879]
コンフォーマル予測は、モデルに依存しない、分布のない不確実性定量化を提供する。
しかし、敵が訓練データと校正データを操作した場合の毒殺攻撃では、共形予測は信頼性が低い。
信頼性予測セット (RPS): 汚染下での信頼性保証を証明可能な共形予測セットを構築するための最初の効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-13T15:37:11Z) - Probabilistic Conformal Prediction with Approximate Conditional Validity [81.30551968980143]
本研究では,共形手法の柔軟性と条件分布の推定を組み合わせ,予測セットを生成する手法を開発した。
我々の手法は、条件付きカバレッジの観点から既存の手法よりも一貫して優れています。
論文 参考訳(メタデータ) (2024-07-01T20:44:48Z) - Robust Conformal Prediction Using Privileged Information [17.886554223172517]
本研究では,トレーニングデータの破損に対して堅牢な,保証されたカバレッジ率で予測セットを生成する手法を開発した。
我々のアプローチは、i.d仮定の下で有効となる予測セットを構築するための強力なフレームワークである共形予測に基づいている。
論文 参考訳(メタデータ) (2024-06-08T08:56:47Z) - Conformalized Credal Set Predictors [12.549746646074071]
クレダル集合(英: Credal set)は、不正確な基底-真実分布の候補と見なされる確率分布の集合である。
我々は,干潟集合予測器の学習に共形予測を利用する。
提案手法の自然言語推論への適用性を実証する。
論文 参考訳(メタデータ) (2024-02-16T14:30:12Z) - Calibrating Neural Simulation-Based Inference with Differentiable
Coverage Probability [50.44439018155837]
ニューラルモデルのトレーニング目的に直接キャリブレーション項を含めることを提案する。
古典的なキャリブレーション誤差の定式化を緩和することにより、エンドツーエンドのバックプロパゲーションを可能にする。
既存の計算パイプラインに直接適用でき、信頼性の高いブラックボックス後部推論が可能である。
論文 参考訳(メタデータ) (2023-10-20T10:20:45Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z) - When Does Confidence-Based Cascade Deferral Suffice? [69.28314307469381]
カスケードは、推論コストをサンプル毎に適応的に変化させる古典的な戦略である。
deferralルールは、シーケンス内の次の分類子を呼び出すか、または予測を終了するかを決定する。
カスケードの構造に執着しているにもかかわらず、信頼に基づく推論は実際は極めてうまく機能することが多い。
論文 参考訳(メタデータ) (2023-07-06T04:13:57Z) - Confident Sinkhorn Allocation for Pseudo-Labeling [40.883130133661304]
半教師付き学習は、ラベル付きデータへの機械学習の依存を減らす重要なツールである。
本稿では,疑似ラベル作成における不確実性の役割を理論的に研究し,CSA(Confident Sinkhorn Allocation)を提案する。
CSAは、信頼度の高いサンプルのみへの最適な輸送を通して、最高の擬似ラベル割り当てを特定する。
論文 参考訳(メタデータ) (2022-06-13T02:16:26Z) - Approximate Conditional Coverage via Neural Model Approximations [0.030458514384586396]
実験的に信頼性の高い近似条件付きカバレッジを得るためのデータ駆動手法を解析する。
我々は、限界範囲のカバレッジ保証を持つ分割型代替案で、実質的な(そして、そうでない)アンダーカバーの可能性を実証する。
論文 参考訳(メタデータ) (2022-05-28T02:59:05Z) - MD-split+: Practical Local Conformal Inference in High Dimensions [0.5439020425819]
MD-split+は、局所化されたモデル性能に基づいてXパーティションを生成する、実用的な局所共形アプローチである。
我々は,我々の局所的分割が条件付き共形推論手法から期待される行動と哲学的にどのように一致しているかを論じる。
論文 参考訳(メタデータ) (2021-07-07T15:19:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。