論文の概要: Distribution-informed Efficient Conformal Prediction for Full Ranking
- arxiv url: http://arxiv.org/abs/2601.23128v1
- Date: Fri, 30 Jan 2026 16:16:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.546533
- Title: Distribution-informed Efficient Conformal Prediction for Full Ranking
- Title(参考訳): フルランク化のための分布インフォームド効率的等角予測
- Authors: Wenbo Liao, Huipeng Huang, Chen Jia, Huajun Xi, Hao Zeng, Hongxin Wei,
- Abstract要約: 不確実性の定量化は、現実世界のアプリケーションにおけるランキングモデルの安全な配置に不可欠である。
最近の研究は、完全ランク付けシナリオにおける共形予測を用いた厳密なソリューションを提供し、テスト項目の絶対ランクの予測セットを構築することを目的としている。
非整合性スコアの正確な分布を導出して効率的な予測セットを生成する分散インフォームド・コンフォーマルランキング(DCR)を提案する。
- 参考スコア(独自算出の注目度): 22.380815981596403
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantifying uncertainty is critical for the safe deployment of ranking models in real-world applications. Recent work offers a rigorous solution using conformal prediction in a full ranking scenario, which aims to construct prediction sets for the absolute ranks of test items based on the relative ranks of calibration items. However, relying on upper bounds of non-conformity scores renders the method overly conservative, resulting in substantially large prediction sets. To address this, we propose Distribution-informed Conformal Ranking (DCR), which produces efficient prediction sets by deriving the exact distribution of non-conformity scores. In particular, we find that the absolute ranks of calibration items follow Negative Hypergeometric distributions, conditional on their relative ranks. DCR thus uses the rank distribution to derive non-conformity score distribution and determine conformal thresholds. We provide theoretical guarantees that DCR achieves improved efficiency over the baseline while ensuring valid coverage under mild assumptions. Extensive experiments demonstrate the superiority of DCR, reducing average prediction set size by up to 36%, while maintaining valid coverage.
- Abstract(参考訳): 不確実性の定量化は、現実世界のアプリケーションにおけるランキングモデルの安全な配置に不可欠である。
近年の研究では, 検定項目の相対ランクに基づいて, 検定項目の絶対ランクの予測セットを構築することを目的とした, 完全ランキングシナリオにおける共形予測を用いた厳密な解が提案されている。
しかし、非整合性スコアの上限に依存すると、メソッドは過度に保守的になり、結果として予測セットが大幅に大きくなる。
そこで本研究では,非整合性スコアの正確な分布を導出して,効率的な予測セットを生成する分散インフォームド・コンフォーマルランキング(DCR)を提案する。
特に,検定項目の絶対ランクは相対ランクの条件である負の超幾何分布に従うことが判明した。
したがって、DCRはランク分布を用いて非整合スコア分布を導出し、整合しきい値を決定する。
本論では,DCRがベースラインの効率を向上させるとともに,軽度な仮定の下で有効なカバレッジを確保することを理論的に保証する。
大規模な実験では、DCRの優位性を実証し、平均予測セットのサイズを最大36%削減し、有効なカバレッジを維持した。
関連論文リスト
- Distribution-informed Online Conformal Prediction [53.674678995825666]
更新ルールに基礎となるデータパターンを組み込んだオンラインコンフォメーション予測アルゴリズムである Conformal Optimistic Prediction (COP) を提案する。
COPは予測可能なパターンが存在する場合により厳密な予測セットを生成し、見積もりが不正確な場合でも有効なカバレッジ保証を保持する。
我々は,COPが有効なカバレッジを実現し,他のベースラインよりも短い予測間隔を構築できることを証明した。
論文 参考訳(メタデータ) (2025-12-08T17:51:49Z) - COIN: Uncertainty-Guarding Selective Question Answering for Foundation Models with Provable Risk Guarantees [51.5976496056012]
COINは、統計的に有効な閾値を校正し、質問毎に1つの生成された回答をフィルタリングする不確実性保護選択フレームワークである。
COINはキャリブレーションセット上で経験的誤差率を推定し、信頼区間法を適用して真誤差率に高い確率上界を確立する。
リスク管理におけるCOINの堅牢性,許容回答を維持するための強いテストタイムパワー,キャリブレーションデータによる予測効率を実証する。
論文 参考訳(メタデータ) (2025-06-25T07:04:49Z) - Distributed Conformal Prediction via Message Passing [33.306901198295016]
Conformal Prediction (CP)は、堅牢なポストホックキャリブレーションフレームワークを提供する。
CPによる信頼性推論を実現するために,メッセージパスに基づく2つのアプローチを提案する。
論文 参考訳(メタデータ) (2025-01-24T14:47:42Z) - Conformal Prediction Sets with Improved Conditional Coverage using Trust Scores [52.92618442300405]
有限サンプルにおいて、正確に分布のない条件付きカバレッジを達成することは不可能である。
本稿では,最も重要となる範囲を対象とするコンフォメーション予測アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-01-17T12:01:56Z) - Provable Uncertainty Decomposition via Higher-Order Calibration [4.969075533165688]
本稿では,モデルの予測的不確かさをアレタリック成分とてんかん成分に分解する原理的手法を提案する。
我々の手法は、高次校正という新しい概念に基づいている。
本手法が画像分類において意味のある不確実性分解を生じさせることを示す。
論文 参考訳(メタデータ) (2024-12-25T07:26:36Z) - Provably Reliable Conformal Prediction Sets in the Presence of Data Poisoning [53.42244686183879]
コンフォーマル予測は、モデルに依存しない、分布のない不確実性定量化を提供する。
しかし、敵が訓練データと校正データを操作した場合の毒殺攻撃では、共形予測は信頼性が低い。
信頼性予測セット (RPS): 汚染下での信頼性保証を証明可能な共形予測セットを構築するための最初の効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-13T15:37:11Z) - U-Calibration: Forecasting for an Unknown Agent [29.3181385170725]
単一のスコアリングルールに対する予測を最適化することは、すべてのエージェントに対して低い後悔を保証できないことを示す。
予測列の最大後悔度に匹敵するU校正と呼ばれる予測を評価するための新しい指標を提案する。
論文 参考訳(メタデータ) (2023-06-30T23:05:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。