論文の概要: The Benefit of Being Bayesian in Online Conformal Prediction
- arxiv url: http://arxiv.org/abs/2410.02561v2
- Date: Thu, 22 May 2025 03:56:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:47.65619
- Title: The Benefit of Being Bayesian in Online Conformal Prediction
- Title(参考訳): オンラインコンフォーマル予測におけるベイズ的ベネフィット
- Authors: Zhiyu Zhang, Zhou Lu, Heng Yang,
- Abstract要約: ブラックボックス機械学習モデルを用いた信頼度セットのオンライン構築について検討する。
対象の信頼レベルを量子レベルに変換することにより、逐次明らかにされたデータシーケンスの量子レベルを予測することで、問題を小さくすることができる。
- 参考スコア(独自算出の注目度): 7.713245413733777
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Based on the framework of Conformal Prediction (CP), we study the online construction of confidence sets given a black-box machine learning model. By converting the target confidence levels into quantile levels, the problem can be reduced to predicting the quantiles (in hindsight) of a sequentially revealed data sequence. Two very different approaches have been studied previously: (i) Assuming the data sequence is iid or exchangeable, one could maintain the empirical distribution of the observed data as an algorithmic belief, and directly predict its quantiles. (ii) Due to the fragility of statistical assumptions, a recent trend is to consider the non-distributional, adversarial setting and apply first-order online optimization algorithms to moving quantile losses. However, it requires the oracle knowledge of the target quantile level, and suffers from a previously overlooked monotonicity issue due to the associated loss linearization. This paper presents an adaptive CP algorithm that combines their strengths. Without any statistical assumption, it is able to answer multiple arbitrary confidence level queries with low regret, while also overcoming the monotonicity issue suffered by first-order optimization baselines. Furthermore, if the data sequence is actually iid, then the same algorithm is automatically equipped with the "correct" coverage probability guarantee. To achieve such strengths, our key technical innovation is to regularize the aforementioned algorithmic belief (the empirical distribution) by a Bayesian prior, which robustifies it by simulating a non-linearized Follow the Regularized Leader (FTRL) algorithm on the output. Such a belief update backbone is shared by prediction heads targeting different confidence levels, bringing practical benefits analogous to the recently proposed concept of U-calibration (Kleinberg et al., 2023).
- Abstract(参考訳): The framework of Conformal Prediction (CP), we study on the online construction of confidence set given a black-box machine learning model。
ターゲットの信頼レベルを量子レベルに変換することで、問題を減らし、シーケンシャルに明らかにされたデータシーケンスの量子(後部)を予測する。
これまで2つの非常に異なるアプローチが研究されてきた。
i) データシーケンスがイドまたは交換可能であると仮定すると, 観測データの経験的分布をアルゴリズム的信念として維持し, その量子を直接予測することができる。
(二)統計的仮定の脆弱さにより、近年の傾向は、非分布的、敵対的設定を考慮し、量子的損失の移動に一階オンライン最適化アルゴリズムを適用することである。
しかし、これは対象の量子レベルに関するオラクルの知識を必要とし、関連する損失線形化のためにこれまで見過ごされていたモノトニック性の問題に悩まされる。
本稿では,その強みを組み合わせた適応型CPアルゴリズムを提案する。
統計的仮定がなければ、複数の任意の信頼度レベルのクエリを低い後悔で答えることができ、一方、一階最適化ベースラインに悩まされる単調性の問題も克服できる。
さらに、データシーケンスが実際にiidであれば、同じアルゴリズムが自動的に"正しい"カバレッジ確率を保証する。
このような強みを達成するために、我々の重要な技術的革新は、前述のアルゴリズム的信念(経験的分布)をベイジアン先行で正規化することであり、これは、出力上の非線形化Follow the Regularized Leader (FTRL)アルゴリズムをシミュレートすることによって、それを堅牢化することである。
このような信念更新のバックボーンは、異なる信頼レベルをターゲットにした予測ヘッドによって共有され、最近提案されたU-校正の概念に類似した実用的利益をもたらす(Kleinberg et al , 2023)。
関連論文リスト
- Sequential Manipulation Against Rank Aggregation: Theory and Algorithm [119.57122943187086]
脆弱なデータ収集プロセスに対するオンライン攻撃を活用します。
ゲーム理論の観点からは、対決シナリオは分布的に堅牢なゲームとして定式化される。
提案手法は,ランクアグリゲーション手法の結果を逐次的に操作する。
論文 参考訳(メタデータ) (2024-07-02T03:31:21Z) - Calibrating Neural Simulation-Based Inference with Differentiable
Coverage Probability [50.44439018155837]
ニューラルモデルのトレーニング目的に直接キャリブレーション項を含めることを提案する。
古典的なキャリブレーション誤差の定式化を緩和することにより、エンドツーエンドのバックプロパゲーションを可能にする。
既存の計算パイプラインに直接適用でき、信頼性の高いブラックボックス後部推論が可能である。
論文 参考訳(メタデータ) (2023-10-20T10:20:45Z) - When Does Confidence-Based Cascade Deferral Suffice? [69.28314307469381]
カスケードは、推論コストをサンプル毎に適応的に変化させる古典的な戦略である。
deferralルールは、シーケンス内の次の分類子を呼び出すか、または予測を終了するかを決定する。
カスケードの構造に執着しているにもかかわらず、信頼に基づく推論は実際は極めてうまく機能することが多い。
論文 参考訳(メタデータ) (2023-07-06T04:13:57Z) - Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression [91.3373131262391]
不確かさが唯一の確実性である。
伝統的に、直接回帰定式化を考慮し、ある確率分布の族に出力空間を変更することによって不確実性をモデル化する。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
論文 参考訳(メタデータ) (2021-03-25T06:56:09Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Estimation and Applications of Quantiles in Deep Binary Classification [0.0]
チェック損失に基づく量子回帰は統計学において広く使われている推論パラダイムである。
二項分類設定におけるチェック損失の類似について考察する。
我々は、予測が信頼できるかどうかを判断するために使用できる個別信頼度スコアを開発する。
論文 参考訳(メタデータ) (2021-02-09T07:07:42Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Fair Classification via Unconstrained Optimization [0.0]
我々はベイズ最適公正学習規則がベイズ回帰器に対するグループワイドしきい値の規則のままであることを示す。
提案アルゴリズムは,任意のブラックボックス機械学習モデルに適用可能である。
論文 参考訳(メタデータ) (2020-05-21T11:29:05Z) - Knowing what you know: valid and validated confidence sets in multiclass
and multilabel prediction [0.8594140167290097]
マルチクラスおよびマルチラベル問題において、有効な信頼セットを構築するための共形予測手法を開発する。
量子レグレッションのアイデアを活用することで、常に正しいカバレッジを保証すると同時に、マルチクラスとマルチラベルの予測問題に対して条件付きカバレッジを提供する手法を構築する。
論文 参考訳(メタデータ) (2020-04-21T17:45:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。