論文の概要: Another Fit Bites the Dust: Conformal Prediction as a Calibration Standard for Machine Learning in High-Energy Physics
- arxiv url: http://arxiv.org/abs/2512.17048v1
- Date: Thu, 18 Dec 2025 20:31:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.161117
- Title: Another Fit Bites the Dust: Conformal Prediction as a Calibration Standard for Machine Learning in High-Energy Physics
- Title(参考訳): ダストを噛むもう1つのフィット:高エネルギー物理学における機械学習の校正基準としてのコンフォーマル予測
- Authors: Jack Y. Araz, Michael Spannowsky,
- Abstract要約: 等角予測は任意の予測モデルを校正するための分布自由フレームワークを提供する。
回帰,二分分類,多クラス分類,異常検出,生成モデルなどに適用可能であることを示す。
我々は、コライダー物理における機械学習パイプラインの標準コンポーネントとして、共形校正を採用するべきであると論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine-learning techniques are essential in modern collider research, yet their probabilistic outputs often lack calibrated uncertainty estimates and finite-sample guarantees, limiting their direct use in statistical inference and decision-making. Conformal prediction (CP) provides a simple, distribution-free framework for calibrating arbitrary predictive models without retraining, yielding rigorous uncertainty quantification with finite-sample coverage guarantees under minimal exchangeability assumptions, without reliance on asymptotics, limit theorems, or Gaussian approximations. In this work, we investigate CP as a unifying calibration layer for machine-learning applications in high-energy physics. Using publicly available collider datasets and a diverse set of models, we show that a single conformal formalism can be applied across regression, binary and multi-class classification, anomaly detection, and generative modelling, converting raw model outputs into statistically valid prediction sets, typicality regions, and p-values with controlled false-positive rates. While conformal prediction does not improve raw model performance, it enforces honest uncertainty quantification and transparent error control. We argue that conformal calibration should be adopted as a standard component of machine-learning pipelines in collider physics, enabling reliable interpretation, robust comparisons, and principled statistical decisions in experimental and phenomenological analyses.
- Abstract(参考訳): 機械学習技術は現代のコライダー研究において不可欠であるが、確率的アウトプットにはキャリブレーションされた不確実性推定と有限サンプル保証が欠如しており、統計的推測や意思決定において直接の使用が制限されている。
コンフォーマル予測 (CP) は、任意の予測モデルを再訓練せずに校正し、漸近性、極限定理、ガウス近似に頼らずに、最小交換可能性仮定の下で有限サンプルのカバレッジを保証する厳密な不確実性定量化をもたらす、単純で分布のないフレームワークを提供する。
本研究では,高エネルギー物理学における機械学習応用のための統一キャリブレーション層としてのCPについて検討する。
公開されているコライダーデータセットと多種多様なモデルを用いて、回帰、二分分類、多クラス分類、異常検出、生成モデルに1つの共形形式を適用できることを示し、生モデルの出力を統計的に有効な予測セット、典型的領域、制御された偽陽性率のp値に変換する。
共形予測は生モデルの性能を向上しないが、真に不確実な定量化と透過的なエラー制御を強制する。
我々は、コライダー物理における機械学習パイプラインの標準コンポーネントとして、共形校正を採用すべきであり、信頼性の高い解釈、堅牢な比較、および実験および現象学的分析における統計的決定を可能にする。
関連論文リスト
- Reliable Statistical Guarantees for Conformal Predictors with Small Datasets [3.062618143970653]
サーロゲートモデルは、科学と工学において、任意の複雑な入出力問題を近似することができる。
データに依存しない不確実性定量化のための標準的なアプローチは、共形予測(CP)を用いることである。
本稿では,1つの共形予測器のカバレッジに対して確率的情報を提供する新しい統計保証を提案する。
論文 参考訳(メタデータ) (2025-12-04T08:29:17Z) - CLUE: Neural Networks Calibration via Learning Uncertainty-Error alignment [7.702016079410588]
CLUE(Calibration via Learning Uncertainty-Error Alignment)は,学習中の予測不確かさを観測誤差と整合させる新しい手法である。
CLUEは,最先端のアプローチに対して,キャリブレーション品質と競争予測性能に優れることを示す。
論文 参考訳(メタデータ) (2025-05-28T19:23:47Z) - Generative Conformal Prediction with Vectorized Non-Conformity Scores [6.059745771017814]
コンフォーマル予測は、保証されたカバレッジでモデルに依存しない不確実性定量化を提供する。
ベクトル化された非整合性スコアを持つ生成共形予測フレームワークを提案する。
我々は密度ランクの不確かさ球を用いた適応不確かさ集合を構築する。
論文 参考訳(メタデータ) (2024-10-17T16:37:03Z) - Conformal Generative Modeling with Improved Sample Efficiency through Sequential Greedy Filtering [55.15192437680943]
生成モデルは出力に対する厳密な統計的保証を欠いている。
厳密な統計的保証を満たす予測セットを生成する逐次共形予測法を提案する。
このことは、高い確率で予測セットが少なくとも1つの許容可能な(または有効な)例を含むことを保証している。
論文 参考訳(メタデータ) (2024-10-02T15:26:52Z) - Assessing the Probabilistic Fit of Neural Regressors via Conditional Congruence [2.13382635602206]
このミスアライメントを測定するための既存のアプローチは、主にキャリブレーションの枠組みの下で開発されている。
本稿では,CCE(Congruence Error)という,学習した予測分布とデータセット内の経験的条件分布との間の距離を,条件付きカーネルの平均埋め込みを用いて推定する手法を提案する。
我々は高次元回帰タスクを行い、CCEが4つの重要な特性を示すことを示す: $textitcorrectness$, $textitmonotonicity$, $textitreliability$, $textitrobustness$。
論文 参考訳(メタデータ) (2024-05-20T23:30:07Z) - Federated Conformal Predictors for Distributed Uncertainty
Quantification [83.50609351513886]
コンフォーマル予測は、機械学習において厳密な不確実性定量化を提供するための一般的なパラダイムとして現れつつある。
本稿では,共形予測を連邦学習環境に拡張する。
本稿では、FL設定に適した部分交換可能性の弱い概念を提案し、それをフェデレート・コンフォーマル予測フレームワークの開発に利用する。
論文 参考訳(メタデータ) (2023-05-27T19:57:27Z) - Sharp Calibrated Gaussian Processes [58.94710279601622]
キャリブレーションされたモデルを設計するための最先端のアプローチは、ガウス過程の後方分散を膨らませることに依存している。
本稿では,バニラガウス過程の後方分散にインスパイアされた計算を用いて,予測量子化を生成するキャリブレーション手法を提案する。
我々のアプローチは合理的な仮定の下で校正されたモデルが得られることを示す。
論文 参考訳(メタデータ) (2023-02-23T12:17:36Z) - Calibration tests beyond classification [30.616624345970973]
ほとんどの教師付き機械学習タスクは、既約予測エラーを被る。
確率論的予測モデルは、妥当な目標に対する信念を表す確率分布を提供することによって、この制限に対処する。
校正されたモデルは、予測が過信でも過信でもないことを保証します。
論文 参考訳(メタデータ) (2022-10-21T09:49:57Z) - T-Cal: An optimal test for the calibration of predictive models [49.11538724574202]
有限検証データセットを用いた予測モデルの誤校正を仮説検証問題として検討する。
誤校正の検出は、クラスの条件付き確率が予測の十分滑らかな関数である場合にのみ可能である。
我々は、$ell$-Expected Error(ECE)のデバイアスドプラグイン推定器に基づくキャリブレーションのためのミニマックステストであるT-Calを提案する。
論文 参考訳(メタデータ) (2022-03-03T16:58:54Z) - Unsupervised Calibration under Covariate Shift [92.02278658443166]
ドメインシフト下でのキャリブレーションの問題を導入し、それに対処するための重要サンプリングに基づくアプローチを提案する。
実世界のデータセットと合成データセットの両方において,本手法の有効性を評価し検討した。
論文 参考訳(メタデータ) (2020-06-29T21:50:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。