論文の概要: Probabilistic Consistency in Machine Learning and Its Connection to Uncertainty Quantification
- arxiv url: http://arxiv.org/abs/2507.21670v1
- Date: Tue, 29 Jul 2025 10:27:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:56.048504
- Title: Probabilistic Consistency in Machine Learning and Its Connection to Uncertainty Quantification
- Title(参考訳): 機械学習における確率的一貫性と不確実性量子化との関係
- Authors: Paul Patrone, Anthony Kearsley,
- Abstract要約: ある種の自己整合MLモデルは,クラス条件付き確率分布と等価であることを示す。
この情報は、マルチクラスベイズ最適化の構築や、クラス割り当てにおける固有の不確実性を推定するタスクに十分である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) is often viewed as a powerful data analysis tool that is easy to learn because of its black-box nature. Yet this very nature also makes it difficult to quantify confidence in predictions extracted from ML models, and more fundamentally, to understand how such models are mathematical abstractions of training data. The goal of this paper is to unravel these issues and their connections to uncertainty quantification (UQ) by pursuing a line of reasoning motivated by diagnostics. In such settings, prevalence - i.e. the fraction of elements in class - is often of inherent interest. Here we analyze the many interpretations of prevalence to derive a level-set theory of classification, which shows that certain types of self-consistent ML models are equivalent to class-conditional probability distributions. We begin by studying the properties of binary Bayes optimal classifiers, recognizing that their boundary sets can be reinterpreted as level-sets of pairwise density ratios. By parameterizing Bayes classifiers in terms of the prevalence, we then show that they satisfy important monotonicity and class-switching properties that can be used to deduce the density ratios without direct access to the boundary sets. Moreover, this information is sufficient for tasks such as constructing the multiclass Bayes-optimal classifier and estimating inherent uncertainty in the class assignments. In the multiclass case, we use these results to deduce normalization and self-consistency conditions, the latter being equivalent to the law of total probability for classifiers. We also show that these are necessary conditions for arbitrary ML models to have valid probabilistic interpretations. Throughout we demonstrate how this analysis informs the broader task of UQ for ML via an uncertainty propagation framework.
- Abstract(参考訳): 機械学習(ML)は、ブラックボックスの性質から簡単に学習できる強力なデータ分析ツールと見なされることが多い。
しかし、この性質は、MLモデルから抽出された予測の信頼性の定量化を難しくし、より根本的には、そのようなモデルがどのようにトレーニングデータの数学的抽象化であるかを理解するのが困難である。
本研究の目的は,これらの問題と不確実性定量化(UQ)との関係を明らかにすることであり,診断に動機づけられた推論の行を追求することである。
このような設定では、クラス内の要素のごく一部である頻度は、しばしば固有の関心事である。
ここでは、有病率の多くの解釈を分析し、分類のレベルセット理論を導出し、ある種の自己整合MLモデルがクラス条件確率分布と等価であることを示す。
まず、二項ベイズ最適分類器の特性を研究し、それらの境界集合が対密度比のレベルセットとして再解釈できることを認識する。
ベイズ分類器のパラメータ化により、境界集合に直接アクセスせずに密度比を導出できる重要な単調性およびクラススイッチング特性を満たすことを示す。
さらに、この情報は、マルチクラスベイズ最適分類器の構築や、クラス割り当てにおける固有の不確実性を推定するタスクに十分である。
多クラスの場合、これらの結果を用いて正規化と自己整合性条件を導出し、後者は分類器の総確率の法則と等価である。
また、任意のMLモデルが確率論的解釈を持つためには、これらが必須条件であることを示す。
この分析は、不確実性伝播フレームワークを通じて、MLに対するUQのより広範な課題をいかに示すかを示す。
関連論文リスト
- Simple and Interpretable Probabilistic Classifiers for Knowledge Graphs [0.0]
本稿では,単純な信念ネットワークの学習に基づく帰納的アプローチについて述べる。
このようなモデルを(確率的な)公理(あるいは規則)に変換する方法を示す。
論文 参考訳(メタデータ) (2024-07-09T17:05:52Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Analysis of Diagnostics (Part I): Prevalence, Uncertainty Quantification, and Machine Learning [0.0]
この写本は、分類理論と有病率のより深い関係を研究する二部作の最初のものである。
そこで本稿では,有病率重み付き経験誤差を最小化することにより,Bstar (q)$を推定する数値ホモトピーアルゴリズムを提案する。
合成データとSARS-CoV-2酵素結合免疫測定法(ELISA)を用いて本法の有効性を検証した。
論文 参考訳(メタデータ) (2023-08-30T13:26:49Z) - When Does Confidence-Based Cascade Deferral Suffice? [69.28314307469381]
カスケードは、推論コストをサンプル毎に適応的に変化させる古典的な戦略である。
deferralルールは、シーケンス内の次の分類子を呼び出すか、または予測を終了するかを決定する。
カスケードの構造に執着しているにもかかわらず、信頼に基づく推論は実際は極めてうまく機能することが多い。
論文 参考訳(メタデータ) (2023-07-06T04:13:57Z) - CLIMAX: An exploration of Classifier-Based Contrastive Explanations [5.381004207943597]
我々は,ブラックボックスの分類を正当化する対照的な説明を提供する,ポストホックモデルXAI手法を提案する。
CLIMAXと呼ばれる手法は,局所的な分類法に基づく。
LIME, BayLIME, SLIMEなどのベースラインと比較して, 一貫性が向上することを示す。
論文 参考訳(メタデータ) (2023-07-02T22:52:58Z) - Masked prediction tasks: a parameter identifiability view [49.533046139235466]
マスク付きトークンの予測に広く用いられている自己教師型学習手法に着目する。
いくつかの予測タスクは識別可能性をもたらすが、他のタスクはそうではない。
論文 参考訳(メタデータ) (2022-02-18T17:09:32Z) - Evaluating State-of-the-Art Classification Models Against Bayes
Optimality [106.50867011164584]
正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
論文 参考訳(メタデータ) (2021-06-07T06:21:20Z) - Estimation and Applications of Quantiles in Deep Binary Classification [0.0]
チェック損失に基づく量子回帰は統計学において広く使われている推論パラダイムである。
二項分類設定におけるチェック損失の類似について考察する。
我々は、予測が信頼できるかどうかを判断するために使用できる個別信頼度スコアを開発する。
論文 参考訳(メタデータ) (2021-02-09T07:07:42Z) - Learning with Density Matrices and Random Features [44.98964870180375]
密度行列は、量子系の統計状態を記述する。
量子系の量子的不確実性と古典的不確実性の両方を表現することは強力な形式主義である。
本稿では,機械学習モデルのビルディングブロックとして密度行列をどのように利用できるかを検討する。
論文 参考訳(メタデータ) (2021-02-08T17:54:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。