論文の概要: The surprising strength of weak classifiers for validating neural posterior estimates
- arxiv url: http://arxiv.org/abs/2507.17026v1
- Date: Tue, 22 Jul 2025 21:30:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:14.778937
- Title: The surprising strength of weak classifiers for validating neural posterior estimates
- Title(参考訳): 神経後部推定のための弱い分類器の驚くべき強度
- Authors: Vansh Bansal, Tianyu Chen, James G. Scott,
- Abstract要約: コンフォーマルC2STは、様々なベンチマークで古典的な差別テストより優れている。
これらの結果は,現代シミュレーションに基づく推論のための実用的,理論的に基礎的な診断として,共形C2STを確立した。
- 参考スコア(独自算出の注目度): 8.37884129644711
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Posterior Estimation (NPE) has emerged as a powerful approach for amortized Bayesian inference when the true posterior $p(\theta \mid y)$ is intractable or difficult to sample. But evaluating the accuracy of neural posterior estimates remains challenging, with existing methods suffering from major limitations. One appealing and widely used method is the classifier two-sample test (C2ST), where a classifier is trained to distinguish samples from the true posterior $p(\theta \mid y)$ versus the learned NPE approximation $q(\theta \mid y)$. Yet despite the appealing simplicity of the C2ST, its theoretical and practical reliability depend upon having access to a near-Bayes-optimal classifier -- a requirement that is rarely met and, at best, difficult to verify. Thus a major open question is: can a weak classifier still be useful for neural posterior validation? We show that the answer is yes. Building on the work of Hu and Lei, we present several key results for a conformal variant of the C2ST, which converts any trained classifier's scores -- even those of weak or over-fitted models -- into exact finite-sample p-values. We establish two key theoretical properties of the conformal C2ST: (i) finite-sample Type-I error control, and (ii) non-trivial power that degrades gently in tandem with the error of the trained classifier. The upshot is that even weak, biased, or overfit classifiers can still yield powerful and reliable tests. Empirically, the Conformal C2ST outperforms classical discriminative tests across a wide range of benchmarks. These results reveal the under appreciated strength of weak classifiers for validating neural posterior estimates, establishing the conformal C2ST as a practical, theoretically grounded diagnostic for modern simulation-based inference.
- Abstract(参考訳): NPE(Neural Posterior Estimation)は、真の後部$p(\theta \mid y)$が抽出可能で、サンプリングが困難である場合に、ベイズ推論の強力なアプローチとして現れる。
しかし、神経後部推定の精度を評価することは依然として困難であり、既存の方法には大きな制約がある。
1つの魅力的で広く使われている方法は、分類器の2サンプルテスト(C2ST)であり、分類器は真の後続の$p(\theta \mid y)$と学習したNPE近似の$q(\theta \mid y)$とを区別するために訓練される。
しかし、C2STの魅力ある単純さにもかかわらず、理論的および実用的信頼性は、ほとんど満たされず、少なくとも検証が難しい要件である準ベイズ最適分類器(Bayes-Optimal classifier)へのアクセスに依拠する。そこで大きな疑問は、弱い分類器が神経後生のバリデーションに有用であるかどうかである。我々は、答えがイエスであることを示す。HuとLeiの研究に基づいて、訓練された分類器のスコア(弱いモデルや過度に適合したモデルであっても)を正確に有限サンプルのp-値に変換するC2STの共形変種に対するいくつかの重要な結果を示す。
我々は共形 C2ST の2つの重要な理論的性質を確立する。
(i)有限サンプル型Iエラー制御、及び
(ii) 訓練された分類器の誤りと相まって緩やかに劣化する非自明な力。
欠点は、弱い、偏見のある、あるいは過度に適合する分類器でさえ、強力で信頼性の高いテストをもたらすことだ。
実証的には、C2STは様々なベンチマークで古典的な差別テストより優れている。
これらの結果から,脳神経後部推定のための弱い分類器の強度が低く評価され,C2STは現代のシミュレーションに基づく推論のための実用的,理論的に基礎的な診断として確立された。
関連論文リスト
- Analysis of Diagnostics (Part I): Prevalence, Uncertainty Quantification, and Machine Learning [0.0]
この写本は、分類理論と有病率のより深い関係を研究する二部作の最初のものである。
そこで本稿では,有病率重み付き経験誤差を最小化することにより,Bstar (q)$を推定する数値ホモトピーアルゴリズムを提案する。
合成データとSARS-CoV-2酵素結合免疫測定法(ELISA)を用いて本法の有効性を検証した。
論文 参考訳(メタデータ) (2023-08-30T13:26:49Z) - L-C2ST: Local Diagnostics for Posterior Approximations in
Simulation-Based Inference [63.22081662149488]
L-C2STは、任意の観測で後部推定器の局所的な評価を可能にする。
理論上は根拠があり容易に解釈できる。
標準的なSBIベンチマークでは、L-C2STはC2STに匹敵する結果を提供し、代替のローカルアプローチより優れている。
論文 参考訳(メタデータ) (2023-06-06T10:53:26Z) - How to Fix a Broken Confidence Estimator: Evaluating Post-hoc Methods for Selective Classification with Deep Neural Networks [1.4502611532302039]
我々は,ロジットの単純な$p$-norm正規化を行い,次に最大ロジットを信頼度推定器とすることで,選択的分類性能が著しく向上することを示した。
我々の結果は、分布シフトの下で一貫していることが示されている。
論文 参考訳(メタデータ) (2023-05-24T18:56:55Z) - Robust Neural Network Classification via Double Regularization [2.41710192205034]
本稿では、分類モデルの複雑さに対するペナルティと、学習観察の最適な再重み付けを組み合わせた、ニューラルネットワークトレーニング損失の新しい二重正則化を提案する。
我々は, (i) MNIST と (ii) CIFAR-10 のニューラルネット分類のための DRFit について, 両者の相違点について実証した。
論文 参考訳(メタデータ) (2021-12-15T13:19:20Z) - Adversarially Robust Classifier with Covariate Shift Adaptation [25.39995678746662]
既存の敵の訓練されたモデルは通常、テスト例に対して互いに独立して推論を行う。
単純な適応バッチ正規化(BN)技術は、ランダムな摂動に対してこれらのモデルのロバスト性を大幅に向上させることができることを示す。
さらに,適応BN手法は,敵攻撃に対する性能を高めつつも,一般的な汚職に対する堅牢性を著しく向上させることを示した。
論文 参考訳(メタデータ) (2021-02-09T19:51:56Z) - Binary classification with ambiguous training data [69.50862982117127]
教師付き学習では、ドメインの専門家でさえラベル付けが難しい曖昧な(A)サンプルに直面します。
この問題は、ラベルなしサンプルが必ずしも難しいサンプルではないため、半教師付き学習とは大きく異なる。
論文 参考訳(メタデータ) (2020-11-05T00:53:58Z) - Re-Assessing the "Classify and Count" Quantification Method [88.60021378715636]
分類とカウント(CC)は、しばしば偏りのある推定器である。
以前の作業では、CCの適切に最適化されたバージョンを適切に使用できなかった。
最先端の手法に劣っているものの、ほぼ最先端の精度を実現している、と我々は主張する。
論文 参考訳(メタデータ) (2020-11-04T21:47:39Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - Provable tradeoffs in adversarially robust classification [96.48180210364893]
我々は、ロバストなイソペリメトリに関する確率論の最近のブレークスルーを含む、新しいツールを開発し、活用する。
この結果から,データの不均衡時に増加する標準精度とロバスト精度の基本的なトレードオフが明らかになった。
論文 参考訳(メタデータ) (2020-06-09T09:58:19Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。