論文の概要: Fast and Scalable Score-Based Kernel Calibration Tests
- arxiv url: http://arxiv.org/abs/2510.14711v1
- Date: Thu, 16 Oct 2025 14:11:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.894866
- Title: Fast and Scalable Score-Based Kernel Calibration Tests
- Title(参考訳): 高速でスケーラブルなスコアベースカーネル校正試験
- Authors: Pierre Glaser, David Widmann, Fredrik Lindsten, Arthur Gretton,
- Abstract要約: KCCSDテスト(Kernel Conditional Stein Discrepancy test)は,確率モデルのキャリブレーションを適切に定義したスコアで評価するための,非パラメトリックなカーネルベーステストである。
従来の手法とは対照的に,我々のテストでは,型Iエラーを制御しながら,コストのかかる予測近似の必要性を回避している。
- 参考スコア(独自算出の注目度): 28.41894759475933
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce the Kernel Calibration Conditional Stein Discrepancy test (KCCSD test), a non-parametric, kernel-based test for assessing the calibration of probabilistic models with well-defined scores. In contrast to previous methods, our test avoids the need for possibly expensive expectation approximations while providing control over its type-I error. We achieve these improvements by using a new family of kernels for score-based probabilities that can be estimated without probability density samples, and by using a conditional goodness-of-fit criterion for the KCCSD test's U-statistic. We demonstrate the properties of our test on various synthetic settings.
- Abstract(参考訳): KCCSDテスト(Kernel Calibration Conditional Stein Discrepancy test)は、確率モデルのキャリブレーションを正確に定義したスコアで評価するための、非パラメトリックなカーネルベースのテストである。
従来の手法とは対照的に,我々のテストでは,型Iエラーを制御しながら,コストのかかる予測近似の必要性を回避している。
これらの改善は、確率密度サンプルを使わずに推定できるスコアベース確率に対する新しいカーネル群と、KCCSDテストのU-統計量に対する条件的良性基準を用いることによって達成される。
各種合成環境におけるテストの特性について検討した。
関連論文リスト
- Robust Kernel Hypothesis Testing under Data Corruption [6.430258446597413]
本稿では,データ破損下でのロバストな置換テストを構築するための一般的な手法を提案する。
最小限の条件下での力の一貫性を証明する。
これは、潜在的な敵攻撃を伴う現実世界のアプリケーションに対する仮説テストの実践的な展開に寄与する。
論文 参考訳(メタデータ) (2024-05-30T10:23:16Z) - Minimax Optimal Goodness-of-Fit Testing with Kernel Stein Discrepancy [13.429541377715298]
我々は、カーネル化されたStein discrepancy (KSD) を用いた一般領域における適合性試験の極小最適性について検討する。
KSDは適合性テストのための強力なフレームワークであるが、その統計的最適性はほとんど探索されていない。
未知のパラメータに適応することで、対数係数まで最小限の最適性を達成できる適応テストを導入する。
論文 参考訳(メタデータ) (2024-04-12T07:06:12Z) - Practical Kernel Tests of Conditional Independence [33.275712245547815]
SplitKCIは、データ分割に基づくカーネルベースの条件独立テストのためのバイアス制御の自動化方法である。
提案手法は,テストパワーを犠牲にすることなく,KCIのテストレベル制御を大幅に改善することを示す。
論文 参考訳(メタデータ) (2024-02-20T18:07:59Z) - Precise Error Rates for Computationally Efficient Testing [67.30044609837749]
本稿では,計算複雑性に着目した単純な対数-単純仮説テストの問題を再考する。
線形スペクトル統計に基づく既存の試験は、I型とII型の誤差率の間の最良のトレードオフ曲線を達成する。
論文 参考訳(メタデータ) (2023-11-01T04:41:16Z) - Sequential Kernelized Independence Testing [77.237958592189]
我々は、カーネル化依存度にインスパイアされたシーケンシャルなカーネル化独立試験を設計する。
シミュレーションデータと実データの両方にアプローチのパワーを実証する。
論文 参考訳(メタデータ) (2022-12-14T18:08:42Z) - T-Cal: An optimal test for the calibration of predictive models [49.11538724574202]
有限検証データセットを用いた予測モデルの誤校正を仮説検証問題として検討する。
誤校正の検出は、クラスの条件付き確率が予測の十分滑らかな関数である場合にのみ可能である。
我々は、$ell$-Expected Error(ECE)のデバイアスドプラグイン推定器に基づくキャリブレーションのためのミニマックステストであるT-Calを提案する。
論文 参考訳(メタデータ) (2022-03-03T16:58:54Z) - Calibration of Neural Networks using Splines [51.42640515410253]
キャリブレーション誤差の測定は、2つの経験的分布を比較します。
古典的コルモゴロフ・スミルノフ統計テスト(KS)にインスパイアされたビンニングフリーキャリブレーション尺度を導入する。
提案手法は,KS誤差に対する既存の手法と,他の一般的なキャリブレーション手法とを一貫して比較する。
論文 参考訳(メタデータ) (2020-06-23T07:18:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。