論文の概要: Distribution-Free Calibration of Statistical Confidence Sets
- arxiv url: http://arxiv.org/abs/2411.19368v1
- Date: Thu, 28 Nov 2024 20:45:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:19:35.009493
- Title: Distribution-Free Calibration of Statistical Confidence Sets
- Title(参考訳): 統計信頼集合の分布自由校正
- Authors: Luben M. C. Cabezas, Guilherme P. Soares, Thiago R. Ramos, Rafael B. Stern, Rafael Izbicki,
- Abstract要約: 本研究では,TRUSTとTRUST++という2つの新しい手法を導入する。
我々は,本手法が既存のアプローチ,特に小サンプル方式よりも優れていることを実証した。
- 参考スコア(独自算出の注目度): 2.283561089098417
- License:
- Abstract: Constructing valid confidence sets is a crucial task in statistical inference, yet traditional methods often face challenges when dealing with complex models or limited observed sample sizes. These challenges are frequently encountered in modern applications, such as Likelihood-Free Inference (LFI). In these settings, confidence sets may fail to maintain a confidence level close to the nominal value. In this paper, we introduce two novel methods, TRUST and TRUST++, for calibrating confidence sets to achieve distribution-free conditional coverage. These methods rely entirely on simulated data from the statistical model to perform calibration. Leveraging insights from conformal prediction techniques adapted to the statistical inference context, our methods ensure both finite-sample local coverage and asymptotic conditional coverage as the number of simulations increases, even if n is small. They effectively handle nuisance parameters and provide computationally efficient uncertainty quantification for the estimated confidence sets. This allows users to assess whether additional simulations are necessary for robust inference. Through theoretical analysis and experiments on models with both tractable and intractable likelihoods, we demonstrate that our methods outperform existing approaches, particularly in small-sample regimes. This work bridges the gap between conformal prediction and statistical inference, offering practical tools for constructing valid confidence sets in complex models.
- Abstract(参考訳): 有効な信頼セットを構築することは統計的推論において重要な課題であるが、伝統的な手法は複雑なモデルや限られたサンプルサイズを扱う際にしばしば困難に直面する。
これらの課題は、LFI(Likelihood-Free Inference)など、現代のアプリケーションで頻繁に発生する。
これらの設定では、信頼セットは名目値に近い信頼レベルを維持することができない可能性がある。
本稿では,TRUSTとTRUST++という2つの新しい手法を提案する。
これらの手法は、キャリブレーションを行うための統計モデルからのシミュレーションデータに完全に依存している。
統計的推論の文脈に適応した共形予測手法の知見を活用することで, n が小さい場合でも, シミュレーションの数が増加するにつれて, 有限サンプル局所カバレッジと漸近条件カバレッジの両方が保証される。
彼らは効果的にニュアンスパラメータを処理し、推定された信頼セットに対して計算的に効率的な不確実性定量化を提供する。
これにより、ユーザは堅牢な推論にさらなるシミュレーションが必要であるかどうかを評価することができる。
抽出可能な可能性と抽出可能な可能性の両方を持つモデルに関する理論的解析と実験を通じて,本手法が既存のアプローチ,特に小サンプル方式よりも優れていることを示す。
この研究は共形予測と統計的推測のギャップを埋め、複素モデルにおいて有効な信頼セットを構築するための実用的なツールを提供する。
関連論文リスト
- Noise-Adaptive Conformal Classification with Marginal Coverage [53.74125453366155]
本稿では,ランダムラベルノイズによる交換性からの偏差を効率的に処理できる適応型共形推論手法を提案する。
本手法は,合成および実データに対して,その有効性を示す広範囲な数値実験により検証する。
論文 参考訳(メタデータ) (2025-01-29T23:55:23Z) - Probabilistic Conformal Prediction with Approximate Conditional Validity [81.30551968980143]
本研究では,共形手法の柔軟性と条件分布の推定を組み合わせ,予測セットを生成する手法を開発した。
我々の手法は、条件付きカバレッジの観点から既存の手法よりも一貫して優れています。
論文 参考訳(メタデータ) (2024-07-01T20:44:48Z) - From Conformal Predictions to Confidence Regions [1.4272411349249627]
モデルパラメータに対する信頼領域を確立するために,モデル出力に共形予測間隔を組み合わせたCCRを導入する。
本稿では,雑音に対する最小限の仮定の下でのカバレッジ保証について述べる。
本手法は, 完全あるいはクロスコンフォーマルなアプローチを含む, 分割共形予測とブラックボックス手法の両方に適用可能である。
論文 参考訳(メタデータ) (2024-05-28T21:33:12Z) - Simulation-based, Finite-sample Inference for Privatized Data [14.218697973204065]
本稿では,統計的に有効な信頼区間と仮説テストを生成するためのシミュレーションベースの"repro sample"手法を提案する。
本手法は様々な個人推論問題に適用可能であることを示す。
論文 参考訳(メタデータ) (2023-03-09T15:19:31Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Calibrating Over-Parametrized Simulation Models: A Framework via
Eligibility Set [3.862247454265944]
厳密な頻繁な統計的保証を満たす校正手法を開発するための枠組みを開発する。
本手法は,書籍市場シミュレータのキャリブレーションへの応用を含む,いくつかの数値例で実証する。
論文 参考訳(メタデータ) (2021-05-27T00:59:29Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - CoinDICE: Off-Policy Confidence Interval Estimation [107.86876722777535]
強化学習における高信頼行動非依存のオフ政治評価について検討する。
様々なベンチマークにおいて、信頼区間推定が既存の手法よりも厳密で精度が高いことが示されている。
論文 参考訳(メタデータ) (2020-10-22T12:39:11Z) - Statistical Bootstrapping for Uncertainty Estimation in Off-Policy
Evaluation [38.31971190670345]
本研究は,政策の真の価値を校正した信頼区間を生成する手段として,統計的ブートストラップの可能性について検討する。
本研究では, 連続制御環境や小規模なデータ体制など, 様々な条件下で精度の高い信頼区間が得られることを示す。
論文 参考訳(メタデータ) (2020-07-27T14:49:22Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。