論文の概要: Calibration Prediction Interval for Non-parametric Regression and Neural Networks
- arxiv url: http://arxiv.org/abs/2509.02735v1
- Date: Tue, 02 Sep 2025 18:30:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.304539
- Title: Calibration Prediction Interval for Non-parametric Regression and Neural Networks
- Title(参考訳): 非パラメトリック回帰とニューラルネットワークの校正間隔
- Authors: Kejin Wu, Dimitris N. Politis,
- Abstract要約: 我々は,Deep Neural Networks (DNN) やカーネル手法による推定を利用する,いわゆるキャリブレーションPI (cPI) を開発した。
カーネル法に基づくcPIは,サンプルサイズが大きい場合のカバレッジ率を高い確率で保証することを示した。
包括的シミュレーション研究は,cPIの有用性を裏付けるものであり,短サンプルを用いたcPIの説得性能を確認した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate conditional prediction in the regression setting plays an important role in many real-world problems. Typically, a point prediction often falls short since no attempt is made to quantify the prediction accuracy. Classically, under the normality and linearity assumptions, the Prediction Interval (PI) for the response variable can be determined routinely based on the $t$ distribution. Unfortunately, these two assumptions are rarely met in practice. To fully avoid these two conditions, we develop a so-called calibration PI (cPI) which leverages estimations by Deep Neural Networks (DNN) or kernel methods. Moreover, the cPI can be easily adjusted to capture the estimation variability within the prediction procedure, which is a crucial error source often ignored in practice. Under regular assumptions, we verify that our cPI has an asymptotically valid coverage rate. We also demonstrate that cPI based on the kernel method ensures a coverage rate with a high probability when the sample size is large. Besides, with several conditions, the cPI based on DNN works even with finite samples. A comprehensive simulation study supports the usefulness of cPI, and the convincing performance of cPI with a short sample is confirmed with two empirical datasets.
- Abstract(参考訳): 回帰設定における正確な条件予測は多くの実世界の問題において重要な役割を果たす。
通常、ポイント予測は予測精度を定量化する試みが行われないので、しばしば不足する。
古典的には、正規性と線形性の仮定の下で、応答変数の予測間隔(PI)は$t$分布に基づいて定期的に決定される。
残念ながら、この2つの前提は実際に満たされることはめったにない。
これら2つの条件を完全に回避するために,Deep Neural Networks (DNN) やカーネル手法による推定を利用する,いわゆるキャリブレーションPI (cPI) を開発した。
さらに、cPIを容易に調整して予測手順内の推定変動を捉えることができ、これは実際には無視されることが多い重要なエラー源である。
定期的な仮定では、私たちのcPIは漸近的に有効なカバレッジ率を持っていることを検証します。
また,カーネル法に基づくcPIにより,サンプルサイズが大きい場合のカバレッジ率を高い確率で保証することを示した。
さらに、いくつかの条件で、DNNに基づくcPIは有限サンプルでも機能する。
包括的シミュレーション研究は, cPIの有用性を支持し, 2つの経験的データセットを用いて, 短サンプルを用いたcPIの説得力のある性能を確認した。
関連論文リスト
- Approximating Full Conformal Prediction for Neural Network Regression with Gauss-Newton Influence [8.952347049759094]
我々は、保留データなしで、保留後のニューラルネットワーク回帰器の予測間隔を構築する。
ガウス・ニュートンの影響を利用して1回、局所摂動モデルパラメータを訓練する。
論文 参考訳(メタデータ) (2025-07-27T13:34:32Z) - Prediction-Powered Adaptive Shrinkage Estimation [0.9208007322096532]
予測パワー適応収縮(英: Prediction-Powered Adaptive Shrinkage、PAS)は、PPIを実証的なベイズ収縮で橋渡しし、複数の手段の推定を改善する手法である。
PASはML予測の信頼性に適応し、大規模アプリケーションにおいて従来のベースラインと現代的なベースラインを上回っている。
論文 参考訳(メタデータ) (2025-02-20T00:24:05Z) - Tube Loss: A Novel Approach for Prediction Interval Estimation and probabilistic forecasting [17.472882720712118]
本稿では,予測区間の境界値の同時推定のための新しい損失関数「タブロス」を提案する。
管損失に基づく経験的リスクを最小化して得られたPIは、既存の方法によるPIよりも高品質であることが示されている。
論文 参考訳(メタデータ) (2024-12-08T15:17:53Z) - Sample-dependent Adaptive Temperature Scaling for Improved Calibration [95.7477042886242]
ニューラルネットワークの誤りを補うポストホックアプローチは、温度スケーリングを実行することだ。
入力毎に異なる温度値を予測し、信頼度と精度のミスマッチを調整することを提案する。
CIFAR10/100およびTiny-ImageNetデータセットを用いて,ResNet50およびWideResNet28-10アーキテクチャ上で本手法をテストする。
論文 参考訳(メタデータ) (2022-07-13T14:13:49Z) - Sample-Efficient Optimisation with Probabilistic Transformer Surrogates [66.98962321504085]
本稿では,ベイズ最適化における最先端確率変換器の適用可能性について検討する。
トレーニング手順と損失定義から生じる2つの欠点を観察し、ブラックボックス最適化のプロキシとして直接デプロイすることを妨げる。
1)非一様分散点を前処理するBO調整トレーニング,2)予測性能を向上させるために最適な定常点をフィルタする新しい近似後正則整定器トレードオフ精度と入力感度を導入する。
論文 参考訳(メタデータ) (2022-05-27T11:13:17Z) - Near-optimal inference in adaptive linear regression [60.08422051718195]
最小二乗法のような単純な方法でさえ、データが適応的に収集されるときの非正規な振る舞いを示すことができる。
我々は,これらの分布異常を少なくとも2乗推定で補正するオンラインデバイアス推定器のファミリーを提案する。
我々は,マルチアームバンディット,自己回帰時系列推定,探索による能動的学習などの応用を通して,我々の理論の有用性を実証する。
論文 参考訳(メタデータ) (2021-07-05T21:05:11Z) - Predicting Deep Neural Network Generalization with Perturbation Response
Curves [58.8755389068888]
トレーニングネットワークの一般化能力を評価するための新しいフレームワークを提案する。
具体的には,一般化ギャップを正確に予測するための2つの新しい尺度を提案する。
PGDL(Predicting Generalization in Deep Learning)のNeurIPS 2020コンペティションにおけるタスクの大部分について、現在の最先端の指標よりも優れた予測スコアを得る。
論文 参考訳(メタデータ) (2021-06-09T01:37:36Z) - SLOE: A Faster Method for Statistical Inference in High-Dimensional
Logistic Regression [68.66245730450915]
実用データセットに対する予測の偏見を回避し、頻繁な不確実性を推定する改善された手法を開発している。
私たちの主な貢献は、推定と推論の計算時間をマグニチュードの順序で短縮する収束保証付き信号強度の推定器SLOEです。
論文 参考訳(メタデータ) (2021-03-23T17:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。