論文の概要: Tube Loss: A Novel Approach for Prediction Interval Estimation and probabilistic forecasting
- arxiv url: http://arxiv.org/abs/2412.06853v2
- Date: Wed, 11 Dec 2024 07:04:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 14:03:49.396819
- Title: Tube Loss: A Novel Approach for Prediction Interval Estimation and probabilistic forecasting
- Title(参考訳): 管損失:予測区間推定と確率予測の新しい手法
- Authors: Pritam Anand, Tathagata Bandyopadhyay, Suresh Chandra,
- Abstract要約: 本稿では,予測区間(PI)の境界の同時推定のための新しい損失関数「タブロス」を提案する。
管損失に基づく経験的リスクを最小化することにより得られるパイは、既存の方法によるPIよりも高品質であることが示されている。
- 参考スコア(独自算出の注目度): 17.472882720712118
- License:
- Abstract: This paper proposes a novel loss function, called 'Tube Loss', for simultaneous estimation of bounds of a Prediction Interval (PI) in the regression setup, and also for generating probabilistic forecasts from time series data solving a single optimization problem. The PIs obtained by minimizing the empirical risk based on the Tube Loss are shown to be of better quality than the PIs obtained by the existing methods in the following sense. First, it yields intervals that attain the prespecified confidence level $t \in(0,1)$ asymptotically. A theoretical proof of this fact is given. Secondly, the user is allowed to move the interval up or down by controlling the value of a parameter. This helps the user to choose a PI capturing denser regions of the probability distribution of the response variable inside the interval, and thus, sharpening its width. This is shown to be especially useful when the conditional distribution of the response variable is skewed. Further, the Tube Loss based PI estimation method can trade-off between the coverage and the average width by solving a single optimization problem. It enables further reduction of the average width of PI through re-calibration. Also, unlike a few existing PI estimation methods the gradient descent (GD) method can be used for minimization of empirical risk. Finally, through extensive experimentation, we have shown the efficacy of the Tube Loss based PI estimation in kernel machines, neural networks and deep networks and also for probabilistic forecasting tasks. The codes of the experiments are available at https://github.com/ltpritamanand/Tube_loss
- Abstract(参考訳): 本稿では,予測区間(PI)の境界の同時推定と,単一最適化問題を解く時系列データから確率的予測を生成するための新しい損失関数「タブロス」を提案する。
管損失に基づく経験的リスクを最小化して得られたPIは, 既存の方法によるPIよりも, 以下の意味で高品質であることが示されている。
まず、あらかじめ指定された信頼レベル $t \in(0,1)$ asymptotically に達する間隔を出力する。
この事実の理論的証明が与えられる。
次に、パラメータの値を制御することにより、ユーザはインターバルを上下に移動することができる。
これにより、ユーザは、インターバル内の応答変数の確率分布のより密集した領域をキャプチャするPIを選択することができる。
これは、応答変数の条件分布が歪んだときに特に有用である。
さらに、管損失に基づくPI推定法は、単一の最適化問題を解くことにより、カバレッジと平均幅をトレードオフすることができる。
これにより、再校正によりPIの平均幅をさらに小さくすることができる。
また、いくつかの既存のPI推定手法とは異なり、勾配降下(GD)法は経験的リスクの最小化に利用できる。
最後に、広範囲な実験を通じて、カーネルマシン、ニューラルネットワーク、ディープネットワークおよび確率予測タスクにおけるチューブロスに基づくPI推定の有効性を示した。
実験のコードはhttps://github.com/ltpritamanand/Tube_lossで公開されている。
関連論文リスト
- Local Prediction-Powered Inference [7.174572371800217]
本稿では,PPIを用いた局所多変量回帰のための特定のアルゴリズムを提案する。
信頼区間, バイアス補正, カバレッジ確率を解析し, アルゴリズムの正しさと優越性を検証した。
論文 参考訳(メタデータ) (2024-09-26T22:15:53Z) - Relaxed Quantile Regression: Prediction Intervals for Asymmetric Noise [51.87307904567702]
量子レグレッション(Quantile regression)は、出力の分布における量子の実験的推定を通じてそのような間隔を得るための主要なアプローチである。
本稿では、この任意の制約を除去する量子回帰に基づく区間構成の直接的な代替として、Relaxed Quantile Regression (RQR)を提案する。
これにより、柔軟性が向上し、望ましい品質が向上することが実証された。
論文 参考訳(メタデータ) (2024-06-05T13:36:38Z) - Calibrating Neural Simulation-Based Inference with Differentiable
Coverage Probability [50.44439018155837]
ニューラルモデルのトレーニング目的に直接キャリブレーション項を含めることを提案する。
古典的なキャリブレーション誤差の定式化を緩和することにより、エンドツーエンドのバックプロパゲーションを可能にする。
既存の計算パイプラインに直接適用でき、信頼性の高いブラックボックス後部推論が可能である。
論文 参考訳(メタデータ) (2023-10-20T10:20:45Z) - Reliable Prediction Intervals with Directly Optimized Inductive
Conformal Regression for Deep Learning [3.42658286826597]
予測間隔(PI)は、ディープラーニング回帰における各予測の不確かさの定量化に使用される。
PIの品質向上のための多くのアプローチは、PIの幅を効果的に削減することができるが、実際のラベルが十分に取得されていることを保証しない。
本研究では,損失関数としてPIの平均幅のみを考慮に入れた直接最適化インダクティブ・コンダクティブ・レグレッション(DOICR)を用いる。
ベンチマーク実験により、DOICRは回帰問題に対する現在の最先端アルゴリズムよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-02-02T04:46:14Z) - Dual Accuracy-Quality-Driven Neural Network for Prediction Interval Generation [0.0]
本稿では,回帰に基づくニューラルネットワークの予測間隔を自動的に学習する手法を提案する。
我々の主な貢献は、PI世代ネットワークのための新しい損失関数の設計である。
合成データセット,8つのベンチマークデータセット,および実世界の収量予測データセットを用いて実験したところ,本手法は有意な確率カバレッジを維持することができた。
論文 参考訳(メタデータ) (2022-12-13T05:03:16Z) - Prediction intervals for neural network models using weighted asymmetric
loss functions [0.3093890460224435]
本稿では,近似および予測された傾向に対する予測区間(PI)を簡便かつ効率的に生成する手法を提案する。
本手法は、重み付き非対称損失関数を利用して、PIの上下境界を推定する。
パラメトリド関数のPIを導出するためにどのように拡張できるかを示し、深層ニューラルネットワークのトレーニングにおいてその有効性について議論する。
論文 参考訳(メタデータ) (2022-10-09T18:58:24Z) - Sample-Efficient Optimisation with Probabilistic Transformer Surrogates [66.98962321504085]
本稿では,ベイズ最適化における最先端確率変換器の適用可能性について検討する。
トレーニング手順と損失定義から生じる2つの欠点を観察し、ブラックボックス最適化のプロキシとして直接デプロイすることを妨げる。
1)非一様分散点を前処理するBO調整トレーニング,2)予測性能を向上させるために最適な定常点をフィルタする新しい近似後正則整定器トレードオフ精度と入力感度を導入する。
論文 参考訳(メタデータ) (2022-05-27T11:13:17Z) - Selective Network Linearization for Efficient Private Inference [49.937470642033155]
本稿では,予測精度を維持しつつReLUを選択的に線形化する勾配に基づくアルゴリズムを提案する。
その結果、現在の技術よりも4.25%$の精度(so-ReLUは50K)、または2.2times$のレイテンシ(so-accuracyは70%)が低いことがわかった。
論文 参考訳(メタデータ) (2022-02-04T19:00:24Z) - Near-optimal inference in adaptive linear regression [60.08422051718195]
最小二乗法のような単純な方法でさえ、データが適応的に収集されるときの非正規な振る舞いを示すことができる。
我々は,これらの分布異常を少なくとも2乗推定で補正するオンラインデバイアス推定器のファミリーを提案する。
我々は,マルチアームバンディット,自己回帰時系列推定,探索による能動的学習などの応用を通して,我々の理論の有用性を実証する。
論文 参考訳(メタデータ) (2021-07-05T21:05:11Z) - PIVEN: A Deep Neural Network for Prediction Intervals with Specific
Value Prediction [14.635820704895034]
PIと値予測の両方を生成するディープニューラルネットワークであるPIVENを提案する。
提案手法では,PI内のデータ分布に関する仮定は行わず,実世界の様々な問題に対して,その価値予測をより効果的に行う。
論文 参考訳(メタデータ) (2020-06-09T09:29:58Z) - Optimal Change-Point Detection with Training Sequences in the Large and
Moderate Deviations Regimes [72.68201611113673]
本稿では,情報理論の観点から,新しいオフライン変化点検出問題について検討する。
基礎となる事前および変更後分布の知識は分かっておらず、利用可能なトレーニングシーケンスからのみ学習できると仮定する。
論文 参考訳(メタデータ) (2020-03-13T23:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。