論文の概要: Learning Quantile Functions without Quantile Crossing for
Distribution-free Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2111.06581v1
- Date: Fri, 12 Nov 2021 06:54:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-15 13:29:22.948175
- Title: Learning Quantile Functions without Quantile Crossing for
Distribution-free Time Series Forecasting
- Title(参考訳): 分布のない時系列予測のための量子交叉のない量子関数の学習
- Authors: Youngsuk Park, Danielle Maddix, Fran\c{c}ois-Xavier Aubet, Kelvin Kan,
Jan Gasthaus, Yuyang Wang
- Abstract要約: 本稿では,分散フリーな分布推定フレームワークであるIncrmental (Spline) Quantile Function I(S)QFを提案する。
また、シーケンス・ツー・シーケンス・セッティングに基づく提案手法の一般化誤差解析も提供する。
- 参考スコア(独自算出の注目度): 12.269597033369557
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Quantile regression is an effective technique to quantify uncertainty, fit
challenging underlying distributions, and often provide full probabilistic
predictions through joint learnings over multiple quantile levels. A common
drawback of these joint quantile regressions, however, is \textit{quantile
crossing}, which violates the desirable monotone property of the conditional
quantile function. In this work, we propose the Incremental (Spline) Quantile
Functions I(S)QF, a flexible and efficient distribution-free quantile
estimation framework that resolves quantile crossing with a simple neural
network layer. Moreover, I(S)QF inter/extrapolate to predict arbitrary quantile
levels that differ from the underlying training ones. Equipped with the
analytical evaluation of the continuous ranked probability score of I(S)QF
representations, we apply our methods to NN-based times series forecasting
cases, where the savings of the expensive re-training costs for non-trained
quantile levels is particularly significant. We also provide a generalization
error analysis of our proposed approaches under the sequence-to-sequence
setting. Lastly, extensive experiments demonstrate the improvement of
consistency and accuracy errors over other baselines.
- Abstract(参考訳): 量子回帰は、不確実性を定量化し、基礎となる分布に挑戦し、しばしば複数の量子レベルの共同学習を通して完全な確率的予測を提供する効果的な手法である。
しかし、これらの合同量子化回帰の共通の欠点は、条件付き量子化関数の望ましい単調性に反する「textit{quantile crossing}」である。
本研究では、単純なニューラルネットワーク層による量子交差を解消するフレキシブルで効率的な分布自由な量子化推定フレームワークであるインクリメンタル(スプライン)量子関数I(S)QFを提案する。
さらに、I(S)QFインター/エクストラポレートは、基礎となるトレーニングと異なる任意の量子レベルを予測する。
I(S)QF表現の連続的ランク付け確率スコアを解析的に評価し、この手法をNNベースの時系列予測ケースに適用し、非トレーニング量子レベルに対する高価な再トレーニングコストの削減が特に重要であることを示す。
また、シーケンス・ツー・シーケンス・セッティングに基づく提案手法の一般化誤差解析も提供する。
最後に、広範囲な実験により、他のベースラインに対する一貫性と精度の誤差の改善が示されている。
関連論文リスト
- Semiparametric conformal prediction [79.6147286161434]
リスクに敏感なアプリケーションは、複数の、潜在的に相関したターゲット変数に対して、よく校正された予測セットを必要とする。
スコアをランダムなベクトルとして扱い、それらの連接関係構造を考慮した予測セットを構築することを目的とする。
実世界のレグレッション問題に対して,所望のカバレッジと競争効率について報告する。
論文 参考訳(メタデータ) (2024-11-04T14:29:02Z) - Relaxed Quantile Regression: Prediction Intervals for Asymmetric Noise [51.87307904567702]
量子レグレッション(Quantile regression)は、出力の分布における量子の実験的推定を通じてそのような間隔を得るための主要なアプローチである。
本稿では、この任意の制約を除去する量子回帰に基づく区間構成の直接的な代替として、Relaxed Quantile Regression (RQR)を提案する。
これにより、柔軟性が向上し、望ましい品質が向上することが実証された。
論文 参考訳(メタデータ) (2024-06-05T13:36:38Z) - Bayesian Quantile Regression with Subset Selection: A Decision Analysis Perspective [0.0]
量子回帰は、共変量が応答分布の特定のパーセンタイルにどのように影響するかを推測する強力なツールである。
既存の方法では、興味のある各量に対して個別に条件量子を推定するか、半パラメトリックモデルまたは非パラメトリックモデルを用いて条件分布全体を推定する。
本研究では,線形定量推定,不確実性定量化,およびベイズ決定解析の観点からのサブセット選択の基本的問題を提起する。
論文 参考訳(メタデータ) (2023-11-03T17:19:31Z) - Distribution-Flexible Subset Quantization for Post-Quantizing
Super-Resolution Networks [68.83451203841624]
本稿では,超高分解能ネットワークのためのポストトレーニング量子化手法であるDFSQを提案する。
DFSQは活性化のチャネルワイド正規化を行い、分布フレキシブルなサブセット量子化(SQ)を適用する
6ビットの量子化と8ビットの量子化では完全精度に匹敵する性能を達成し、4ビットの量子化では0.1dBのPSNR低下しか生じない。
論文 参考訳(メタデータ) (2023-05-10T04:19:11Z) - Neural Spline Search for Quantile Probabilistic Modeling [35.914279831992964]
パラメトリックな仮定を伴わない観測データ分布を表現するために,非パラメトリックかつデータ駆動型手法であるニューラルスプラインサーチ(NSS)を提案する。
我々は,NASが,合成,実世界の回帰,時系列予測タスクにおいて,従来の手法よりも優れていたことを実証した。
論文 参考訳(メタデータ) (2023-01-12T07:45:28Z) - Deep Non-Crossing Quantiles through the Partial Derivative [0.6299766708197883]
量子回帰(Quantile Regression)は、単一の条件量子を近似する方法を提供する。
QRロス関数の最小化は、非交差量子化を保証しない。
任意の数の量子を予測するための汎用的なディープラーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-01-30T15:35:21Z) - Bias-Variance Tradeoffs in Single-Sample Binary Gradient Estimators [100.58924375509659]
ストレートスルー (ST) 推定器はその単純さと効率性から人気を得た。
計算の複雑さを低く保ちながら、STよりも改善するいくつかの手法が提案された。
我々は、トレードオフを理解し、元来主張された特性を検証するために、これらの手法のバイアスとばらつきの理論解析を行う。
論文 参考訳(メタデータ) (2021-10-07T15:16:07Z) - Cluster-Promoting Quantization with Bit-Drop for Minimizing Network
Quantization Loss [61.26793005355441]
クラスタ・プロモーティング・量子化(CPQ)は、ニューラルネットワークに最適な量子化グリッドを見つける。
DropBitsは、ニューロンの代わりにランダムにビットをドロップする標準のドロップアウト正規化を改訂する新しいビットドロップ技術である。
本手法を様々なベンチマークデータセットとネットワークアーキテクチャ上で実験的に検証する。
論文 参考訳(メタデータ) (2021-09-05T15:15:07Z) - Understanding the Under-Coverage Bias in Uncertainty Estimation [58.03725169462616]
量子レグレッションは、現実の望ましいカバレッジレベルよりもアンファンダーカバー(enmphunder-cover)する傾向がある。
我々は、量子レグレッションが固有のアンダーカバーバイアスに悩まされていることを証明している。
我々の理論は、この過大被覆バイアスが特定の高次元パラメータ推定誤差に起因することを明らかにしている。
論文 参考訳(メタデータ) (2021-06-10T06:11:55Z) - Regularization Strategies for Quantile Regression [8.232258589877942]
連続的な量子の分布に対するピンボール損失を最小化することは、特定の量子の予測のみを行う場合でも良い正則化器であることを示す。
格子モデルにより予測された分布を位置スケールの族に正規化できることを示す。
論文 参考訳(メタデータ) (2021-02-09T21:10:35Z) - Beyond Pinball Loss: Quantile Methods for Calibrated Uncertainty
Quantification [15.94100899123465]
それぞれの入力に対する真の条件量子化を予測するモデルは、全ての量子化レベルにおいて、基礎となる不確実性の正しい効率的な表現を示す。
現在の量子化法は、いわゆるピンボール損失の最適化に重点を置いている。
これらの欠点に対処する新しい量子的手法を開発した。
論文 参考訳(メタデータ) (2020-11-18T23:51:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。