論文の概要: Learning Quantile Functions without Quantile Crossing for
Distribution-free Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2111.06581v1
- Date: Fri, 12 Nov 2021 06:54:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-15 13:29:22.948175
- Title: Learning Quantile Functions without Quantile Crossing for
Distribution-free Time Series Forecasting
- Title(参考訳): 分布のない時系列予測のための量子交叉のない量子関数の学習
- Authors: Youngsuk Park, Danielle Maddix, Fran\c{c}ois-Xavier Aubet, Kelvin Kan,
Jan Gasthaus, Yuyang Wang
- Abstract要約: 本稿では,分散フリーな分布推定フレームワークであるIncrmental (Spline) Quantile Function I(S)QFを提案する。
また、シーケンス・ツー・シーケンス・セッティングに基づく提案手法の一般化誤差解析も提供する。
- 参考スコア(独自算出の注目度): 12.269597033369557
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Quantile regression is an effective technique to quantify uncertainty, fit
challenging underlying distributions, and often provide full probabilistic
predictions through joint learnings over multiple quantile levels. A common
drawback of these joint quantile regressions, however, is \textit{quantile
crossing}, which violates the desirable monotone property of the conditional
quantile function. In this work, we propose the Incremental (Spline) Quantile
Functions I(S)QF, a flexible and efficient distribution-free quantile
estimation framework that resolves quantile crossing with a simple neural
network layer. Moreover, I(S)QF inter/extrapolate to predict arbitrary quantile
levels that differ from the underlying training ones. Equipped with the
analytical evaluation of the continuous ranked probability score of I(S)QF
representations, we apply our methods to NN-based times series forecasting
cases, where the savings of the expensive re-training costs for non-trained
quantile levels is particularly significant. We also provide a generalization
error analysis of our proposed approaches under the sequence-to-sequence
setting. Lastly, extensive experiments demonstrate the improvement of
consistency and accuracy errors over other baselines.
- Abstract(参考訳): 量子回帰は、不確実性を定量化し、基礎となる分布に挑戦し、しばしば複数の量子レベルの共同学習を通して完全な確率的予測を提供する効果的な手法である。
しかし、これらの合同量子化回帰の共通の欠点は、条件付き量子化関数の望ましい単調性に反する「textit{quantile crossing}」である。
本研究では、単純なニューラルネットワーク層による量子交差を解消するフレキシブルで効率的な分布自由な量子化推定フレームワークであるインクリメンタル(スプライン)量子関数I(S)QFを提案する。
さらに、I(S)QFインター/エクストラポレートは、基礎となるトレーニングと異なる任意の量子レベルを予測する。
I(S)QF表現の連続的ランク付け確率スコアを解析的に評価し、この手法をNNベースの時系列予測ケースに適用し、非トレーニング量子レベルに対する高価な再トレーニングコストの削減が特に重要であることを示す。
また、シーケンス・ツー・シーケンス・セッティングに基づく提案手法の一般化誤差解析も提供する。
最後に、広範囲な実験により、他のベースラインに対する一貫性と精度の誤差の改善が示されている。
関連論文リスト
- Bayesian Quantile Regression with Subset Selection: A Posterior
Summarization Perspective [0.0]
既存の方法では、興味のある各量に対して個別に条件量子を推定するか、半パラメトリックモデルまたは非パラメトリックモデルを用いて条件分布全体を推定する。
本研究では,線形定量推定,不確実性定量化,およびベイズ決定解析の観点からのサブセット選択の基本的問題を提起する。
提案手法では,量子に焦点をあてた2乗誤差損失を導入し,効率的な閉形式計算を実現し,ワッサーシュタインに基づく密度推定との密接な関係を維持する。
論文 参考訳(メタデータ) (2023-11-03T17:19:31Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Distribution-Flexible Subset Quantization for Post-Quantizing
Super-Resolution Networks [68.83451203841624]
本稿では,超高分解能ネットワークのためのポストトレーニング量子化手法であるDFSQを提案する。
DFSQは活性化のチャネルワイド正規化を行い、分布フレキシブルなサブセット量子化(SQ)を適用する
6ビットの量子化と8ビットの量子化では完全精度に匹敵する性能を達成し、4ビットの量子化では0.1dBのPSNR低下しか生じない。
論文 参考訳(メタデータ) (2023-05-10T04:19:11Z) - Decoupling Quantile Representations from Loss Functions [0.979731979071071]
同時二項量子化回帰(SBQR)における量子化と推定確率の双対性を示す。
これにより、任意のf(x)を中央の量子化に割り当て、異なるタウ値におけるSBQR量子化表現の全スペクトルを生成することができる。
論文 参考訳(メタデータ) (2023-04-25T12:39:45Z) - Deep Non-Crossing Quantiles through the Partial Derivative [0.6299766708197883]
量子回帰(Quantile Regression)は、単一の条件量子を近似する方法を提供する。
QRロス関数の最小化は、非交差量子化を保証しない。
任意の数の量子を予測するための汎用的なディープラーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-01-30T15:35:21Z) - Bias-Variance Tradeoffs in Single-Sample Binary Gradient Estimators [100.58924375509659]
ストレートスルー (ST) 推定器はその単純さと効率性から人気を得た。
計算の複雑さを低く保ちながら、STよりも改善するいくつかの手法が提案された。
我々は、トレードオフを理解し、元来主張された特性を検証するために、これらの手法のバイアスとばらつきの理論解析を行う。
論文 参考訳(メタデータ) (2021-10-07T15:16:07Z) - Cluster-Promoting Quantization with Bit-Drop for Minimizing Network
Quantization Loss [61.26793005355441]
クラスタ・プロモーティング・量子化(CPQ)は、ニューラルネットワークに最適な量子化グリッドを見つける。
DropBitsは、ニューロンの代わりにランダムにビットをドロップする標準のドロップアウト正規化を改訂する新しいビットドロップ技術である。
本手法を様々なベンチマークデータセットとネットワークアーキテクチャ上で実験的に検証する。
論文 参考訳(メタデータ) (2021-09-05T15:15:07Z) - Understanding the Under-Coverage Bias in Uncertainty Estimation [58.03725169462616]
量子レグレッションは、現実の望ましいカバレッジレベルよりもアンファンダーカバー(enmphunder-cover)する傾向がある。
我々は、量子レグレッションが固有のアンダーカバーバイアスに悩まされていることを証明している。
我々の理論は、この過大被覆バイアスが特定の高次元パラメータ推定誤差に起因することを明らかにしている。
論文 参考訳(メタデータ) (2021-06-10T06:11:55Z) - Quantifying Uncertainty in Deep Spatiotemporal Forecasting [67.77102283276409]
本稿では,正規格子法とグラフ法という2種類の予測問題について述べる。
我々はベイジアンおよび頻繁な視点からUQ法を解析し、統計的決定理論を通じて統一的な枠組みを提示する。
実際の道路ネットワークのトラフィック、疫病、空気質予測タスクに関する広範な実験を通じて、異なるUQ手法の統計計算トレードオフを明らかにする。
論文 参考訳(メタデータ) (2021-05-25T14:35:46Z) - Regularization Strategies for Quantile Regression [8.232258589877942]
連続的な量子の分布に対するピンボール損失を最小化することは、特定の量子の予測のみを行う場合でも良い正則化器であることを示す。
格子モデルにより予測された分布を位置スケールの族に正規化できることを示す。
論文 参考訳(メタデータ) (2021-02-09T21:10:35Z) - Beyond Pinball Loss: Quantile Methods for Calibrated Uncertainty
Quantification [15.94100899123465]
それぞれの入力に対する真の条件量子化を予測するモデルは、全ての量子化レベルにおいて、基礎となる不確実性の正しい効率的な表現を示す。
現在の量子化法は、いわゆるピンボール損失の最適化に重点を置いている。
これらの欠点に対処する新しい量子的手法を開発した。
論文 参考訳(メタデータ) (2020-11-18T23:51:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。