論文の概要: Local and Global Trend Bayesian Exponential Smoothing Models
- arxiv url: http://arxiv.org/abs/2309.13950v2
- Date: Sat, 3 Feb 2024 03:45:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 05:08:15.149987
- Title: Local and Global Trend Bayesian Exponential Smoothing Models
- Title(参考訳): 局所的および世界的傾向ベイズ指数平滑化モデル
- Authors: Slawek Smyl, Christoph Bergmeir, Alexander Dokumentov, Xueying Long,
Erwin Wibowo, Daniel Schmidt
- Abstract要約: 本稿では、加法的および乗法的指数的平滑化モデルの一般化とみなすことができる季節・ノンシーズン時系列モデルのファミリーについて述べる。
我々のモデルは、加法から乗法へのスムーズな変化が可能な大域的な傾向を持ち、線形局所的傾向と組み合わせられる。
我々は、標準的な指数的滑らか化モデルよりも複雑で柔軟なこれらのモデルを正確に適合させるために、最先端のベイズフィッティング技術を活用している。
- 参考スコア(独自算出の注目度): 44.35200543895486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes a family of seasonal and non-seasonal time series models
that can be viewed as generalisations of additive and multiplicative
exponential smoothing models, to model series that grow faster than linear but
slower than exponential. Their development is motivated by fast-growing,
volatile time series. In particular, our models have a global trend that can
smoothly change from additive to multiplicative, and is combined with a linear
local trend. Seasonality when used is multiplicative in our models, and the
error is always additive but is heteroscedastic and can grow through a
parameter sigma. We leverage state-of-the-art Bayesian fitting techniques to
accurately fit these models that are more complex and flexible than standard
exponential smoothing models. When applied to the M3 competition data set, our
models outperform the best algorithms in the competition as well as other
benchmarks, thus achieving to the best of our knowledge the best results of
per-series univariate methods on this dataset in the literature. An open-source
software package of our method is available.
- Abstract(参考訳): 本稿では,加法的および乗法的指数的平滑化モデルの一般化と見なせる季節的・非季節的時系列モデルのファミリーを,指数関数よりも高速に成長するモデル系列に記述する。
彼らの発展は、急速な成長と揮発性の時系列によって動機づけられている。
特に,我々のモデルでは,加法から乗法へスムーズに変化できるグローバルトレンドと線形局所トレンドが組み合わさっている。
我々のモデルでは、使用時の季節性は乗法的であり、エラーは常に加法的であるが、ヘテロスセダティックであり、パラメータシグマによって成長することができる。
標準指数的平滑化モデルよりも複雑で柔軟であるこれらのモデルに正確に適合するために最先端のベイズフィッティング技術を利用する。
m3コンペティションデータセットに適用すると、我々のモデルはコンペティションにおける最良のアルゴリズムや他のベンチマークよりも優れており、このデータセットにおけるシリーズごとの不平等なメソッドの最高の結果を得ることができます。
本手法のオープンソースソフトウェアパッケージが利用可能である。
関連論文リスト
- Self-Supervised Learning for Time Series: A Review & Critique of FITS [0.0]
最近提案されたモデルFITSは、パラメータ数を大幅に削減した競合性能を主張する。
複雑な周波数領域で1層ニューラルネットワークをトレーニングすることで、これらの結果を再現することができる。
実験の結果,FITSは特に周期パターンや季節パターンの捕集に優れるが,トレンド,非周期的,ランダムな組立行動に苦慮していることがわかった。
論文 参考訳(メタデータ) (2024-10-23T23:03:09Z) - Learning Augmentation Policies from A Model Zoo for Time Series Forecasting [58.66211334969299]
本稿では,強化学習に基づく学習可能なデータ拡張手法であるAutoTSAugを紹介する。
限界サンプルを学習可能なポリシーで強化することにより、AutoTSAugは予測性能を大幅に改善する。
論文 参考訳(メタデータ) (2024-09-10T07:34:19Z) - Fast Gibbs sampling for the local and global trend Bayesian exponential smoothing model [6.099774114286838]
時系列の強い傾向とボラティリティを捉えることができる一般化された指数的平滑化モデルが提案された。
NUTSサンプリングをベースとしたフィッティング手順は非常に高価である。
提案手法は, 後部探査用サンプル採取装置の他に, オリジナルのモデルにいくつかの改良を加えて提案する。
論文 参考訳(メタデータ) (2024-06-29T16:49:28Z) - Heat Death of Generative Models in Closed-Loop Learning [63.83608300361159]
本研究では、独自の学習データセットに加えて、生成したコンテンツをフィードバックする生成モデルの学習ダイナミクスについて検討する。
各イテレーションで十分な量の外部データが導入されない限り、非自明な温度がモデルを退化させることを示す。
論文 参考訳(メタデータ) (2024-04-02T21:51:39Z) - Fusion of Gaussian Processes Predictions with Monte Carlo Sampling [61.31380086717422]
科学と工学において、私たちはしばしば興味のある変数の正確な予測のために設計されたモデルで作業します。
これらのモデルが現実の近似であることを認識し、複数のモデルを同じデータに適用し、結果を統合することが望ましい。
論文 参考訳(メタデータ) (2024-03-03T04:21:21Z) - Locally Adaptive and Differentiable Regression [10.194448186897906]
本稿では,局所学習モデルの重み付き平均値に基づいて,グローバルな連続・微分可能なモデルを構築するための一般的な枠組みを提案する。
局所モデルでカーネルリッジと回帰項を混合し、それらを連続的に縫合すると、理論上の統計的収束が早くなり、様々な実用的な設定で性能が向上することを示した。
論文 参考訳(メタデータ) (2023-08-14T19:12:40Z) - Deep incremental learning models for financial temporal tabular datasets
with distribution shifts [0.9790236766474201]
このフレームワークは、単純な基本的なビルディングブロック(決定木)を使用して、必要な複雑さの自己相似モデルを構築する。
我々は,NumeraiデータセットでトレーニングしたXGBoostモデルを用いて提案手法を実証し,異なるモデルスナップショット上での2層のXGBoostモデルの深部アンサンブルが高品質な予測を提供することを示す。
論文 参考訳(メタデータ) (2023-03-14T14:10:37Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Nonparametric Estimation in the Dynamic Bradley-Terry Model [69.70604365861121]
カーネルのスムース化に依存する新しい推定器を開発し、時間とともにペア比較を前処理する。
モデルに依存しない設定における推定誤差と余剰リスクの両方について時間変化のオラクル境界を導出する。
論文 参考訳(メタデータ) (2020-02-28T21:52:49Z) - Multivariate Probabilistic Time Series Forecasting via Conditioned
Normalizing Flows [8.859284959951204]
時系列予測は科学的・工学的な問題の基本である。
深層学習法はこの問題に適している。
多くの実世界のデータセットにおける標準メトリクスの最先端よりも改善されていることを示す。
論文 参考訳(メタデータ) (2020-02-14T16:16:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。