論文の概要: A Novel Theoretical Framework for Exponential Smoothing
- arxiv url: http://arxiv.org/abs/2403.04345v1
- Date: Thu, 7 Mar 2024 09:16:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 14:35:11.778751
- Title: A Novel Theoretical Framework for Exponential Smoothing
- Title(参考訳): 指数的平滑化の新しい理論的枠組み
- Authors: Enrico Bernardi, Alberto Lanconelli, Christopher S. A. Lauria
- Abstract要約: 単純な指数的滑らか化は、トレンド定常な近傍過程に収束することを示す。
このことは、指数的滑らか化過程が基礎となる傾向の信頼できる推定子をもたらすという新しい理論的な保証を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Simple Exponential Smoothing is a classical technique used for smoothing time
series data by assigning exponentially decreasing weights to past observations
through a recursive equation; it is sometimes presented as a rule of thumb
procedure. We introduce a novel theoretical perspective where the recursive
equation that defines simple exponential smoothing occurs naturally as a
stochastic gradient ascent scheme to optimize a sequence of Gaussian
log-likelihood functions. Under this lens of analysis, our main theorem shows
that -in a general setting- simple exponential smoothing converges to a
neighborhood of the trend of a trend-stationary stochastic process. This offers
a novel theoretical assurance that the exponential smoothing procedure yields
reliable estimators of the underlying trend shedding light on long-standing
observations in the literature regarding the robustness of simple exponential
smoothing.
- Abstract(参考訳): 単純指数平滑化(Simple Exponential Smoothing)は、指数関数的に減少する重みを過去の観測に再帰的方程式で割り当てることで時系列データの平滑化に使用される古典的な手法である。
単純な指数的滑らか化を定義する再帰方程式は、ガウス対数様関数の列を最適化する確率的勾配上昇スキームとして自然に発生する、新しい理論的視点を導入する。
この解析のレンズの下で、我々の主定理は-一般的な設定において、単純な指数的滑らか化はトレンド定常確率過程のトレンドの近傍に収束することを示している。
このことは、指数的平滑化法が、単純な指数的平滑化の堅牢性に関する文献における長年の観測に光を遮る基礎となるトレンドの信頼性の高い推定子をもたらすという新しい理論的な保証を提供する。
関連論文リスト
- Implicit Regularization for Tubal Tensor Factorizations via Gradient Descent [4.031100721019478]
遅延学習体制を超えて過度にパラメータ化されたテンソル分解問題における暗黙正則化の厳密な解析を行う。
勾配流ではなく勾配降下の種別の最初のテンソル結果を証明する。
論文 参考訳(メタデータ) (2024-10-21T17:52:01Z) - Stochastic Gradient Descent for Gaussian Processes Done Right [86.83678041846971]
emphdone right -- 最適化とカーネルコミュニティからの具体的な洞察を使用するという意味で -- が、勾配降下は非常に効果的であることを示している。
本稿では,直感的に設計を記述し,設計選択について説明する。
本手法は,分子結合親和性予測のための最先端グラフニューラルネットワークと同程度にガウス過程の回帰を配置する。
論文 参考訳(メタデータ) (2023-10-31T16:15:13Z) - Non-Parametric Learning of Stochastic Differential Equations with Non-asymptotic Fast Rates of Convergence [65.63201894457404]
非線形微分方程式のドリフトと拡散係数の同定のための新しい非パラメトリック学習パラダイムを提案する。
鍵となる考え方は、基本的には、対応するフォッカー・プランク方程式のRKHSに基づく近似をそのような観測に適合させることである。
論文 参考訳(メタデータ) (2023-05-24T20:43:47Z) - Understanding the Generalization Ability of Deep Learning Algorithms: A
Kernelized Renyi's Entropy Perspective [11.255943520955764]
本稿では,Renyiのエントロピーをカーネル化した新しい情報理論尺度を提案する。
我々は,Renyiエントロピーのカーネル化の下で,勾配/ランジュバン降下(SGD/SGLD)学習アルゴリズムの一般化誤差境界を確立する。
我々の情報理論的境界は勾配の統計に依存しており、現在のSOTA(State-of-the-art)結果よりも厳密であることを示す。
論文 参考訳(メタデータ) (2023-05-02T01:17:15Z) - Nonconvex Stochastic Scaled-Gradient Descent and Generalized Eigenvector
Problems [98.34292831923335]
オンライン相関解析の問題から,emphStochastic Scaled-Gradient Descent (SSD)アルゴリズムを提案する。
我々はこれらのアイデアをオンライン相関解析に適用し、局所収束率を正規性に比例した最適な1時間スケールのアルゴリズムを初めて導いた。
論文 参考訳(メタデータ) (2021-12-29T18:46:52Z) - On the Convergence of Stochastic Extragradient for Bilinear Games with
Restarted Iteration Averaging [96.13485146617322]
本稿では, ステップサイズが一定であるSEG法の解析を行い, 良好な収束をもたらす手法のバリエーションを示す。
平均化で拡張した場合、SEGはナッシュ平衡に確実に収束し、スケジュールされた再起動手順を組み込むことで、その速度が確実に加速されることを証明した。
論文 参考訳(メタデータ) (2021-06-30T17:51:36Z) - Theoretical Foundations of t-SNE for Visualizing High-Dimensional
Clustered Data [1.9199742103141069]
t分布次元近傍埋め込み(t-SNE)の理論的基礎に関する研究
勾配降下法に基づくt-SNE解析のための新しい理論的枠組みを提案する。
一般的な理論は、クラスタ化されたデータを視覚化するためのt-SNEの高速収束率と優れた実証性能を説明します。
論文 参考訳(メタデータ) (2021-05-16T22:43:20Z) - Stochastic Optimization with Heavy-Tailed Noise via Accelerated Gradient
Clipping [69.9674326582747]
そこで本研究では,重み付き分散雑音を用いたスムーズな凸最適化のための,クリップ付きSSTMと呼ばれる新しい1次高速化手法を提案する。
この場合、最先端の結果を上回る新たな複雑さが証明される。
本研究は,SGDにおいて,ノイズに対する光細かな仮定を伴わずにクリッピングを施した最初の非自明な高確率複雑性境界を導出した。
論文 参考訳(メタデータ) (2020-05-21T17:05:27Z) - SLEIPNIR: Deterministic and Provably Accurate Feature Expansion for
Gaussian Process Regression with Derivatives [86.01677297601624]
本稿では,2次フーリエ特徴に基づく導関数によるGP回帰のスケーリング手法を提案する。
我々は、近似されたカーネルと近似された後部の両方に適用される決定論的、非漸近的、指数関数的に高速な崩壊誤差境界を証明した。
論文 参考訳(メタデータ) (2020-03-05T14:33:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。