論文の概要: Time Series Forecasting via Learning Convolutionally Low-Rank Models
- arxiv url: http://arxiv.org/abs/2104.11510v1
- Date: Fri, 23 Apr 2021 09:53:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 13:14:16.528301
- Title: Time Series Forecasting via Learning Convolutionally Low-Rank Models
- Title(参考訳): 畳み込み低ランクモデルの学習による時系列予測
- Authors: Guangcan Liu
- Abstract要約: 最近、citetliu:arxiv: 2019は圧縮センシングの観点から時系列予測のかなり難しい問題を研究した。
彼らは、Convolution Nuclear Norm Minimization(CNNM)と呼ばれる非学習方法を提案し、CNNMが観察された部分からシリーズの将来の部分を正確に回復できることを証明しました。
本稿では,学習可能な正規直交変換をcnnmに統合することでこの問題にアプローチする。
学習に基づくcnnm (lbcnnm) と呼ばれる結果モデルが, 系列の将来的な部分の同定に厳密に成功することを証明した。
- 参考スコア(独自算出の注目度): 18.61160269442917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently,~\citet{liu:arxiv:2019} studied the rather challenging problem of
time series forecasting from the perspective of compressed sensing. They
proposed a no-learning method, named Convolution Nuclear Norm Minimization
(CNNM), and proved that CNNM can exactly recover the future part of a series
from its observed part, provided that the series is convolutionally low-rank.
While impressive, the convolutional low-rankness condition may not be satisfied
whenever the series is far from being seasonal, and is in fact brittle to the
presence of trends and dynamics. This paper tries to approach the issues by
integrating a learnable, orthonormal transformation into CNNM, with the purpose
for converting the series of involute structures into regular signals of
convolutionally low-rank. We prove that the resulted model, termed
Learning-Based CNNM (LbCNNM), strictly succeeds in identifying the future part
of a series, as long as the transform of the series is convolutionally
low-rank. To learn proper transformations that may meet the required success
conditions, we devise an interpretable method based on Principal Component
Purist (PCP). Equipped with this learning method and some elaborate data
argumentation skills, LbCNNM not only can handle well the major components of
time series (including trends, seasonality and dynamics), but also can make use
of the forecasts provided by some other forecasting methods; this means LbCNNM
can be used as a general tool for model combination. Extensive experiments on
100,452 real-world time series from TSDL and M4 demonstrate the superior
performance of LbCNNM.
- Abstract(参考訳): 最近、-\citet{liu:arxiv:2019} は圧縮センシングの観点から時系列予測のかなり困難な問題を研究した。
彼らは畳み込み核ノルム最小化(convolution nuclear norm minimization, cnnm)という無学習法を提案し、cnnmがその観測された部分から系列の将来部分を正確に回復できることを証明した。
印象的ではあるが、コンボリューション的低ランク性条件は、シリーズが季節的でないと満足せず、実際にはトレンドやダイナミクスの存在に不安定である。
本稿では,学習可能な正規正規直交変換をcnnmに統合し,一連の畳み込み構造を畳み込み的に低いランクの正規信号に変換することを目的とした。
結果として得られたモデルであるLbCNNM(LbCNNM)は,シリーズの変換が畳み込み的に低ランクである限り,シリーズの将来部分を特定することに成功している。
必要な成功条件を満たした適切な変換を学習するために,主成分純度(pcp)に基づく解釈可能な手法を考案する。
この学習方法といくつかの精巧なデータ議論スキルを備えたlbcnnmは、時系列(トレンド、季節性、ダイナミクスを含む)の主要な構成要素をうまく処理できるだけでなく、他のいくつかの予測方法によって提供される予測を活用できる。
TSDLおよびM4からの100,452個の実時間時系列に対する大規模な実験は、LbCNNMの優れた性能を示す。
関連論文リスト
- Blending Low and High-Level Semantics of Time Series for Better Masked Time Series Generation [0.8999666725996975]
NC-VQVAEと呼ばれる新しいフレームワークを導入し、時系列生成アプローチに自己教師付き学習を統合する。
NC-VQVAEは, 合成試料の品質を著しく向上させることを示した。
論文 参考訳(メタデータ) (2024-08-29T15:20:17Z) - Unsupervised Pre-training with Language-Vision Prompts for Low-Data Instance Segmentation [105.23631749213729]
低データ体制における教師なし事前学習のための新しい手法を提案する。
最近成功したプロンプト技術に触発されて,言語ビジョンプロンプトを用いた教師なし事前学習法を導入した。
提案手法は,低データ方式のCNNモデルよりも高速に収束し,性能がよいことを示す。
論文 参考訳(メタデータ) (2024-05-22T06:48:43Z) - Large Language Models Are Zero-Shot Time Series Forecasters [48.73953666153385]
時系列を数値桁の列として符号化することにより、テキストの次トーケン予測として時系列予測をフレーム化することができる。
GPT-3 や LLaMA-2 のような大規模言語モデル (LLM) は、ダウンストリームタスクでトレーニングされた目的構築された時系列モデルの性能に匹敵する、あるいはそれ以上のレベルにおいて、驚くほどゼロショット・エクスポレート・時系列を生成できる。
論文 参考訳(メタデータ) (2023-10-11T19:01:28Z) - TACTiS-2: Better, Faster, Simpler Attentional Copulas for Multivariate Time Series [57.4208255711412]
パウラ理論に基づいて,最近導入されたトランスフォーマーに基づく注目パウラ(TACTiS)の簡易な目的を提案する。
結果から,実世界の予測タスクにまたがって,このモデルのトレーニング性能が大幅に向上し,最先端のパフォーマンスが達成できることが示唆された。
論文 参考訳(メタデータ) (2023-10-02T16:45:19Z) - A Novel Method Combines Moving Fronts, Data Decomposition and Deep
Learning to Forecast Intricate Time Series [0.0]
インド・サマーモンスーン・レインフォール(英語: Indian Summer Monsoon Rainfall、ISMR)は、インドの都市。
従来のワンタイム分解技術は、未来からの情報が漏れることに悩まされている。
データ漏洩を防止するために移動フロント(MF)法を提案する。
論文 参考訳(メタデータ) (2023-03-11T12:07:26Z) - Learning a Restricted Boltzmann Machine using biased Monte Carlo
sampling [0.6554326244334867]
マルコフ・チェイン・モンテカルロによる平衡分布のサンプリングはバイアスサンプリング法により劇的に加速できることを示す。
また、このサンプリング手法を用いて、トレーニング中のログライクな勾配の計算を改善することも示している。
論文 参考訳(メタデータ) (2022-06-02T21:29:01Z) - CoST: Contrastive Learning of Disentangled Seasonal-Trend
Representations for Time Series Forecasting [35.76867542099019]
我々はCoSTという新しい時系列表現学習フレームワークを提案する。
コントラスト学習法を用いて季節差表現を学習する。
実世界のデータセットの実験では、CoSTが最先端のメソッドを一貫して上回っていることが示されている。
論文 参考訳(メタデータ) (2022-02-03T13:17:38Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z) - MMCGAN: Generative Adversarial Network with Explicit Manifold Prior [78.58159882218378]
本稿では,モード崩壊を緩和し,GANのトレーニングを安定させるために,明示的な多様体学習を採用することを提案する。
玩具データと実データの両方を用いた実験により,MMCGANのモード崩壊緩和効果,トレーニングの安定化,生成サンプルの品質向上効果が示された。
論文 参考訳(メタデータ) (2020-06-18T07:38:54Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。