論文の概要: ConvTimeNet: A Deep Hierarchical Fully Convolutional Model for
Multivariate Time Series Analysis
- arxiv url: http://arxiv.org/abs/2403.01493v1
- Date: Sun, 3 Mar 2024 12:05:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 21:05:05.916054
- Title: ConvTimeNet: A Deep Hierarchical Fully Convolutional Model for
Multivariate Time Series Analysis
- Title(参考訳): ConvTimeNet:多変量時系列解析のための階層的完全畳み込みモデル
- Authors: Mingyue Cheng, Jiqian Yang, Tingyue Pan, Qi Liu, Zhi Li
- Abstract要約: ConvTimeNetは、時系列解析のための汎用モデルとして設計された、新しい階層的完全畳み込みネットワークである。
結果は、ほとんどの状況において、有効性という点で、一貫して強いベースラインを上回りました。
- 参考スコア(独自算出の注目度): 8.560776357590088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces ConvTimeNet, a novel deep hierarchical fully
convolutional network designed to serve as a general-purpose model for time
series analysis. The key design of this network is twofold, designed to
overcome the limitations of traditional convolutional networks. Firstly, we
propose an adaptive segmentation of time series into sub-series level patches,
treating these as fundamental modeling units. This setting avoids the sparsity
semantics associated with raw point-level time steps. Secondly, we design a
fully convolutional block by skillfully integrating deepwise and pointwise
convolution operations, following the advanced building block style employed in
Transformer encoders. This backbone network allows for the effective capture of
both global sequence and cross-variable dependence, as it not only incorporates
the advancements of Transformer architecture but also inherits the inherent
properties of convolution. Furthermore, multi-scale representations of given
time series instances can be learned by controlling the kernel size flexibly.
Extensive experiments are conducted on both time series forecasting and
classification tasks. The results consistently outperformed strong baselines in
most situations in terms of effectiveness.The code is publicly available.
- Abstract(参考訳): 本稿では,時系列解析のための汎用モデルとして設計された,新しい階層型完全畳み込みネットワークであるConvTimeNetを紹介する。
このネットワークの鍵となる設計は、従来の畳み込みネットワークの限界を克服するために設計された2つある。
まず,時系列のサブシリーズレベルパッチへの適応的なセグメンテーションを提案し,それらを基本的なモデリングユニットとして扱う。
この設定は、生のポイントレベルの時間ステップに関連するスパーシティセマンティクスを避ける。
第2に,Transformerエンコーダで使用される高度なビルディングブロックスタイルに従って,深部およびポイントワイドの畳み込み操作を巧みに統合して,完全な畳み込みブロックを設計する。
このバックボーンネットワークは、Transformerアーキテクチャの進歩を取り入れただけでなく、畳み込みの性質を継承するため、グローバルシーケンスとクロス変数依存の両方を効果的にキャプチャすることができる。
さらに、カーネルサイズを柔軟に制御することで、与えられた時系列インスタンスのマルチスケール表現を学習することができる。
時系列予測と分類の両面で広範な実験が行われている。
結果は、ほとんどの状況において、有効性という点で一貫して強力なベースラインを上回り、コードが公開されている。
関連論文リスト
- Unified Training of Universal Time Series Forecasting Transformers [110.79681024473159]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Kernel-U-Net: Symmetric and Hierarchical Architecture for Multivariate
Time Series Forecasting [2.0186752447895993]
Kernel-U-Netは対称的で階層的なU字型ニューラルネットワークアーキテクチャである。
1)特定のデータセットに適応するためのカーネルのカスタマイズの柔軟性、2)トランスフォーマー層の複雑さを線形に減らした計算効率の向上、である。
Kernel-U-Netのソースコードは、さらなる研究とアプリケーションのために公開されている。
論文 参考訳(メタデータ) (2024-01-03T00:49:51Z) - MultiResFormer: Transformer with Adaptive Multi-Resolution Modeling for
General Time Series Forecasting [18.990322695844675]
トランスフォーマーベースのモデルは、最近時系列予測の境界を大きく押し上げている。
既存のメソッドは通常、時系列データを$textitpatches$にエンコードする。
最適パッチ長を適応的に選択することで時間変動を動的にモデル化するMultiResFormerを提案する。
論文 参考訳(メタデータ) (2023-11-30T18:24:33Z) - Non-Separable Multi-Dimensional Network Flows for Visual Computing [62.50191141358778]
本研究では,非分離型多次元ネットワークフローに対する新しい定式化法を提案する。
フローは次元ごとに定義されるので、最大化フローは自動的に最適な特徴次元を選択する。
概念実証として,マルチオブジェクト追跡問題にフォーマリズムを適用し,ノイズに対するロバスト性の観点からMOT16ベンチマークのスカラー定式化よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-15T13:21:44Z) - TimeMAE: Self-Supervised Representations of Time Series with Decoupled
Masked Autoencoders [55.00904795497786]
トランスフォーマネットワークに基づく転送可能な時系列表現を学習するための,新しい自己教師型パラダイムであるTimeMAEを提案する。
TimeMAEは双方向符号化方式を用いて時系列の豊富な文脈表現を学習する。
新たに挿入されたマスク埋め込みによって生じる不一致を解消するため、分離されたオートエンコーダアーキテクチャを設計する。
論文 参考訳(メタデータ) (2023-03-01T08:33:16Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - Continuous-time convolutions model of event sequences [53.36665135225617]
イベントシーケンスデータの巨大なサンプルは、eコマース、ヘルスケア、ファイナンスなど、さまざまなドメインで発生します。
利用可能なデータの量とクライアント毎のイベントシーケンスの長さは典型的には大きいため、長期的なモデリングが必要である。
時間内の事象の一様発生に適した連続畳み込みニューラルネットワークに基づくCOTIC法を提案する。
論文 参考訳(メタデータ) (2023-02-13T10:34:51Z) - Learnable Dynamic Temporal Pooling for Time Series Classification [22.931314501371805]
本稿では,セグメントレベルの特徴を集約することにより,隠れ表現の時間的サイズを低減する動的時間的プーリング(DTP)手法を提案する。
時系列全体の分割を複数のセグメントに分割するために,動的時間ゆがみ(dtw)を用いて各時間点を時間順に整列し,セグメントの原型的特徴を示す。
完全連結層と組み合わせたDTP層は、入力時系列内の時間的位置を考慮したさらなる識別的特徴を抽出するのに役立つ。
論文 参考訳(メタデータ) (2021-04-02T08:58:44Z) - Cluster-Former: Clustering-based Sparse Transformer for Long-Range
Dependency Encoding [90.77031668988661]
Cluster-Formerはクラスタリングベースの新しいスパーストランスであり、チャンクされたシーケンスにまたがって注意を向ける。
提案されたフレームワークは、Sliding-Window LayerとCluster-Former Layerの2つのユニークなタイプのTransformer Layerにピボットされている。
実験によると、Cluster-Formerはいくつかの主要なQAベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-09-13T22:09:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。