論文の概要: DCSF: Deep Convolutional Set Functions for Classification of
Asynchronous Time Series
- arxiv url: http://arxiv.org/abs/2208.11374v1
- Date: Wed, 24 Aug 2022 08:47:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-25 13:03:09.501367
- Title: DCSF: Deep Convolutional Set Functions for Classification of
Asynchronous Time Series
- Title(参考訳): DCSF: 非同期時系列の分類のための深部畳み込み集合関数
- Authors: Vijaya Krishna Yalavarthi, Johannes Burchert, Lars Schmidt-Thieme
- Abstract要約: 非同期時系列(Asynchronous Time Series)は、すべてのチャンネルが非同期に独立して観察される時系列である。
本稿では,非同期時系列分類タスクにおいて,高度にスケーラブルでメモリ効率のよい新しいフレームワークを提案する。
我々は、定期的にサンプリングされ、完全に観測される時系列の、密接に関連する問題分類のためによく研究されている畳み込みニューラルネットワークを探索する。
- 参考スコア(独自算出の注目度): 5.339109578928972
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Asynchronous Time Series is a multivariate time series where all the channels
are observed asynchronously-independently, making the time series extremely
sparse when aligning them. We often observe this effect in applications with
complex observation processes, such as health care, climate science, and
astronomy, to name a few. Because of the asynchronous nature, they pose a
significant challenge to deep learning architectures, which presume that the
time series presented to them are regularly sampled, fully observed, and
aligned with respect to time. This paper proposes a novel framework, that we
call Deep Convolutional Set Functions (DCSF), which is highly scalable and
memory efficient, for the asynchronous time series classification task. With
the recent advancements in deep set learning architectures, we introduce a
model that is invariant to the order in which time series' channels are
presented to it. We explore convolutional neural networks, which are well
researched for the closely related problem-classification of regularly sampled
and fully observed time series, for encoding the set elements. We evaluate DCSF
for AsTS classification, and online (per time point) AsTS classification. Our
extensive experiments on multiple real-world and synthetic datasets verify that
the suggested model performs substantially better than a range of
state-of-the-art models in terms of accuracy and run time.
- Abstract(参考訳): 非同期時系列(Asynchronous Time Series)は、すべてのチャンネルが非同期に独立して観察される多変量時系列である。
我々は、医療、気候科学、天文学などの複雑な観察プロセスを持つアプリケーションでこの効果をしばしば観察し、いくつか挙げる。
非同期性のため、これらはディープラーニングアーキテクチャに重大な課題をもたらし、それらに提示された時系列が定期的にサンプリングされ、完全に観察され、時間に関して整合していると仮定する。
本稿では,非同期時系列分類タスクにおいて,高度にスケーラブルでメモリ効率の良いDeep Convolutional Set Function (DCSF) と呼ぶ新しいフレームワークを提案する。
近年のディープラーニングアーキテクチャの進歩により,時系列のチャネルが提示される順序に不変なモデルが導入された。
規則的サンプルと完全観測された時系列の密接な問題分類のためによく研究されている畳み込みニューラルネットワークについて検討する。
AsTS分類のためのDCSFとオンライン(時間単位)ASTS分類の評価を行った。
複数の実世界および合成データセットに関する広範な実験により、提案モデルが、精度と実行時間の観点から、最先端モデルよりも大幅に優れていることを検証した。
関連論文リスト
- Moirai-MoE: Empowering Time Series Foundation Models with Sparse Mixture of Experts [103.725112190618]
本稿では,単一入出力プロジェクション層を用いたMoirai-MoEを紹介するとともに,多種多様な時系列パターンのモデリングを専門家の疎結合に委ねる。
39のデータセットに対する大規模な実験は、既存の基盤モデルよりも、分配シナリオとゼロショットシナリオの両方において、Moirai-MoEの優位性を実証している。
論文 参考訳(メタデータ) (2024-10-14T13:01:11Z) - TSCMamba: Mamba Meets Multi-View Learning for Time Series Classification [13.110156202816112]
時系列分類のための補完的コンテキストを提供するために、周波数領域と時間領域の機能を統合した新しいマルチビューアプローチを提案する。
本手法は,連続ウェーブレット変換スペクトル特徴を時間的畳み込みあるいは多層パーセプトロン特徴と融合する。
10の標準ベンチマークデータセットによる実験は、我々のアプローチが最先端のTSCモデルよりも平均6.45%の精度向上を達成することを示した。
論文 参考訳(メタデータ) (2024-06-06T18:05:10Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [67.02157180089573]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - Learning Gaussian Mixture Representations for Tensor Time Series
Forecasting [8.31607451942671]
我々は、時間、位置、およびソース変数に暗示される各不均一成分を個別にモデル化する新しいTS予測フレームワークを開発する。
2つの実世界のTSデータセットによる実験結果は、最先端のベースラインと比較して、我々のアプローチの優位性を検証する。
論文 参考訳(メタデータ) (2023-06-01T06:50:47Z) - HyperTime: Implicit Neural Representation for Time Series [131.57172578210256]
暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:05:51Z) - Novel Features for Time Series Analysis: A Complex Networks Approach [62.997667081978825]
時系列データは、気候、経済、医療などいくつかの領域で広く使われている。
最近の概念的アプローチは、複雑なネットワークへの時系列マッピングに依存している。
ネットワーク分析は、異なるタイプの時系列を特徴付けるのに使うことができる。
論文 参考訳(メタデータ) (2021-10-11T13:46:28Z) - Learnable Dynamic Temporal Pooling for Time Series Classification [22.931314501371805]
本稿では,セグメントレベルの特徴を集約することにより,隠れ表現の時間的サイズを低減する動的時間的プーリング(DTP)手法を提案する。
時系列全体の分割を複数のセグメントに分割するために,動的時間ゆがみ(dtw)を用いて各時間点を時間順に整列し,セグメントの原型的特徴を示す。
完全連結層と組み合わせたDTP層は、入力時系列内の時間的位置を考慮したさらなる識別的特徴を抽出するのに役立つ。
論文 参考訳(メタデータ) (2021-04-02T08:58:44Z) - Synergetic Learning of Heterogeneous Temporal Sequences for
Multi-Horizon Probabilistic Forecasting [48.8617204809538]
本稿では,新しい条件生成モデルである変分相乗型マルチホライゾンネットワーク(VSMHN)を提案する。
不均一なシーケンス間で複雑な相関関係を学習するために、深部プロセスモデルと変動的リカレントニューラルネットワークの進歩を組み合わせるために、調整されたエンコーダが考案された。
我々のモデルは変動予測を用いて効果的に訓練でき、モンテカルロシミュレーションを用いて予測を生成することができる。
論文 参考訳(メタデータ) (2021-01-31T11:00:55Z) - Multi-Faceted Representation Learning with Hybrid Architecture for Time
Series Classification [16.64345034889185]
SARCoN(Self-Attentive Recurrent Convolutional Networks)と呼ばれるハイブリッドニューラルネットワークを提案する。
SARCoNは、長期記憶ネットワークと自己拡張機構と完全な畳み込みネットワークの合成である。
我々の研究は、時系列分類の理解を深める新しいアングルを提供し、提案したモデルを現実世界のアプリケーションに最適な選択肢とみなす。
論文 参考訳(メタデータ) (2020-12-21T16:42:07Z) - A Deep Structural Model for Analyzing Correlated Multivariate Time
Series [11.009809732645888]
相関した多変量時系列入力を処理できる深層学習構造時系列モデルを提案する。
モデルは、トレンド、季節性、イベントコンポーネントを明示的に学習し、抽出する。
我々は,様々な時系列データセットに関する総合的な実験を通して,そのモデルと最先端のいくつかの手法を比較した。
論文 参考訳(メタデータ) (2020-01-02T18:48:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。