論文の概要: Classification Models for Partially Ordered Sequences
- arxiv url: http://arxiv.org/abs/2102.00380v1
- Date: Sun, 31 Jan 2021 05:08:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 16:09:46.745974
- Title: Classification Models for Partially Ordered Sequences
- Title(参考訳): 部分順序付きシーケンスの分類モデル
- Authors: Stephanie Ger, Diego Klabjan and Jean Utke
- Abstract要約: 部分順序付きシーケンスに対する新しい変換器ベースモデルを提案する。
既存の順序不変モデルの拡張に対してベンチマークを行う。
変換器をベースとした等時モデルでは,3つのデータセット上で既存のモデルの拡張よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 15.426481600285724
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many models such as Long Short Term Memory (LSTMs), Gated Recurrent Units
(GRUs) and transformers have been developed to classify time series data with
the assumption that events in a sequence are ordered. On the other hand, fewer
models have been developed for set based inputs, where order does not matter.
There are several use cases where data is given as partially-ordered sequences
because of the granularity or uncertainty of time stamps. We introduce a novel
transformer based model for such prediction tasks, and benchmark against
extensions of existing order invariant models. We also discuss how transition
probabilities between events in a sequence can be used to improve model
performance. We show that the transformer-based equal-time model outperforms
extensions of existing set models on three data sets.
- Abstract(参考訳): シーケンス内のイベントが順序づけられると仮定して時系列データを分類するために、Long Short Term Memory (LSTM)、Gated Recurrent Units (GRU)、Transformerなどの多くのモデルが開発されている。
一方、順序が重要でないセットベースの入力のために、より少ないモデルが開発されている。
タイムスタンプの粒度や不確実性のため、データが部分的に順序付けされたシーケンスとして与えられるユースケースはいくつかある。
このような予測タスクのための新しいトランスフォーマーモデルと既存の順序不変モデルの拡張に対するベンチマークを紹介する。
また、シーケンス内のイベント間の遷移確率を用いてモデルの性能を向上させる方法について論じる。
トランスベースの等時間モデルが3つのデータセット上の既存の集合モデルの拡張を上回っていることを示した。
関連論文リスト
- Generalized Prompt Tuning: Adapting Frozen Univariate Time Series Foundation Models for Multivariate Healthcare Time Series [3.9599054392856483]
時系列基礎モデルは、大規模なデータセットで事前訓練され、様々なタスクで最先端のパフォーマンスを達成することができる。
我々は、既存の単変量時系列基礎モデルに適応できる、素早いチューニングインスパイアされた微調整技術Gen-P-Tuningを提案する。
2つのMIMIC分類課題とインフルエンザ様疾患予測における各種ベースラインに対する微調整アプローチの有効性を実証した。
論文 参考訳(メタデータ) (2024-11-19T19:20:58Z) - Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための生成変換器Timer-XLを提案する。
Timer-XLは、統一されたアプローチにより、挑戦的な予測ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - sTransformer: A Modular Approach for Extracting Inter-Sequential and Temporal Information for Time-Series Forecasting [6.434378359932152]
既存のTransformerベースのモデルを,(1)モデル構造の変更,(2)入力データの変更の2つのタイプに分類する。
我々は、シーケンシャル情報と時間情報の両方をフルにキャプチャするSequence and Temporal Convolutional Network(STCN)を導入する$textbfsTransformer$を提案する。
我々は,線形モデルと既存予測モデルとを長期時系列予測で比較し,新たな成果を得た。
論文 参考訳(メタデータ) (2024-08-19T06:23:41Z) - UniTST: Effectively Modeling Inter-Series and Intra-Series Dependencies for Multivariate Time Series Forecasting [98.12558945781693]
フラット化されたパッチトークンに統一された注意機構を含む変圧器ベースモデルUniTSTを提案する。
提案モデルでは単純なアーキテクチャを採用しているが,時系列予測のためのいくつかのデータセットの実験で示されたような,魅力的な性能を提供する。
論文 参考訳(メタデータ) (2024-06-07T14:39:28Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Mutual Exclusivity Training and Primitive Augmentation to Induce
Compositionality [84.94877848357896]
最近のデータセットは、標準的なシーケンス・ツー・シーケンスモデルにおける体系的な一般化能力の欠如を露呈している。
本稿では,セq2seqモデルの振る舞いを分析し,相互排他バイアスの欠如と全例を記憶する傾向の2つの要因を同定する。
広範に使用されている2つの構成性データセット上で、標準的なシーケンス・ツー・シーケンスモデルを用いて、経験的改善を示す。
論文 参考訳(メタデータ) (2022-11-28T17:36:41Z) - GAMMT: Generative Ambiguity Modeling Using Multiple Transformers [0.0]
本稿では,GAMMT (Generative Ambiguity Models using Multiple Transformer) と呼ばれる新しいモデルを提案する。
我々のアプローチは、シーケンスのデータ生成プロセスが決定論的ではなく、むしろ曖昧で確率の集合の影響を受けていることを認めている。
論文 参考訳(メタデータ) (2022-11-16T06:24:26Z) - Variational Hyper RNN for Sequence Modeling [69.0659591456772]
本稿では,時系列データにおける高変数の取得に優れる新しい確率的シーケンスモデルを提案する。
提案手法では,時間潜時変数を用いて基礎となるデータパターンに関する情報をキャプチャする。
提案手法の有効性を,合成および実世界のシーケンシャルデータに示す。
論文 参考訳(メタデータ) (2020-02-24T19:30:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。