論文の概要: Continuous-time convolutions model of event sequences
- arxiv url: http://arxiv.org/abs/2302.06247v2
- Date: Tue, 3 Sep 2024 18:41:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-07 07:10:38.206611
- Title: Continuous-time convolutions model of event sequences
- Title(参考訳): イベントシーケンスの連続時間畳み込みモデル
- Authors: Vladislav Zhuzhel, Vsevolod Grabar, Galina Boeva, Artem Zabolotnyi, Alexander Stepikin, Vladimir Zholobov, Maria Ivanova, Mikhail Orlov, Ivan Kireev, Evgeny Burnaev, Rodrigo Rivera-Castro, Alexey Zaytsev,
- Abstract要約: イベントシーケンスは不均一でスパースであり、従来のモデルは不適当である。
我々は、時間とともに一様でない事象の発生を処理するために設計された効率的な畳み込みニューラルネットワークに基づくCOTICを提案する。
COTICは、次のイベント時間とタイプを予測する際に既存のモデルよりも優れており、最も近いライバルの3.714と比較して平均1.5のランクに達している。
- 参考スコア(独自算出の注目度): 46.3471121117337
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event sequences often emerge in data mining. Modeling these sequences presents two main challenges: methodological and computational. Methodologically, event sequences are non-uniform and sparse, making traditional models unsuitable. Computationally, the vast amount of data and the significant length of each sequence necessitate complex and efficient models. Existing solutions, such as recurrent and transformer neural networks, rely on parametric intensity functions defined at each moment. These functions are either limited in their ability to represent complex event sequences or notably inefficient. We propose COTIC, a method based on an efficient convolution neural network designed to handle the non-uniform occurrence of events over time. Our paper introduces a continuous convolution layer, allowing a model to capture complex dependencies, including, e.g., the self-excitement effect, with little computational expense. COTIC outperforms existing models in predicting the next event time and type, achieving an average rank of 1.5 compared to 3.714 for the nearest competitor. Furthermore, COTIC`s ability to produce effective embeddings demonstrates its potential for various downstream tasks. Our code is open and available at: https://github.com/VladislavZh/COTIC.
- Abstract(参考訳): イベントシーケンスは、しばしばデータマイニングに現れる。
これらのシーケンスをモデル化することは、方法論と計算の2つの主な課題を示す。
方法論的には、イベントシーケンスは一様でなくスパースであり、伝統的なモデルは不適当である。
計算上、大量のデータと各シーケンスのかなりの長さは複雑で効率的なモデルを必要とする。
リカレントやトランスフォーマーニューラルネットワークといった既存のソリューションは、各瞬間で定義されたパラメトリック強度関数に依存している。
これらの関数は、複雑なイベントシーケンスを表現する能力に制限があるか、特に非効率である。
我々は、時間とともに一様でない事象の発生を処理するために設計された効率的な畳み込みニューラルネットワークに基づくCOTICを提案する。
本稿では,モデルが計算コストの少ない自己引用効果を含む複雑な依存関係をキャプチャできる連続的畳み込み層を提案する。
COTICは、次のイベント時間とタイプを予測する際に既存のモデルよりも優れており、最も近いライバルの3.714と比較して平均1.5のランクに達している。
さらに、効果的な埋め込みを生成するCOTICの能力は、様々な下流タスクの可能性を示している。
私たちのコードは、https://github.com/VladislavZh/COTIC.comで公開されています。
関連論文リスト
- Scalable Event-by-event Processing of Neuromorphic Sensory Signals With Deep State-Space Models [2.551844666707809]
イベントベースのセンサーはリアルタイム処理に適している。
現在の方法では、イベントをフレームに分解するか、イベントデータをイベント単位で直接処理する場合にスケールアップできない。
論文 参考訳(メタデータ) (2024-04-29T08:50:27Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - XTSFormer: Cross-Temporal-Scale Transformer for Irregular Time Event
Prediction [9.240950990926796]
イベント予測は、過去のイベントシーケンスに基づいて、将来のイベントの時間とタイプを予測することを目的としている。
その重要性にもかかわらず、連続するイベント間の時間間隔の不規則性、サイクルの存在、周期性、マルチスケールのイベント相互作用など、いくつかの課題が存在する。
論文 参考訳(メタデータ) (2024-02-03T20:33:39Z) - Probabilistic Modeling for Sequences of Sets in Continuous-Time [14.423456635520084]
設定値データを連続的にモデリングするための一般的なフレームワークを開発する。
また,そのようなモデルを用いて確率的クエリに答える推論手法も開発している。
論文 参考訳(メタデータ) (2023-12-22T20:16:10Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - Synergetic Learning of Heterogeneous Temporal Sequences for
Multi-Horizon Probabilistic Forecasting [48.8617204809538]
本稿では,新しい条件生成モデルである変分相乗型マルチホライゾンネットワーク(VSMHN)を提案する。
不均一なシーケンス間で複雑な相関関係を学習するために、深部プロセスモデルと変動的リカレントニューラルネットワークの進歩を組み合わせるために、調整されたエンコーダが考案された。
我々のモデルは変動予測を用いて効果的に訓練でき、モンテカルロシミュレーションを用いて予測を生成することができる。
論文 参考訳(メタデータ) (2021-01-31T11:00:55Z) - User-Dependent Neural Sequence Models for Continuous-Time Event Data [27.45413274751265]
継続的イベントデータは、個々の行動データ、金融取引、医療健康記録などのアプリケーションで一般的である。
時間変化強度関数をパラメータ化するリカレントニューラルネットワークは、そのようなデータを用いた予測モデリングの最先端技術である。
本稿では,ニューラルマーク点過程モデルの幅広いクラスを,潜伏埋め込みの混合に拡張する。
論文 参考訳(メタデータ) (2020-11-06T08:32:57Z) - A Multi-Channel Neural Graphical Event Model with Negative Evidence [76.51278722190607]
イベントデータセットは、タイムライン上で不規則に発生するさまざまなタイプのイベントのシーケンスである。
基礎となる強度関数を推定するために,非パラメトリックディープニューラルネットワーク手法を提案する。
論文 参考訳(メタデータ) (2020-02-21T23:10:50Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。