論文の概要: TimeMKG: Knowledge-Infused Causal Reasoning for Multivariate Time Series Modeling
- arxiv url: http://arxiv.org/abs/2508.09630v2
- Date: Fri, 15 Aug 2025 05:09:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 12:50:03.097432
- Title: TimeMKG: Knowledge-Infused Causal Reasoning for Multivariate Time Series Modeling
- Title(参考訳): TimeMKG:多変量時系列モデリングのための知識注入因果推論
- Authors: Yifei Sun, Junming Liu, Yirong Chen, Xuefeng Yan, Ding Wang,
- Abstract要約: TimeMKGは低レベル信号処理から知識情報推論までの時系列モデリングを高める。
クロスモダリティアテンションは、下流タスクに因果前処理を注入して、変数レベルで表現を整列させる。
多様なデータセットの実験では、変数レベルの知識を組み込むことで、予測性能と一般化の両方が大幅に改善されることが示されている。
- 参考スコア(独自算出の注目度): 19.07644799215496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multivariate time series data typically comprises two distinct modalities: variable semantics and sampled numerical observations. Traditional time series models treat variables as anonymous statistical signals, overlooking the rich semantic information embedded in variable names and data descriptions. However, these textual descriptors often encode critical domain knowledge that is essential for robust and interpretable modeling. Here we present TimeMKG, a multimodal causal reasoning framework that elevates time series modeling from low-level signal processing to knowledge informed inference. TimeMKG employs large language models to interpret variable semantics and constructs structured Multivariate Knowledge Graphs that capture inter-variable relationships. A dual-modality encoder separately models the semantic prompts, generated from knowledge graph triplets, and the statistical patterns from historical time series. Cross-modality attention aligns and fuses these representations at the variable level, injecting causal priors into downstream tasks such as forecasting and classification, providing explicit and interpretable priors to guide model reasoning. The experiment in diverse datasets demonstrates that incorporating variable-level knowledge significantly improves both predictive performance and generalization.
- Abstract(参考訳): 多変量時系列データは通常、変数意味論とサンプル数値観察の2つの異なるモードから構成される。
伝統的な時系列モデルは変数を匿名の統計信号として扱い、変数名やデータ記述に埋め込まれた豊富な意味情報を見渡す。
しかしながら、これらのテキスト記述子は、堅牢で解釈可能なモデリングに不可欠な重要なドメイン知識を符号化することが多い。
本稿では、低レベル信号処理から知識情報推論への時系列モデリングを高めるマルチモーダル因果推論フレームワークであるTimeMKGを紹介する。
TimeMKGは、変数のセマンティクスを解釈するために大きな言語モデルを使用し、変数間の関係をキャプチャする構造化多変量知識グラフを構築する。
双対モダリティエンコーダは、知識グラフ三重項から生成される意味的プロンプトと、歴史的時系列からの統計的パターンを別々にモデル化する。
クロスモダリティの注意は、これらの表現を変数レベルで整列させ、予測や分類といった下流のタスクに因果先を注入し、モデル推論をガイドするための明示的で解釈可能な先行を提供する。
多様なデータセットの実験は、変数レベルの知識を取り入れることで予測性能と一般化の両方が大幅に改善されることを示した。
関連論文リスト
- MFRS: A Multi-Frequency Reference Series Approach to Scalable and Accurate Time-Series Forecasting [51.94256702463408]
時系列予測は、周波数の異なる周期特性から導かれる。
マルチ周波数参照系列相関解析に基づく新しい時系列予測手法を提案する。
主要なオープンデータセットと合成データセットの実験は、最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-03-11T11:40:14Z) - TimesBERT: A BERT-Style Foundation Model for Time Series Understanding [72.64824086839631]
GPTスタイルのモデルは時系列予測の基礎モデルとして位置づけられている。
BERTスタイルのアーキテクチャは時系列理解のために完全にアンロックされていない。
時系列の汎用表現を学ぶために TimesBERT を設計する。
私たちのモデルは、さまざまなドメインにまたがる2600億のタイムポイントで事前トレーニングされています。
論文 参考訳(メタデータ) (2025-02-28T17:14:44Z) - Metadata Matters for Time Series: Informative Forecasting with Transformers [70.38241681764738]
時系列予測のためのMetaTST(Metadata-informed Time Series Transformer)を提案する。
メタデータの非構造化の性質に取り組むため、MetaTSTは、事前に設計されたテンプレートによってそれらを自然言語に形式化する。
Transformerエンコーダは、メタデータ情報によるシーケンス表現を拡張するシリーズトークンとメタデータトークンの通信に使用される。
論文 参考訳(メタデータ) (2024-10-04T11:37:55Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - Multi-Modal Prototype Learning for Interpretable Multivariable Time
Series Classification [0.0]
多変量時系列分類問題は、有病率と複雑性が増大している。
ディープラーニング手法はこれらの問題に有効なツールであるが、解釈可能性に欠けることが多い。
多変数時系列分類のための新しいモジュール型プロトタイプ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-17T16:32:47Z) - Model-Attentive Ensemble Learning for Sequence Modeling [86.4785354333566]
シーケンスモデリング(MAES)のためのモデル・アテンティブ・アンサンブル・ラーニングを提案する。
MAESは、異なるシーケンスダイナミクスの専門家を専門とし、予測を適応的に重み付けるために、注目ベースのゲーティングメカニズムを利用する時系列の専門家の混合物です。
MAESが時系列シフトを受けるデータセットの人気シーケンスモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2021-02-23T05:23:35Z) - Explainable Multivariate Time Series Classification: A Deep Neural
Network Which Learns To Attend To Important Variables As Well As Informative
Time Intervals [32.30627405832656]
時系列データは、様々な現実世界のアプリケーションで広く使われている。
このような予測モデルを理解するための重要な基準は、分類に対する時間変化の入力変数の寄与を解明し定量化することである。
本稿では,変数と時間間隔を同時に識別し,分類出力を決定する新しい,モジュール型・畳み込み型特徴抽出・注目機構を提案する。
論文 参考訳(メタデータ) (2020-11-23T19:16:46Z) - Spatiotemporal Attention for Multivariate Time Series Prediction and
Interpretation [17.568599402858037]
最も重要な時間ステップと変数の同時学習のための時間的注意機構(STAM)。
結果: STAMは最先端の予測精度を維持しつつ,正確な解釈可能性の利点を提供する。
論文 参考訳(メタデータ) (2020-08-11T17:34:55Z) - Connecting the Dots: Multivariate Time Series Forecasting with Graph
Neural Networks [91.65637773358347]
多変量時系列データに特化して設計された汎用グラフニューラルネットワークフレームワークを提案する。
グラフ学習モジュールを用いて,変数間の一方向関係を自動的に抽出する。
提案手法は,4つのベンチマークデータセットのうち3つにおいて,最先端のベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2020-05-24T04:02:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。