論文の概要: Spatiotemporal Modeling of Multivariate Signals With Graph Neural
Networks and Structured State Space Models
- arxiv url: http://arxiv.org/abs/2211.11176v1
- Date: Mon, 21 Nov 2022 04:46:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 19:13:58.275570
- Title: Spatiotemporal Modeling of Multivariate Signals With Graph Neural
Networks and Structured State Space Models
- Title(参考訳): グラフニューラルネットワークと構造化状態空間モデルによる多変量信号の時空間モデリング
- Authors: Siyi Tang, Jared A. Dunnmon, Liangqiong Qu, Khaled K. Saab,
Christopher Lee-Messer, Daniel L. Rubin
- Abstract要約: 多変量信号における空間的および時間的依存関係をキャプチャする汎用グラフニューラルネットワーク(GNN)アーキテクチャを提案する。
具体的には、構造化状態空間モデル(Structured State Spaces Model, S4)を用いて、長期の時間的依存関係をキャプチャする。
提案手法は,既存のモデルよりも一貫した改善を示す3つの異なるタスクに対して評価する。
- 参考スコア(独自算出の注目度): 4.876801023851097
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multivariate signals are prevalent in various domains, such as healthcare,
transportation systems, and space sciences. Modeling spatiotemporal
dependencies in multivariate signals is challenging due to (1) long-range
temporal dependencies and (2) complex spatial correlations between sensors. To
address these challenges, we propose representing multivariate signals as
graphs and introduce GraphS4mer, a general graph neural network (GNN)
architecture that captures both spatial and temporal dependencies in
multivariate signals. Specifically, (1) we leverage Structured State Spaces
model (S4), a state-of-the-art sequence model, to capture long-term temporal
dependencies and (2) we propose a graph structure learning layer in GraphS4mer
to learn dynamically evolving graph structures in the data. We evaluate our
proposed model on three distinct tasks and show that GraphS4mer consistently
improves over existing models, including (1) seizure detection from
electroencephalography signals, outperforming a previous GNN with
self-supervised pretraining by 3.1 points in AUROC; (2) sleep staging from
polysomnography signals, a 4.1 points improvement in macro-F1 score compared to
existing sleep staging models; and (3) traffic forecasting, reducing MAE by
8.8% compared to existing GNNs and by 1.4% compared to Transformer-based
models.
- Abstract(参考訳): 多変量信号は医療、輸送システム、宇宙科学など様々な領域で広く使われている。
多変量信号の時空間依存性のモデル化は,(1)長距離時間依存性と(2)センサ間の複雑な空間相関により困難である。
これらの課題に対処するために,多変量信号をグラフとして表現し,多変量信号の空間的および時間的依存性をキャプチャする汎用グラフニューラルネットワーク(gnn)アーキテクチャであるgraphs4merを提案する。
具体的には,(1)最先端シーケンスモデルである構造化状態空間モデル(s4)を用いて長期の時間依存性を捉え,(2)グラフ構造学習層をgraphs4merで提案し,データ内の動的に進化するグラフ構造を学習する。
We evaluate our proposed model on three distinct tasks and show that GraphS4mer consistently improves over existing models, including (1) seizure detection from electroencephalography signals, outperforming a previous GNN with self-supervised pretraining by 3.1 points in AUROC; (2) sleep staging from polysomnography signals, a 4.1 points improvement in macro-F1 score compared to existing sleep staging models; and (3) traffic forecasting, reducing MAE by 8.8% compared to existing GNNs and by 1.4% compared to Transformer-based models.
関連論文リスト
- State Space Models on Temporal Graphs: A First-Principles Study [30.531930200222423]
深層グラフ学習の研究は、動的挙動を示す実世界の複雑なシステムに応答して、静的グラフから時間グラフへ移行した。
RNNやTransformerのようなシーケンスモデルは、このような時間グラフをモデル化するための主要なバックボーンネットワークである。
時間グラフのダイナミクスをモデル化するためのグラフ状態空間モデルであるGraphSSMを開発した。
論文 参考訳(メタデータ) (2024-06-03T02:56:11Z) - Hierarchical Joint Graph Learning and Multivariate Time Series
Forecasting [0.16492989697868887]
本稿では,相互依存を示すエッジを持つグラフにおいて,多変量信号をノードとして表現する方法を提案する。
我々はグラフニューラルネットワーク(GNN)とアテンションメカニズムを活用し、時系列データ内の基礎となる関係を効率的に学習する。
提案モデルの有効性を,長期予測タスク用に設計された実世界のベンチマークデータセットで評価した。
論文 参考訳(メタデータ) (2023-11-21T14:24:21Z) - HDGL: A hierarchical dynamic graph representation learning model for
brain disorder classification [1.7495515703051119]
上記の課題に対処するために設計された最初のモデルである階層型動的グラフ表現学習(HDGL)モデルを提案する。
ABIDEおよびADHD-200データセットを用いて提案モデルの性能を評価する。
論文 参考訳(メタデータ) (2023-11-06T06:29:23Z) - Spatial Temporal Graph Convolution with Graph Structure Self-learning
for Early MCI Detection [9.11430195887347]
本稿では,EMCI検出のための新しいグラフ構造自己学習機構を備えた空間時空間グラフ畳み込みネットワークを提案する。
The Alzheimer's Disease Neuroimaging Initiative databaseの結果は、我々の手法が最先端のアプローチより優れていることを示している。
論文 参考訳(メタデータ) (2022-11-11T12:29:00Z) - Learning the Evolutionary and Multi-scale Graph Structure for
Multivariate Time Series Forecasting [50.901984244738806]
時系列の進化的・マルチスケール相互作用をモデル化する方法を示す。
特に、まず、拡張畳み込みと協調して、スケール固有の相関を捉える階層グラフ構造を提供する。
最終的な予測を得るために上記のコンポーネントを統合するために、統合ニューラルネットワークが提供される。
論文 参考訳(メタデータ) (2022-06-28T08:11:12Z) - Heterogeneous Graph Neural Networks using Self-supervised Reciprocally
Contrastive Learning [102.9138736545956]
不均一グラフニューラルネットワーク(HGNN)は異種グラフのモデリングと解析において非常に一般的な手法である。
我々は,ノード属性とグラフトポロジの各ガイダンスに関する2つの視点を取り入れた,新規で頑健なヘテロジニアスグラフコントラスト学習手法であるHGCLを初めて開発する。
この新しいアプローチでは,属性とトポロジに関連情報を別々にマイニングする手法として,異なるが最も適した属性とトポロジの融合機構を2つの視点に適用する。
論文 参考訳(メタデータ) (2022-04-30T12:57:02Z) - Multivariate Time Series Forecasting with Dynamic Graph Neural ODEs [65.18780403244178]
動的グラフニューラル正規微分方程式(MTGODE)を用いた多変量時系列予測連続モデルを提案する。
具体的には、まず、時間進化するノードの特徴と未知のグラフ構造を持つ動的グラフに多変量時系列を抽象化する。
そして、欠落したグラフトポロジを補完し、空間的および時間的メッセージパッシングを統一するために、ニューラルODEを設計、解決する。
論文 参考訳(メタデータ) (2022-02-17T02:17:31Z) - Self-Supervised Graph Representation Learning for Neuronal Morphologies [75.38832711445421]
ラベルのないデータセットから3次元神経形態の低次元表現を学習するためのデータ駆動型アプローチであるGraphDINOを提案する。
2つの異なる種と複数の脳領域において、この方法では、専門家による手動の特徴に基づく分類と同程度に形態学的細胞型クラスタリングが得られることを示す。
提案手法は,大規模データセットにおける新しい形態的特徴や細胞型の発見を可能にする可能性がある。
論文 参考訳(メタデータ) (2021-12-23T12:17:47Z) - Multiscale Spatio-Temporal Graph Neural Networks for 3D Skeleton-Based
Motion Prediction [92.16318571149553]
本稿では,次世代の3次元骨格型人間のポーズを予測するため,マルチスケール・テンポラルグラフニューラルネットワーク(MST-GNN)を提案する。
MST-GNNは、短期および長期の動作予測において最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-08-25T14:05:37Z) - Disentangling and Unifying Graph Convolutions for Skeleton-Based Action
Recognition [79.33539539956186]
本稿では,マルチスケールグラフ畳み込みと,G3Dという空間時間グラフ畳み込み演算子を結合する簡単な方法を提案する。
これらの提案を結合することにより,MS-G3Dという強力な特徴抽出器を開発し,そのモデルが3つの大規模データセット上で従来の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-03-31T11:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。