論文の概要: Graph Variate Neural Networks
- arxiv url: http://arxiv.org/abs/2509.20311v1
- Date: Wed, 24 Sep 2025 16:44:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.910813
- Title: Graph Variate Neural Networks
- Title(参考訳): グラフ可変ニューラルネットワーク
- Authors: Om Roy, Yashar Moshfeghi, Keith Smith,
- Abstract要約: 本稿では,GVNN(Graph-Variate Neural Networks: Graph-Variate Neural Networks)について紹介する。
GVNNはグラフベースのモーターベースラインを一貫して上回り、LSTMやTransformerといったシーケンスモデルと競合する。
脳波画像の分類において、GVNNは脳-コンピュータインタフェースの応用の可能性を強調する強力な精度を達成する。
- 参考スコア(独自算出の注目度): 9.744098349911168
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modelling dynamically evolving spatio-temporal signals is a prominent challenge in the Graph Neural Network (GNN) literature. Notably, GNNs assume an existing underlying graph structure. While this underlying structure may not always exist or is derived independently from the signal, a temporally evolving functional network can always be constructed from multi-channel data. Graph Variate Signal Analysis (GVSA) defines a unified framework consisting of a network tensor of instantaneous connectivity profiles against a stable support usually constructed from the signal itself. Building on GVSA and tools from graph signal processing, we introduce Graph-Variate Neural Networks (GVNNs): layers that convolve spatio-temporal signals with a signal-dependent connectivity tensor combining a stable long-term support with instantaneous, data-driven interactions. This design captures dynamic statistical interdependencies at each time step without ad hoc sliding windows and admits an efficient implementation with linear complexity in sequence length. Across forecasting benchmarks, GVNNs consistently outperform strong graph-based baselines and are competitive with widely used sequence models such as LSTMs and Transformers. On EEG motor-imagery classification, GVNNs achieve strong accuracy highlighting their potential for brain-computer interface applications.
- Abstract(参考訳): 動的に進化する時空間信号のモデリングは、グラフニューラルネットワーク(GNN)文学において顕著な課題である。
特に、GNNは既存のグラフ構造を仮定する。
この基盤構造は信号から独立して存在するとは限りませんが、時間的に進化する機能的ネットワークは、常にマルチチャネルデータから構築できます。
グラフ可変信号解析(GVSA)は、信号自体から構築される安定したサポートに対して、瞬時接続プロファイルのネットワークテンソルからなる統一フレームワークを定義する。
GVSAとグラフ信号処理のツールをベースとしたグラフ可変ニューラルネットワーク(GVNNs: Graph-Variate Neural Networks: Graph-Variate Neural Networks)を導入する。
この設計は、アドホックなスライディングウィンドウを使わずに、各時間ステップにおける動的統計的相互依存性を捕捉し、シーケンス長の線形複雑化を伴う効率的な実装を実現する。
予測ベンチマーク全体では、GVNNは強いグラフベースのベースラインを一貫して上回り、LSTMやTransformerといった広く使われているシーケンスモデルと競合する。
脳波動画像の分類では、GVNNは脳-コンピュータインタフェースの応用の可能性を強調する強力な精度を達成している。
関連論文リスト
- Weisfeiler-Lehman meets Events: An Expressivity Analysis for Continuous-Time Dynamic Graph Neural Networks [0.0]
グラフニューラルネットワーク (GNN) は、1-Weisfeiler-Lehman (1-WL) テストの識別能力と一致することが知られている。
GNNは任意の精度でグラフ上の任意の対象関数を普遍的に近似することができる。
属性付き離散力学グラフの理論を任意の接続性を持つ属性付き連続時間動的グラフに拡張する。
論文 参考訳(メタデータ) (2025-08-25T14:10:45Z) - DTFormer: A Transformer-Based Method for Discrete-Time Dynamic Graph Representation Learning [38.53424185696828]
離散時間動的グラフ(DTDG)の表現学習は、時間的に変化するエンティティとその進化する接続のダイナミクスをモデル化するために広く応用されている。
本稿では,従来の GNN+RNN フレームワークから Transformer ベースのアーキテクチャへ移行した DTDG のための表現学習手法 DTFormer を提案する。
論文 参考訳(メタデータ) (2024-07-26T05:46:23Z) - BLIS-Net: Classifying and Analyzing Signals on Graphs [20.345611294709244]
グラフニューラルネットワーク(GNN)は、ノード分類やグラフ分類といったタスクのための強力なツールとして登場した。
我々は以前に導入された幾何散乱変換に基づいて構築された新しいGNNであるBLIS-Net(Bi-Lipschitz Scattering Net)を紹介する。
BLIS-Netは,交通流とfMRIデータに基づいて,合成データと実世界のデータの両方において優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-10-26T17:03:14Z) - Stable and Transferable Hyper-Graph Neural Networks [95.07035704188984]
グラフニューラルネットワーク(GNN)を用いたハイパーグラフでサポートする信号処理アーキテクチャを提案する。
スペクトル類似性により任意のグラフにまたがってGNNの安定性と転送可能性の誤差をバウンドするフレームワークを提供する。
論文 参考訳(メタデータ) (2022-11-11T23:44:20Z) - Space-Time Graph Neural Networks with Stochastic Graph Perturbations [100.31591011966603]
時空間グラフニューラルネットワーク(ST-GNN)は、時間変動データの効率的なグラフ表現を学習する。
本稿では,ST-GNNの特性を再検討し,安定なグラフ安定性を示す。
解析の結果,ST-GNNは時間変化グラフ上での移動学習に適していることが示唆された。
論文 参考訳(メタデータ) (2022-10-28T16:59:51Z) - Simple and Efficient Heterogeneous Graph Neural Network [55.56564522532328]
不均一グラフニューラルネットワーク(HGNN)は、不均一グラフの豊富な構造的および意味的な情報をノード表現に埋め込む強力な能力を持つ。
既存のHGNNは、同種グラフ上のグラフニューラルネットワーク(GNN)から多くのメカニズム、特に注意機構と多層構造を継承する。
本稿では,これらのメカニズムを詳細に検討し,簡便かつ効率的なヘテロジニアスグラフニューラルネットワーク(SeHGNN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T10:01:46Z) - Graph-Time Convolutional Neural Networks: Architecture and Theoretical
Analysis [12.995632804090198]
グラフ時間畳み込みニューラルネットワーク(GTCNN)を学習支援の原則アーキテクチャとして導入する。
このアプローチはどんな種類のプロダクトグラフでも機能し、パラメトリックグラフを導入して、プロダクトの時間的結合も学べます。
GTCNNが最先端のソリューションと好意的に比較できることを示す。
論文 参考訳(メタデータ) (2022-06-30T10:20:52Z) - Space-Time Graph Neural Networks [104.55175325870195]
本研究では、時空間グラフニューラルネットワーク(ST-GNN)を導入し、時間変動ネットワークデータの時空間トポロジを共同処理する。
解析の結果,システムのネットワークトポロジと時間進化の変動はST-GNNの性能に大きく影響しないことがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:08:44Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。