論文の概要: Graph-Time Convolutional Neural Networks: Architecture and Theoretical
Analysis
- arxiv url: http://arxiv.org/abs/2206.15174v1
- Date: Thu, 30 Jun 2022 10:20:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-01 14:39:08.946069
- Title: Graph-Time Convolutional Neural Networks: Architecture and Theoretical
Analysis
- Title(参考訳): グラフ時間畳み込みニューラルネットワーク:アーキテクチャと理論的解析
- Authors: Mohammad Sabbaqi and Elvin Isufi
- Abstract要約: グラフ時間畳み込みニューラルネットワーク(GTCNN)を学習支援の原則アーキテクチャとして導入する。
このアプローチはどんな種類のプロダクトグラフでも機能し、パラメトリックグラフを導入して、プロダクトの時間的結合も学べます。
GTCNNが最先端のソリューションと好意的に比較できることを示す。
- 参考スコア(独自算出の注目度): 12.995632804090198
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Devising and analyzing learning models for spatiotemporal network data is of
importance for tasks including forecasting, anomaly detection, and multi-agent
coordination, among others. Graph Convolutional Neural Networks (GCNNs) are an
established approach to learn from time-invariant network data. The graph
convolution operation offers a principled approach to aggregate multiresolution
information. However, extending the convolution principled learning and
respective analysis to the spatiotemporal domain is challenging because
spatiotemporal data have more intrinsic dependencies. Hence, a higher
flexibility to capture jointly the spatial and the temporal dependencies is
required to learn meaningful higher-order representations. Here, we leverage
product graphs to represent the spatiotemporal dependencies in the data and
introduce Graph-Time Convolutional Neural Networks (GTCNNs) as a principled
architecture to aid learning. The proposed approach can work with any type of
product graph and we also introduce a parametric product graph to learn also
the spatiotemporal coupling. The convolution principle further allows a similar
mathematical tractability as for GCNNs. In particular, the stability result
shows GTCNNs are stable to spatial perturbations but there is an implicit
trade-off between discriminability and robustness; i.e., the more complex the
model, the less stable. Extensive numerical results on benchmark datasets
corroborate our findings and show the GTCNN compares favorably with
state-of-the-art solutions. We anticipate the GTCNN to be a starting point for
more sophisticated models that achieve good performance but are also
fundamentally grounded.
- Abstract(参考訳): 時空間ネットワークデータの学習モデルの作成と解析は,予測,異常検出,マルチエージェント調整などのタスクにおいて重要である。
グラフ畳み込みニューラルネットワーク(gcnn)は、時間不変ネットワークデータから学ぶための確立されたアプローチである。
グラフ畳み込み演算は、多解像度情報を集約する原理的なアプローチを提供する。
しかしながら、畳み込み原則学習と各分析を時空間領域に拡張することは、時空間データがより固有の依存関係を持つため、困難である。
したがって、空間的および時間的依存関係を共に捉える柔軟性は、意味のある高次表現を学習するために必要となる。
ここでは,製品グラフを用いてデータの時空間依存を表現するとともに,学習を支援する基本アーキテクチャとしてgtcnn(graph-time convolutional neural network)を導入する。
提案手法は任意の種類の製品グラフに対応でき,また,時空間結合を学習するためのパラメトリック製品グラフも導入する。
畳み込み原理により、GCNNと同様の数学的トラクタビリティがもたらされる。
特に、安定性の結果は、GTCNNは空間摂動に対して安定であるが、差別性と堅牢性の間には暗黙のトレードオフがあることを示している。
ベンチマークデータセットの大規模な数値結果から,GTCNNが最先端のソリューションと良好に比較できることを示す。
我々は、GCCNNが、優れた性能を達成するが、根底にも根ざした、より洗練されたモデルの出発点になることを期待している。
関連論文リスト
- Self-Supervised Graph Neural Networks for Enhanced Feature Extraction in Heterogeneous Information Networks [16.12856816023414]
本稿では,インターネットの急速な発展に伴う複雑なグラフデータ処理におけるグラフニューラルネットワーク(GNN)の適用と課題について考察する。
自己監督機構を導入することにより、グラフデータの多様性と複雑さに対する既存モデルの適合性を向上させることが期待されている。
論文 参考訳(メタデータ) (2024-10-23T07:14:37Z) - DTFormer: A Transformer-Based Method for Discrete-Time Dynamic Graph Representation Learning [38.53424185696828]
離散時間動的グラフ(DTDG)の表現学習は、時間的に変化するエンティティとその進化する接続のダイナミクスをモデル化するために広く応用されている。
本稿では,従来の GNN+RNN フレームワークから Transformer ベースのアーキテクチャへ移行した DTDG のための表現学習手法 DTFormer を提案する。
論文 参考訳(メタデータ) (2024-07-26T05:46:23Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - Dynamic Causal Explanation Based Diffusion-Variational Graph Neural
Network for Spatio-temporal Forecasting [60.03169701753824]
時間予測のための動的拡散型グラフニューラルネットワーク(DVGNN)を提案する。
提案したDVGNNモデルは最先端のアプローチよりも優れ,Root Mean Squared Errorの結果が優れている。
論文 参考訳(メタデータ) (2023-05-16T11:38:19Z) - Space-Time Graph Neural Networks with Stochastic Graph Perturbations [100.31591011966603]
時空間グラフニューラルネットワーク(ST-GNN)は、時間変動データの効率的なグラフ表現を学習する。
本稿では,ST-GNNの特性を再検討し,安定なグラフ安定性を示す。
解析の結果,ST-GNNは時間変化グラフ上での移動学習に適していることが示唆された。
論文 参考訳(メタデータ) (2022-10-28T16:59:51Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Spatio-Temporal Latent Graph Structure Learning for Traffic Forecasting [6.428566223253948]
S-Temporal Latent Graph Structure Learning Network (ST-LGSL) を提案する。
このモデルは多層パーセプトロンとK-Nearest Neighborに基づくグラフを用いて、データ全体から潜在グラフトポロジ情報を学習する。
kNNの接地確率行列に基づく依存関係-kNNと類似度メートル法により、ST-LGSLは地理的およびノード類似度に重点を置くトップを集約する。
論文 参考訳(メタデータ) (2022-02-25T10:02:49Z) - Exploiting Spiking Dynamics with Spatial-temporal Feature Normalization
in Graph Learning [9.88508686848173]
内在的なダイナミクスを持つ生物学的スパイキングニューロンは、脳の強力な表現力と学習能力を持つ。
ユークリッド空間タスクを処理するためのスパイクニューラルネットワーク(SNN)の最近の進歩にもかかわらず、非ユークリッド空間データの処理においてSNNを活用することは依然として困難である。
本稿では,グラフ学習のためのSNNの直接学習を可能にする,一般的なスパイクに基づくモデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-30T11:20:16Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。