論文の概要: ConvDySAT: Deep Neural Representation Learning on Dynamic Graphs via
Self-Attention and Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2106.11430v1
- Date: Mon, 21 Jun 2021 22:13:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-23 14:51:03.102959
- Title: ConvDySAT: Deep Neural Representation Learning on Dynamic Graphs via
Self-Attention and Convolutional Neural Networks
- Title(参考訳): ConvDySAT: 自己注意と畳み込みニューラルネットワークによる動的グラフによるディープニューラル表現学習
- Authors: Ahmad Hafez, Atulya Praphul, Yousef Jaradt, Ezani Godwin
- Abstract要約: 我々は,畳み込みニューラルネットワークを自己認識機構で拡張することにより,最先端の動的手法の一つであるDySATの強化としてConvDySATを提案する。
本研究では,通信ネットワークとレーティングネットワークの単一ステップリンク予測を行い,様々な手法によるConvDySATの性能向上を示す実験結果を得た。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning node representations on temporal graphs is a fundamental step to
learn real-word dynamic graphs efficiently. Real-world graphs have the nature
of continuously evolving over time, such as changing edges weights, removing
and adding nodes and appearing and disappearing of edges, while previous graph
representation learning methods focused generally on static graphs. We present
ConvDySAT as an enhancement of DySAT, one of the state-of-the-art dynamic
methods, by augmenting convolution neural networks with the self-attention
mechanism, the employed method in DySAT to express the structural and temporal
evolution. We conducted single-step link prediction on a communication network
and rating network, Experimental results show significant performance gains for
ConvDySAT over various state-of-the-art methods.
- Abstract(参考訳): 時間グラフでのノード表現の学習は、実単語の動的グラフを効率的に学習するための基本的なステップである。
実世界のグラフは、エッジの重みの変更、ノードの削除と追加、エッジの出現と消失など、時間とともに継続的に進化する性質を持ち、従来のグラフ表現学習手法は一般的に静的グラフに焦点を当てていた。
本稿では,DySATにおける構造的・時間的進化を表現する手法である自己認識機構を用いた畳み込みニューラルネットワークの強化により,最先端の動的手法の一つであるDySATの強化としてConvDySATを提案する。
本研究では,通信ネットワークとレーティングネットワークの単一ステップリンク予測を行い,様々な手法によるConvDySATの性能向上を示す実験結果を得た。
関連論文リスト
- Decoupled Graph Neural Networks for Large Dynamic Graphs [14.635923016087503]
大規模動的グラフのための疎結合グラフニューラルネットワークを提案する。
このアルゴリズムは,両種類の動的グラフにおいて,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-05-14T23:00:10Z) - Dynamic Graph Representation Learning via Edge Temporal States Modeling and Structure-reinforced Transformer [5.093187534912688]
本稿では,動的グラフ表現学習のための新しいフレームワークであるRecurrent Structure-Reinforced Graph Transformer (RSGT)を紹介する。
RSGTは、繰り返し学習パラダイムを通じて、グラフトポロジと進化力学の両方をコードする時間ノード表現をキャプチャする。
離散動的グラフ表現学習におけるRSGTの優れた性能を示し、動的リンク予測タスクにおける既存の手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-04-20T04:12:50Z) - Temporal Aggregation and Propagation Graph Neural Networks for Dynamic
Representation [67.26422477327179]
時間グラフは連続時間を通してノード間の動的相互作用を示す。
本研究では,周辺地域全体と時間的グラフ畳み込みの新たな手法を提案する。
提案するTAP-GNNは,予測性能とオンライン推論遅延の両面で,既存の時間グラフ手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-15T08:17:18Z) - Dynamic Community Detection via Adversarial Temporal Graph
Representation Learning [17.487265170798974]
本研究では,脳ネットワークデータの少数のサンプルから動的コミュニティを検出するために,対角時間グラフ表現学習フレームワークを提案する。
さらに、このフレームワークは、時間グラフ表現の学習をガイドし、測定可能なモジュラリティ損失を最適化して、コミュニティのモジュラリティを最大化するために、敵対的なトレーニングを採用している。
論文 参考訳(メタデータ) (2022-06-29T08:44:22Z) - Efficient Dynamic Graph Representation Learning at Scale [66.62859857734104]
本稿では,学習損失による時間依存性を選択的に表現し,計算の並列性を改善するための効率的な動的グラフ lEarning (EDGE) を提案する。
EDGEは、数百万のノードと数億の時間的イベントを持つ動的グラフにスケールでき、新しい最先端(SOTA)パフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2021-12-14T22:24:53Z) - Dynamic Graph Representation Learning via Graph Transformer Networks [41.570839291138114]
動的グラフ変換器 (DGT) を用いた動的グラフ学習手法を提案する。
DGTは、グラフトポロジを効果的に学習し、暗黙のリンクをキャプチャするための時空間符号化を持つ。
DGTはいくつかの最先端のベースラインと比較して優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-19T21:44:23Z) - Temporal Graph Network Embedding with Causal Anonymous Walks
Representations [54.05212871508062]
本稿では,時間グラフネットワークに基づく動的ネットワーク表現学習のための新しいアプローチを提案する。
評価のために、時間的ネットワーク埋め込みの評価のためのベンチマークパイプラインを提供する。
欧州の大手銀行が提供した実世界のダウンストリームグラフ機械学習タスクにおいて、我々のモデルの適用性と優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-19T15:39:52Z) - Pre-Training on Dynamic Graph Neural Networks [26.139844652756334]
本稿では,動的グラフニューラルネットワーク(PT-DGNN)の事前学習手法を提案する。
動的帰結グラフ生成タスクを使用して、グラフの構造、セマンティクス、進化の特徴を同時に学習する。
論文 参考訳(メタデータ) (2021-02-24T16:06:32Z) - Learning the Implicit Semantic Representation on Graph-Structured Data [57.670106959061634]
グラフ畳み込みネットワークにおける既存の表現学習手法は主に、各ノードの近傍を知覚全体として記述することで設計される。
本稿では,グラフの潜在意味パスを学習することで暗黙的な意味を探索する意味グラフ畳み込みネットワーク(sgcn)を提案する。
論文 参考訳(メタデータ) (2021-01-16T16:18:43Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z) - Structural Temporal Graph Neural Networks for Anomaly Detection in
Dynamic Graphs [54.13919050090926]
本稿では,動的グラフの異常エッジを検出するために,エンドツーエンドの時間構造グラフニューラルネットワークモデルを提案する。
特に,まずターゲットエッジを中心にした$h$ホップ囲むサブグラフを抽出し,各ノードの役割を識別するノードラベル機能を提案する。
抽出した特徴に基づき,GRU(Gated Recurrent Unit)を用いて,異常検出のための時間的情報を取得する。
論文 参考訳(メタデータ) (2020-05-15T09:17:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。