論文の概要: Temporal Graph Representation Learning with Adaptive Augmentation
Contrastive
- arxiv url: http://arxiv.org/abs/2311.03897v1
- Date: Tue, 7 Nov 2023 11:21:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 16:03:35.783992
- Title: Temporal Graph Representation Learning with Adaptive Augmentation
Contrastive
- Title(参考訳): Adaptive Augmentation Contrastive を用いた時間グラフ表現学習
- Authors: Hongjiang Chen, Pengfei Jiao, Huijun Tang, Huaming Wu
- Abstract要約: 時間グラフ表現学習は、時間情報を取得するために低次元の動的ノード埋め込みを生成することを目的としている。
本稿では,適応拡張コントラスト(TGAC)モデルを用いたテンポラルグラフ表現学習を提案する。
実ネットワークにおける実験により,提案手法が他の時間グラフ表現学習法より優れていることを示す。
- 参考スコア(独自算出の注目度): 12.18909612212823
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Temporal graph representation learning aims to generate low-dimensional
dynamic node embeddings to capture temporal information as well as structural
and property information. Current representation learning methods for temporal
networks often focus on capturing fine-grained information, which may lead to
the model capturing random noise instead of essential semantic information.
While graph contrastive learning has shown promise in dealing with noise, it
only applies to static graphs or snapshots and may not be suitable for handling
time-dependent noise. To alleviate the above challenge, we propose a novel
Temporal Graph representation learning with Adaptive augmentation Contrastive
(TGAC) model. The adaptive augmentation on the temporal graph is made by
combining prior knowledge with temporal information, and the contrastive
objective function is constructed by defining the augmented inter-view contrast
and intra-view contrast. To complement TGAC, we propose three adaptive
augmentation strategies that modify topological features to reduce noise from
the network. Our extensive experiments on various real networks demonstrate
that the proposed model outperforms other temporal graph representation
learning methods.
- Abstract(参考訳): 時間グラフ表現学習は、時間情報と構造情報とプロパティ情報を取り込むために、低次元の動的ノード埋め込みを生成することを目的としている。
時間的ネットワークのための現在の表現学習手法は、しばしば細かな情報を捉えることに焦点を当てており、本質的な意味情報の代わりにランダムノイズを捉えるモデルに繋がる可能性がある。
グラフコントラスト学習はノイズを扱うことには期待できるが、静的グラフやスナップショットには当てはまり、時間依存のノイズを扱うのに適さない可能性がある。
上記の課題を解決するために,適応拡張コントラスト(TGAC)モデルを用いたテンポラルグラフ表現学習を提案する。
時間グラフ上の適応的な拡張は、事前知識と時間情報を組み合わせたもので、拡張されたビュー間コントラストとビュー内コントラストを定義することでコントラスト目的関数を構築する。
tgacを補完するために,ネットワークからのノイズを低減するために位相的特徴を変化させる3つの適応的拡張戦略を提案する。
各種実ネットワークに関する広範な実験により,提案手法が他の時間グラフ表現学習法より優れていることを示す。
関連論文リスト
- RDGSL: Dynamic Graph Representation Learning with Structure Learning [23.00398150548281]
時間グラフネットワーク(TGN)は、連続時間動的グラフの学習表現において顕著な性能を示した。
しかし、実世界のダイナミックグラフは典型的には多様で複雑なノイズを含む。
ノイズは表現生成の質を著しく低下させ、下流タスクにおけるTGNの有効性を阻害する。
論文 参考訳(メタデータ) (2023-09-05T08:03:59Z) - Spatial-Temporal Graph Learning with Adversarial Contrastive Adaptation [19.419836274690816]
効率的な自己教師型学習を実現するための空間時空間グラフ学習モデル(GraphST)を提案する。
提案手法は, 重要な多視点自己教師情報の蒸留を自動化する, 対向的コントラスト学習パラダイムである。
実生活データセット上での様々な時空間予測タスクにおいて,提案手法の優位性を示す。
論文 参考訳(メタデータ) (2023-06-19T03:09:35Z) - TodyNet: Temporal Dynamic Graph Neural Network for Multivariate Time
Series Classification [6.76723360505692]
未定義のグラフ構造を使わずに隠蔽時間依存を抽出できる新しい時間的動的グラフネットワーク(TodyNet)を提案する。
26のUEAベンチマークデータセットの実験は、提案されたTodyNetがMTSCタスクで既存のディープラーニングベースのメソッドより優れていることを示している。
論文 参考訳(メタデータ) (2023-04-11T09:21:28Z) - EasyDGL: Encode, Train and Interpret for Continuous-time Dynamic Graph Learning [92.71579608528907]
本稿では,3つのモジュールから構成される使い勝手の良いパイプライン(EasyDGL)を設計することを目的とする。
EasyDGLは、進化するグラフデータからモデルが学習する周波数コンテンツの予測力を効果的に定量化することができる。
論文 参考訳(メタデータ) (2023-03-22T06:35:08Z) - Self-Supervised Temporal Graph learning with Temporal and Structural Intensity Alignment [53.72873672076391]
時間グラフ学習は、動的情報を用いたグラフベースのタスクのための高品質な表現を生成することを目的としている。
本稿では,時間的および構造的情報の両方を抽出する時間的グラフ学習のためのS2Tという自己教師型手法を提案する。
S2Tは、いくつかのデータセットにおける最先端の競合と比較して、少なくとも10.13%のパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-02-15T06:36:04Z) - DyTed: Disentangled Representation Learning for Discrete-time Dynamic
Graph [59.583555454424]
離散時間動的グラフ、すなわちDyTedのための新しいディペンタングル表現学習フレームワークを提案する。
本研究では,時間不変の表現と時間変動の表現を効果的に識別する構造的コントラスト学習とともに,時間的クリップのコントラスト学習タスクを特別に設計する。
論文 参考訳(メタデータ) (2022-10-19T14:34:12Z) - Adversarial Graph Contrastive Learning with Information Regularization [51.14695794459399]
コントラスト学習はグラフ表現学習において有効な方法である。
グラフ上のデータ拡張は、はるかに直感的ではなく、高品質のコントラスト的なサンプルを提供するのがずっと難しい。
逆グラフ比較学習(Adversarial Graph Contrastive Learning, ARIEL)を提案する。
さまざまな実世界のデータセット上でのノード分類タスクにおいて、現在のグラフのコントラスト学習方法よりも一貫して優れています。
論文 参考訳(メタデータ) (2022-02-14T05:54:48Z) - Self-Supervised Dynamic Graph Representation Learning via Temporal
Subgraph Contrast [0.8379286663107846]
本稿では,自己教師型動的グラフ表現学習フレームワーク(DySubC)を提案する。
DySubCは、動的グラフの構造的特徴と進化的特徴を同時に学習するために、時間的部分グラフのコントラスト学習タスクを定義している。
実世界の5つのデータセットの実験では、DySubCは関連するベースラインよりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2021-12-16T09:35:34Z) - TCL: Transformer-based Dynamic Graph Modelling via Contrastive Learning [87.38675639186405]
我々は,動的に進化するグラフを連続的に扱う,TCLと呼ばれる新しいグラフニューラルネットワークアプローチを提案する。
我々の知る限りでは、これは動的グラフ上の表現学習にコントラスト学習を適用する最初の試みである。
論文 参考訳(メタデータ) (2021-05-17T15:33:25Z) - Temporal Contrastive Graph Learning for Video Action Recognition and
Retrieval [83.56444443849679]
本研究では,動画内の時間依存性を利用して,TCGL (temporal Contrastive Graph Learning) という新たな自己監督手法を提案する。
TCGLは、スニペット間およびスニペット内時間依存性を時間表現学習のための自己監督信号として共同で評価するハイブリッドグラフコントラスト学習戦略をルーツとしています。
実験結果は、大規模アクション認識およびビデオ検索ベンチマークにおける最先端の方法よりも、TCGLの優位性を示しています。
論文 参考訳(メタデータ) (2021-01-04T08:11:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。