論文の概要: Spatio-Temporal Graph Contrastive Learning
- arxiv url: http://arxiv.org/abs/2108.11873v1
- Date: Thu, 26 Aug 2021 16:05:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-27 14:14:16.990763
- Title: Spatio-Temporal Graph Contrastive Learning
- Title(参考訳): 時空間グラフコントラスト学習
- Authors: Xu Liu, Yuxuan Liang, Yu Zheng, Bryan Hooi, Roger Zimmermann
- Abstract要約: これらの問題に対処するための時空間グラフコントラスト学習フレームワーク(STGCL)を提案する。
グラフ構造、時間領域、周波数領域の4種類のデータ拡張について詳述する。
我々のフレームワークは、実世界の3つのデータセットと4つの最先端モデルで評価されている。
- 参考スコア(独自算出の注目度): 49.132528449909316
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models are modern tools for spatio-temporal graph (STG)
forecasting. Despite their effectiveness, they require large-scale datasets to
achieve better performance and are vulnerable to noise perturbation. To
alleviate these limitations, an intuitive idea is to use the popular data
augmentation and contrastive learning techniques. However, existing graph
contrastive learning methods cannot be directly applied to STG forecasting due
to three reasons. First, we empirically discover that the forecasting task is
unable to benefit from the pretrained representations derived from contrastive
learning. Second, data augmentations that are used for defeating noise are less
explored for STG data. Third, the semantic similarity of samples has been
overlooked. In this paper, we propose a Spatio-Temporal Graph Contrastive
Learning framework (STGCL) to tackle these issues. Specifically, we improve the
performance by integrating the forecasting loss with an auxiliary contrastive
loss rather than using a pretrained paradigm. We elaborate on four types of
data augmentations, which disturb data in terms of graph structure, time
domain, and frequency domain. We also extend the classic contrastive loss
through a rule-based strategy that filters out the most semantically similar
negatives. Our framework is evaluated across three real-world datasets and four
state-of-the-art models. The consistent improvements demonstrate that STGCL can
be used as an off-the-shelf plug-in for existing deep models.
- Abstract(参考訳): ディープラーニングモデルは時空間グラフ(STG)予測のための現代的なツールである。
その効果にもかかわらず、パフォーマンス向上のために大規模なデータセットを必要とし、ノイズの摂動に弱い。
これらの制限を緩和するために、直感的なアイデアは、一般的なデータ拡張と対比学習技術を使用することである。
しかし,既存のグラフコントラスト学習手法は,3つの理由からstg予測には直接適用できない。
まず,コントラスト学習から得られた事前学習表現から予測課題が利益を得られないことを実証的に発見する。
第2に、STGデータに対しては、ノイズの打ち消しに使用されるデータ拡張があまり検討されない。
第三に、サンプルの意味的類似性は見過ごされている。
本稿では,これらの問題に取り組むための時空間グラフコントラスト学習フレームワーク(stgcl)を提案する。
具体的には、事前訓練されたパラダイムを用いることよりも、予測損失を補助的なコントラスト損失と統合することで、性能を向上させる。
グラフ構造,時間領域,周波数領域の4種類のデータ拡張について詳述した。
また、最もセマンティックに類似した否定をフィルタリングするルールベースの戦略によって、古典的な対照的な損失を拡大します。
我々のフレームワークは3つの実世界のデータセットと4つの最先端モデルで評価されている。
一貫性のある改善は、STGCLが既存のディープモデルのための既製のプラグインとして使用できることを示している。
関連論文リスト
- History repeats Itself: A Baseline for Temporal Knowledge Graph Forecasting [10.396081172890025]
時間的知識グラフ (TKG) 予測は、知識グラフの歴史に基づいた将来の時間ステップのための知識グラフのリンクを予測することを目的としている。
本稿では,繰り返し発生する事象を予測したTKG予測のための直感的なベースラインを設計することを提案する。
論文 参考訳(メタデータ) (2024-04-25T16:39:32Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Time-aware Graph Structure Learning via Sequence Prediction on Temporal
Graphs [10.034072706245544]
時系列グラフのシーケンス予測による時間認識型グラフ構造学習(TGSL)手法を提案する。
特に、タイムアウェアなコンテキスト埋め込みを予測し、Gumble-Top-Kを使用して、このコンテキスト埋め込みに最も近い候補エッジを選択する。
時間リンク予測ベンチマークの実験は、TGSLがTGATやGraphMixerのような一般的なTGNに対して大きな利益をもたらすことを示した。
論文 参考訳(メタデータ) (2023-06-13T11:34:36Z) - LightGCL: Simple Yet Effective Graph Contrastive Learning for
Recommendation [9.181689366185038]
グラフニューラルクラスタリングネットワーク(GNN)は、グラフベースのレコメンデータシステムのための強力な学習手法である。
本稿では,単純なグラフコントラスト学習パラダイムであるLightGCLを提案する。
論文 参考訳(メタデータ) (2023-02-16T10:16:21Z) - DyG2Vec: Efficient Representation Learning for Dynamic Graphs [26.792732615703372]
時間グラフニューラルネットワークは、時間パターンを自動的に抽出することで、帰納的表現の学習において有望な結果を示している。
時間的エッジエンコーディングとウィンドウベースのサブグラフサンプリングを利用してタスクに依存しない埋め込みを生成する。
論文 参考訳(メタデータ) (2022-10-30T18:13:04Z) - ARIEL: Adversarial Graph Contrastive Learning [51.14695794459399]
ARIELは、ノードレベルとグラフレベルの両方の分類タスクにおいて、現在のグラフコントラスト学習法よりも一貫して優れている。
ARIELは敵の攻撃に対してより堅牢である。
論文 参考訳(メタデータ) (2022-08-15T01:24:42Z) - Adversarial Graph Contrastive Learning with Information Regularization [51.14695794459399]
コントラスト学習はグラフ表現学習において有効な方法である。
グラフ上のデータ拡張は、はるかに直感的ではなく、高品質のコントラスト的なサンプルを提供するのがずっと難しい。
逆グラフ比較学習(Adversarial Graph Contrastive Learning, ARIEL)を提案する。
さまざまな実世界のデータセット上でのノード分類タスクにおいて、現在のグラフのコントラスト学習方法よりも一貫して優れています。
論文 参考訳(メタデータ) (2022-02-14T05:54:48Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - Catastrophic Forgetting in Deep Graph Networks: an Introductory
Benchmark for Graph Classification [12.423303337249795]
グラフ表現学習シナリオにおける破滅的忘れ現象について検討する。
リプレイはこれまでのところ最も効果的な戦略であり、正規化の使用も最もメリットがあります。
論文 参考訳(メタデータ) (2021-03-22T12:07:21Z) - Spatio-Temporal Graph Scattering Transform [54.52797775999124]
グラフニューラルネットワークは、十分な高品質のトレーニングデータがないために、現実のシナリオでは実用的ではないかもしれない。
我々は時間的データを解析するための数学的に設計された新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2020-12-06T19:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。