論文の概要: Let Invariant Rationale Discovery Inspire Graph Contrastive Learning
- arxiv url: http://arxiv.org/abs/2206.07869v1
- Date: Thu, 16 Jun 2022 01:28:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-18 15:14:26.320125
- Title: Let Invariant Rationale Discovery Inspire Graph Contrastive Learning
- Title(参考訳): invariant rationale discovery はグラフコントラスト学習を刺激する
- Authors: Sihang Li, Xiang Wang, An zhang, Yingxin Wu, Xiangnan He and Tat-Seng
Chua
- Abstract要約: ハイパフォーマンスな拡張は、インスタンス識別に関するアンカーグラフの健全な意味を保存すべきである。
新たなフレームワーク Rationale-aware Graph Contrastive Learning (RGCL) を提案する。
RGCLは有理数生成器を使用して、グラフのインスタンス識別に関する健全な特徴を論理として明らかにし、対照的な学習のための有理数認識ビューを生成する。
- 参考スコア(独自算出の注目度): 98.10268114789775
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Leading graph contrastive learning (GCL) methods perform graph augmentations
in two fashions: (1) randomly corrupting the anchor graph, which could cause
the loss of semantic information, or (2) using domain knowledge to maintain
salient features, which undermines the generalization to other domains. Taking
an invariance look at GCL, we argue that a high-performing augmentation should
preserve the salient semantics of anchor graphs regarding
instance-discrimination. To this end, we relate GCL with invariant rationale
discovery, and propose a new framework, Rationale-aware Graph Contrastive
Learning (RGCL). Specifically, without supervision signals, RGCL uses a
rationale generator to reveal salient features about graph
instance-discrimination as the rationale, and then creates rationale-aware
views for contrastive learning. This rationale-aware pre-training scheme endows
the backbone model with the powerful representation ability, further
facilitating the fine-tuning on downstream tasks. On MNIST-Superpixel and MUTAG
datasets, visual inspections on the discovered rationales showcase that the
rationale generator successfully captures the salient features (i.e.
distinguishing semantic nodes in graphs). On biochemical molecule and social
network benchmark datasets, the state-of-the-art performance of RGCL
demonstrates the effectiveness of rationale-aware views for contrastive
learning. Our codes are available at https://github.com/lsh0520/RGCL.
- Abstract(参考訳): 先行グラフコントラスト学習(GCL)法は,(1) 意味情報の喪失を引き起こすアンカーグラフをランダムに破損させたり,(2) ドメイン知識を用いて有能な特徴を保ち,他の領域への一般化を損なう2つの方法でグラフ拡張を行う。
GCLの不変性を考慮すると、高パフォーマンスな拡張は、インスタンス識別に関するアンカーグラフの健全な意味を保たなければならないと論じる。
この目的のために、GCLと不変理性発見を関連付け、新しいフレームワークRationale-aware Graph Contrastive Learning (RGCL)を提案する。
特に、RGCLは、監視信号なしで有理生成器を使用して、グラフのインスタンス識別に関する健全な特徴を明らかにする。
この合理的な事前学習方式は、バックボーンモデルに強力な表現能力を与え、下流タスクの微調整をさらに促進する。
MNIST-Superpixel と MUTAG のデータセットでは、発見された有理数に関する視覚検査により、有理数生成器が正常な特徴(すなわちグラフのセマンティックノードの区別)をうまく捉えていることが示された。
バイオケミカル分子およびソーシャルネットワークベンチマークデータセットにおいて、RGCLの最先端性能は、対照的な学習に対する合理的な視点の有効性を示す。
私たちのコードはhttps://github.com/lsh0520/rgclで利用可能です。
関連論文リスト
- Disentangled Generative Graph Representation Learning [51.59824683232925]
本稿では,自己教師型学習フレームワークであるDiGGR(Disentangled Generative Graph Representation Learning)を紹介する。
潜伏要因を学習し、それをグラフマスクモデリングのガイドとして活用することを目的としている。
2つの異なるグラフ学習タスクのための11の公開データセットの実験は、DiGGRが従来よりも一貫して多くの自己教師付きメソッドを上回っていることを示している。
論文 参考訳(メタデータ) (2024-08-24T05:13:02Z) - Deep Contrastive Graph Learning with Clustering-Oriented Guidance [61.103996105756394]
グラフ畳み込みネットワーク(GCN)は、グラフベースのクラスタリングを改善する上で大きな可能性を秘めている。
モデルはGCNを適用するために初期グラフを事前に推定する。
一般的なデータクラスタリングには,Deep Contrastive Graph Learning (DCGL)モデルが提案されている。
論文 参考訳(メタデータ) (2024-02-25T07:03:37Z) - Graph Contrastive Learning with Cohesive Subgraph Awareness [34.76555185419192]
グラフコントラスト学習(GCL)は、多様なグラフの表現を学習するための最先端の戦略として登場した。
グラフの増大と学習過程におけるサブグラフの認識は、GCLの性能を高める可能性があると論じる。
我々はCTAugと呼ばれる新しい統合フレームワークを提案し、結合認識を様々な既存のGCLメカニズムにシームレスに統合する。
論文 参考訳(メタデータ) (2024-01-31T03:51:30Z) - A Graph is Worth 1-bit Spikes: When Graph Contrastive Learning Meets
Spiking Neural Networks [35.35462459134551]
SpikeGCLは、グラフのバイナライズされた1ビット表現を学ぶための新しいフレームワークである。
SpikeGCLが完全精度に匹敵するものであることを示すための理論的保証を提供する。
論文 参考訳(メタデータ) (2023-05-30T16:03:11Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Unifying Graph Contrastive Learning with Flexible Contextual Scopes [57.86762576319638]
フレキシブルコンテキストスコープを用いたグラフコントラスト学習(略してUGCL)という自己教師型学習手法を提案する。
本アルゴリズムは,隣接行列のパワーを制御し,コンテキストスコープによるフレキシブルな文脈表現を構築する。
局所的スコープと文脈的スコープの両方の表現に基づいて、distLはグラフ表現学習のための非常に単純な対照的な損失関数を最適化する。
論文 参考訳(メタデータ) (2022-10-17T07:16:17Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Augmentation-Free Self-Supervised Learning on Graphs [7.146027549101716]
AFGRLと呼ばれるグラフのための拡張自由な自己教師型学習フレームワークを提案する。
具体的には,局所構造情報とグローバルセマンティクスをグラフと共有するノードを発見することによって,グラフの代替ビューを生成する。
論文 参考訳(メタデータ) (2021-12-05T04:20:44Z) - Self-supervised Consensus Representation Learning for Attributed Graph [15.729417511103602]
グラフ表現学習に自己教師付き学習機構を導入する。
本稿では,新しい自己教師型コンセンサス表現学習フレームワークを提案する。
提案手法はトポロジグラフと特徴グラフの2つの視点からグラフを扱う。
論文 参考訳(メタデータ) (2021-08-10T07:53:09Z) - Multi-Level Graph Contrastive Learning [38.022118893733804]
本稿では,グラフの空間ビューを対比することで,グラフデータの堅牢な表現を学習するためのマルチレベルグラフコントラスト学習(MLGCL)フレームワークを提案する。
元のグラフは1次近似構造であり、不確実性や誤りを含むが、符号化機能によって生成された$k$NNグラフは高次近接性を保持する。
MLGCLは、7つのデータセット上の既存の最先端グラフ表現学習法と比較して有望な結果が得られることを示す。
論文 参考訳(メタデータ) (2021-07-06T14:24:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。