論文の概要: Adversarial Cross-View Disentangled Graph Contrastive Learning
- arxiv url: http://arxiv.org/abs/2209.07699v1
- Date: Fri, 16 Sep 2022 03:48:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 12:59:19.428254
- Title: Adversarial Cross-View Disentangled Graph Contrastive Learning
- Title(参考訳): 対向的クロスビュー・ディスタングル型グラフコントラスト学習
- Authors: Qianlong Wen, Zhongyu Ouyang, Chunhui Zhang, Yiyue Qian, Yanfang Ye,
Chuxu Zhang
- Abstract要約: グラフデータから最小かつ十分な表現を学習するために,情報ボトルネックの原則に従う ACDGCL を導入する。
提案したモデルが,複数のベンチマークデータセット上でのグラフ分類タスクの最先端性より優れていることを実証的に実証した。
- 参考スコア(独自算出の注目度): 30.97720522293301
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph contrastive learning (GCL) is prevalent to tackle the supervision
shortage issue in graph learning tasks. Many recent GCL methods have been
proposed with various manually designed augmentation techniques, aiming to
implement challenging augmentations on the original graph to yield robust
representation. Although many of them achieve remarkable performances, existing
GCL methods still struggle to improve model robustness without risking losing
task-relevant information because they ignore the fact the augmentation-induced
latent factors could be highly entangled with the original graph, thus it is
more difficult to discriminate the task-relevant information from irrelevant
information. Consequently, the learned representation is either brittle or
unilluminating. In light of this, we introduce the Adversarial Cross-View
Disentangled Graph Contrastive Learning (ACDGCL), which follows the information
bottleneck principle to learn minimal yet sufficient representations from graph
data. To be specific, our proposed model elicits the augmentation-invariant and
augmentation-dependent factors separately. Except for the conventional
contrastive loss which guarantees the consistency and sufficiency of the
representations across different contrastive views, we introduce a cross-view
reconstruction mechanism to pursue the representation disentanglement. Besides,
an adversarial view is added as the third view of contrastive loss to enhance
model robustness. We empirically demonstrate that our proposed model
outperforms the state-of-the-arts on graph classification task over multiple
benchmark datasets.
- Abstract(参考訳): グラフコントラスト学習(gcl)は、グラフ学習タスクにおける監督不足問題に取り組むために一般的である。
近年のGCL法の多くは手動で設計した拡張手法を用いて提案されており、元のグラフに挑戦的な拡張を実装し、堅牢な表現を実現することを目的としている。
それらの多くは顕著なパフォーマンスを達成しているが、既存のGCL手法は、拡張によって引き起こされる潜伏要因が元のグラフと強く絡み合っているという事実を無視して、タスク関連情報と無関係情報との区別が難しいため、タスク関連情報を失うリスクを負わずにモデルロバスト性を改善するのに苦慮している。
その結果、学習された表現は脆いか無照明である。
これを踏まえ、我々は、グラフデータから最小かつ十分な表現を学習する情報ボトルネック原理に従って、Adversarial Cross-View Disentangled Graph Contrastive Learning (ACDGCL)を導入する。
具体的には,拡張不変因子と拡張依存因子を別々に用いたモデルを提案する。
異なるコントラストビュー間の表現の整合性と整合性を保証する従来のコントラスト損失を除いて,表現の絡み合いを追求するクロスビュー再構成機構を導入する。
さらに、モデルロバスト性を高めるために、対比損失の第3のビューとして、逆ビューが追加される。
我々は,提案モデルが複数のベンチマークデータセットでグラフ分類タスクの最先端を上回っていることを実証的に示す。
関連論文リスト
- Uncovering Capabilities of Model Pruning in Graph Contrastive Learning [0.0]
我々は、拡張ビューではなく、異なるモデルバージョンを対比することで、グラフのコントラスト学習の問題を再構築する。
教師なしおよび転送学習によるグラフ分類に関する様々なベンチマークにおいて,本手法を広範囲に検証する。
論文 参考訳(メタデータ) (2024-10-27T07:09:31Z) - Dual Adversarial Perturbators Generate rich Views for Recommendation [16.284670207195056]
AvoGCLは、グラフ構造に逆行訓練を適用し、摂動を埋め込むことでカリキュラム学習をエミュレートする。
3つの実世界のデータセットの実験では、AvoGCLが最先端の競合より大幅に優れていることが示されている。
論文 参考訳(メタデータ) (2024-08-26T15:19:35Z) - Disentangled Generative Graph Representation Learning [51.59824683232925]
本稿では,自己教師型学習フレームワークであるDiGGR(Disentangled Generative Graph Representation Learning)を紹介する。
潜伏要因を学習し、それをグラフマスクモデリングのガイドとして活用することを目的としている。
2つの異なるグラフ学習タスクのための11の公開データセットの実験は、DiGGRが従来よりも一貫して多くの自己教師付きメソッドを上回っていることを示している。
論文 参考訳(メタデータ) (2024-08-24T05:13:02Z) - Multi-Task Curriculum Graph Contrastive Learning with Clustering Entropy Guidance [25.5510013711661]
本稿ではクラスタリング誘導型Curriculum Graph contrastive Learning(CCGL)フレームワークを提案する。
CCGLは以下のグラフ拡張とコントラスト学習のガイダンスとしてクラスタリングエントロピーを使用している。
実験の結果,CCGLは最先端の競合に比べて優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-22T02:18:47Z) - GPS: Graph Contrastive Learning via Multi-scale Augmented Views from
Adversarial Pooling [23.450755275125577]
自己教師付きグラフ表現学習は、バイオインフォマティクスやソーシャルネットワークなど、様々な分野において、最近かなりの可能性を秘めている。
本稿では,これらの問題に対処するための新しいアプローチとして Graph Pooling ContraSt (GPS) を提案する。
グラフプーリングは、冗長性の除去によってグラフを適応的に粗いものにすることができることから、グラフプーリングを再考し、それを活用して、マルチスケールのポジティブビューを自動的に生成する。
論文 参考訳(メタデータ) (2024-01-29T10:00:53Z) - GIF: A General Graph Unlearning Strategy via Influence Function [63.52038638220563]
Graph Influence Function (GIF)は、削除されたデータにおける$epsilon$-massの摂動に応答してパラメータの変化を効率的に正確に推定できる、モデルに依存しない未学習の手法である。
我々は,4つの代表的GNNモデルと3つのベンチマークデータセットについて広範な実験を行い,未学習の有効性,モデルの有用性,未学習効率の観点からGIFの優位性を正当化する。
論文 参考訳(メタデータ) (2023-04-06T03:02:54Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - ACTIVE:Augmentation-Free Graph Contrastive Learning for Partial
Multi-View Clustering [52.491074276133325]
部分的マルチビュークラスタリングの問題を解決するために,拡張自由グラフコントラスト学習フレームワークを提案する。
提案手法は、インスタンスレベルのコントラスト学習と欠落データ推論をクラスタレベルに高め、個々の欠落データがクラスタリングに与える影響を効果的に軽減する。
論文 参考訳(メタデータ) (2022-03-01T02:32:25Z) - Adversarial Graph Contrastive Learning with Information Regularization [51.14695794459399]
コントラスト学習はグラフ表現学習において有効な方法である。
グラフ上のデータ拡張は、はるかに直感的ではなく、高品質のコントラスト的なサンプルを提供するのがずっと難しい。
逆グラフ比較学習(Adversarial Graph Contrastive Learning, ARIEL)を提案する。
さまざまな実世界のデータセット上でのノード分類タスクにおいて、現在のグラフのコントラスト学習方法よりも一貫して優れています。
論文 参考訳(メタデータ) (2022-02-14T05:54:48Z) - Diversified Multiscale Graph Learning with Graph Self-Correction [55.43696999424127]
2つのコア成分を組み込んだ多次元グラフ学習モデルを提案します。
情報埋め込みグラフを生成するグラフ自己補正(GSC)機構、および入力グラフの包括的な特性評価を達成するために多様性ブースト正規化(DBR)。
一般的なグラフ分類ベンチマークの実験は、提案されたGSCメカニズムが最先端のグラフプーリング方法よりも大幅に改善されることを示しています。
論文 参考訳(メタデータ) (2021-03-17T16:22:24Z) - Graph Contrastive Learning with Adaptive Augmentation [23.37786673825192]
本稿では,適応的拡張を用いた新しいグラフコントラスト表現学習法を提案する。
具体的には,ノードの集中度に基づく拡張スキームを設計し,重要な結合構造を明らかにする。
提案手法は,既存の最先端のベースラインを一貫して上回り,教師付きベースラインを超えている。
論文 参考訳(メタデータ) (2020-10-27T15:12:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。