論文の概要: Towards Generalizable Graph Contrastive Learning: An Information Theory
Perspective
- arxiv url: http://arxiv.org/abs/2211.10929v1
- Date: Sun, 20 Nov 2022 10:01:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 18:17:53.607565
- Title: Towards Generalizable Graph Contrastive Learning: An Information Theory
Perspective
- Title(参考訳): グラフコントラスト学習の一般化に向けて : 情報理論の視点から
- Authors: Yige Yuan, Bingbing Xu, Huawei Shen, Qi Cao, Keting Cen, Wen Zheng,
Xueqi Cheng
- Abstract要約: グラフコントラスト学習(GCL)は、グラフ学習表現において最も代表的なアプローチである。
まず、GCL一般化能力のための測度GCL-GEを提案する。
我々は、一般化能力を高めたInfoAdvという名前のGCLフレームワークを設計する。
- 参考スコア(独自算出の注目度): 47.201323867419184
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph contrastive learning (GCL) emerges as the most representative approach
for graph representation learning, which leverages the principle of maximizing
mutual information (InfoMax) to learn node representations applied in
downstream tasks. To explore better generalization from GCL to downstream
tasks, previous methods heuristically define data augmentation or pretext
tasks. However, the generalization ability of GCL and its theoretical principle
are still less reported. In this paper, we first propose a metric named GCL-GE
for GCL generalization ability. Considering the intractability of the metric
due to the agnostic downstream task, we theoretically prove a mutual
information upper bound for it from an information-theoretic perspective.
Guided by the bound, we design a GCL framework named InfoAdv with enhanced
generalization ability, which jointly optimizes the generalization metric and
InfoMax to strike the right balance between pretext task fitting and the
generalization ability on downstream tasks. We empirically validate our
theoretical findings on a number of representative benchmarks, and experimental
results demonstrate that our model achieves state-of-the-art performance.
- Abstract(参考訳): グラフコントラッシブ・ラーニング(GCL)がグラフ表現学習の最も代表的なアプローチとして登場し、下流タスクに適用されるノード表現を学習するために相互情報(InfoMax)を最大化する原理を活用する。
GCLから下流タスクへのより良い一般化を探るため、従来の手法ではデータ拡張やプレテキストタスクをヒューリスティックに定義していた。
しかし、GCLの一般化能力とその理論原理はまだ報告されていない。
本稿ではまず,GCL一般化能力のための測度GCL-GEを提案する。
ダウンストリームタスクの非依存によるメトリックの難解性を考慮して,情報理論的な観点から相互情報上限を理論的に証明する。
この境界によって導かれる一般化能力を持つGCLフレームワークInfoAdvを設計し、このフレームワークは、プリテキストタスクフィッティングと下流タスクにおける一般化能力の適切なバランスを打つために、一般化メトリックとInfoMaxを協調的に最適化する。
我々は,いくつかの代表的なベンチマークについて理論的知見を実験的に検証し,実験結果から,本モデルが最先端の性能を達成できることを実証した。
関連論文リスト
- Graph Classification via Reference Distribution Learning: Theory and Practice [24.74871206083017]
グラフ参照分布学習(GRDL, Graph Reference Distribution Learning)は, グラフの効率的な分類法である。
GRDLはGNN層によって与えられるグラフの潜在ノード埋め込みを離散分布として扱い、グローバルプールなしで直接分類できる。
中規模および大規模グラフデータセットの実験は、GRDLが最先端よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-08-21T06:42:22Z) - On the Generalization Capability of Temporal Graph Learning Algorithms:
Theoretical Insights and a Simpler Method [59.52204415829695]
テンポラルグラフ学習(TGL)は、様々な現実世界のアプリケーションにまたがる一般的なテクニックとなっている。
本稿では,異なるTGLアルゴリズムの一般化能力について検討する。
一般化誤差が小さく、全体的な性能が向上し、モデルの複雑さが低下する単純化されたTGLネットワークを提案する。
論文 参考訳(メタデータ) (2024-02-26T08:22:22Z) - Towards Understanding the Generalization of Graph Neural Networks [9.217947432437546]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ指向学習と表現において最も広く採用されているモデルである。
まず,帰納学習における一般化ギャップと勾配の確率境界を確立する。
理論的な結果は、一般化ギャップに影響を与えるアーキテクチャ固有の要因を明らかにする。
論文 参考訳(メタデータ) (2023-05-14T03:05:14Z) - Adversarial Learning Data Augmentation for Graph Contrastive Learning in
Recommendation [56.10351068286499]
グラフコントラスト学習のための学習可能なデータ拡張法(LDA-GCL)を提案する。
提案手法は,InfoMin と InfoMax の原則に従うデータ強化学習とグラフコントラスト学習を含む。
本手法は,データ拡張とユーザやアイテムの効果的な表現を学習するために,対向損失関数を最適化する。
論文 参考訳(メタデータ) (2023-02-05T06:55:51Z) - Self-Supervised Learning via Maximum Entropy Coding [57.56570417545023]
本稿では,表現の構造を明示的に最適化する原理的目的として,最大エントロピー符号化(MEC)を提案する。
MECは、特定のプリテキストタスクに基づいて、以前のメソッドよりもより一般化可能な表現を学ぶ。
ImageNetリニアプローブだけでなく、半教師付き分類、オブジェクト検出、インスタンスセグメンテーション、オブジェクトトラッキングなど、さまざまなダウンストリームタスクに対して一貫して最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-10-20T17:58:30Z) - Generalizing Goal-Conditioned Reinforcement Learning with Variational
Causal Reasoning [24.09547181095033]
Causal Graphは、オブジェクトとイベントの関係に基づいて構築された構造である。
2つのステップを交互に行う理論性能保証フレームワークを提案する。
我々の業績改善は因果発見、遷移モデリング、政策トレーニングの活発なサイクルに起因する。
論文 参考訳(メタデータ) (2022-07-19T05:31:16Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Tackling Oversmoothing of GNNs with Contrastive Learning [35.88575306925201]
グラフニューラルネットワーク(GNN)は、グラフデータと表現学習能力の包括的な関係を統合する。
オーバースムーシングはノードの最終的な表現を識別不能にし、ノード分類とリンク予測性能を劣化させる。
本稿では,TGCL(Topology-Guided Graph Contrastive Layer)を提案する。
論文 参考訳(メタデータ) (2021-10-26T15:56:16Z) - Adversarial Graph Augmentation to Improve Graph Contrastive Learning [21.54343383921459]
本稿では,GNNがトレーニング中に冗長な情報を捕捉することを避けるために,AD-GCL(adversarial-GCL)と呼ばれる新しい原理を提案する。
我々は、AD-GCLを最先端のGCL法と比較し、教師なしで最大$14%、転送で$6%、半教師なしの学習環境で$3%の性能向上を達成した。
論文 参考訳(メタデータ) (2021-06-10T15:34:26Z) - Graph Representation Learning via Graphical Mutual Information
Maximization [86.32278001019854]
本稿では,入力グラフとハイレベルな隠蔽表現との相関を測る新しい概念であるGMIを提案する。
我々は,グラフニューラルエンコーダの入力と出力の間でGMIを最大化することで訓練された教師なし学習モデルを開発する。
論文 参考訳(メタデータ) (2020-02-04T08:33:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。