論文の概要: Uncovering the Structural Fairness in Graph Contrastive Learning
- arxiv url: http://arxiv.org/abs/2210.03011v1
- Date: Thu, 6 Oct 2022 15:58:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 17:56:07.625047
- Title: Uncovering the Structural Fairness in Graph Contrastive Learning
- Title(参考訳): グラフコントラスト学習における構造フェアネスの解明
- Authors: Ruijia Wang, Xiao Wang, Chuan Shi, Le Song
- Abstract要約: グラフコントラスト学習(GCL)は、ノード表現を学習するための有望な自己教師型アプローチとして登場した。
GCL法で得られた表現は,GCN法で学習した表現よりも既に公平であることを示す。
我々は、低次ノードと高次ノードに異なる戦略を適用し、GRAph contrastive learning for Degree bias (GRADE)と呼ばれるグラフ拡張手法を考案した。
- 参考スコア(独自算出の注目度): 87.65091052291544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies show that graph convolutional network (GCN) often performs
worse for low-degree nodes, exhibiting the so-called structural unfairness for
graphs with long-tailed degree distributions prevalent in the real world. Graph
contrastive learning (GCL), which marries the power of GCN and contrastive
learning, has emerged as a promising self-supervised approach for learning node
representations. How does GCL behave in terms of structural fairness?
Surprisingly, we find that representations obtained by GCL methods are already
fairer to degree bias than those learned by GCN. We theoretically show that
this fairness stems from intra-community concentration and inter-community
scatter properties of GCL, resulting in a much clear community structure to
drive low-degree nodes away from the community boundary. Based on our
theoretical analysis, we further devise a novel graph augmentation method,
called GRAph contrastive learning for DEgree bias (GRADE), which applies
different strategies to low- and high-degree nodes. Extensive experiments on
various benchmarks and evaluation protocols validate the effectiveness of the
proposed method.
- Abstract(参考訳): 近年の研究では、グラフ畳み込みネットワーク(GCN)は、しばしば低次ノードに対して悪化し、いわゆる構造的不公平性を示すことが示されている。
グラフコントラスト学習(GCL)は、GCNとコントラスト学習のパワーを融合し、ノード表現を学習するための有望な自己教師型アプローチとして登場した。
GCLは構造的公正性の観点からどのように振る舞うのか?
驚いたことに、GCL法で得られた表現は、GCNで学んだ表現よりも既にある程度偏りがある。
理論的には、この公正性はGCLのコミュニティ内濃度とコミュニティ間散乱特性に起因していることを示し、コミュニティ境界から低次ノードを遠ざけるための、より明確なコミュニティ構造をもたらす。
この理論解析に基づいて,低次ノードと高次ノードに対して異なる戦略を適用する,次数バイアス(グレード)のためのグラフコントラスト学習と呼ばれる新しいグラフ増補法をさらに考案する。
提案手法の有効性を検証するため,各種ベンチマークおよび評価プロトコルの広範囲な実験を行った。
関連論文リスト
- Self-Supervised Conditional Distribution Learning on Graphs [15.730933577970687]
本稿では,従来の特徴に対して,弱い特徴と強く拡張された特徴の条件分布を整列するエンドツーエンドグラフ表現学習モデルを提案する。
このアライメントは、グラフ構造化データ拡張による本質的な意味情報の破壊のリスクを効果的に低減する。
論文 参考訳(メタデータ) (2024-11-20T07:26:36Z) - Graph-level Protein Representation Learning by Structure Knowledge
Refinement [50.775264276189695]
本稿では、教師なしの方法でグラフ全体の表現を学習することに焦点を当てる。
本稿では、データ構造を用いて、ペアが正か負かの確率を決定する構造知識精製(Structure Knowledge Refinement, SKR)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-05T09:05:33Z) - Hierarchical Topology Isomorphism Expertise Embedded Graph Contrastive
Learning [37.0788516033498]
本稿では,新しい階層型トポロジアイソモーフィズムの専門知識をグラフに組み込んだコントラスト学習を提案する。
我々は,提案手法が複数の最先端GCLモデルに対して普遍的であることを実証的に実証した。
本手法は、教師なし表現学習環境において、最先端の手法を0.23%上回る。
論文 参考訳(メタデータ) (2023-12-21T14:07:46Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Generalization Guarantee of Training Graph Convolutional Networks with
Graph Topology Sampling [83.77955213766896]
グラフ畳み込みネットワーク(GCN)は近年,グラフ構造化データの学習において大きな成功を収めている。
スケーラビリティ問題に対処するため、Gsの学習におけるメモリと計算コストを削減するため、グラフトポロジサンプリングが提案されている。
本稿では,3層GCNのトレーニング(最大)におけるグラフトポロジサンプリングの最初の理論的正当性について述べる。
論文 参考訳(メタデータ) (2022-07-07T21:25:55Z) - ImGCL: Revisiting Graph Contrastive Learning on Imbalanced Node
Classification [26.0350727426613]
グラフコントラスト学習(GCL)は,ラベルのないノード/グラフ表現の学習性能に優れていたため,注目を集めている。
実際には、与えられたグラフに対するラベルのないノードの基底となるクラス分布は、通常不均衡である。
ラベルなしでGCLから学習した表現を自動的かつ適応的にバランスをとるImGCL(Im Balanced node classification)の原理的GCLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-23T14:23:36Z) - RawlsGCN: Towards Rawlsian Difference Principle on Graph Convolutional
Network [102.27090022283208]
グラフ畳み込みネットワーク(GCN)は多くの現実世界のアプリケーションにおいて重要な役割を担っている。
GCNはしばしばノードの次数に対する性能の相違を示し、結果として低次ノードの予測精度が悪化する。
我々は、Rawlsian差分原理の観点から、GCNの次数関連性能格差を緩和する問題を定式化する。
論文 参考訳(メタデータ) (2022-02-28T05:07:57Z) - Structural and Semantic Contrastive Learning for Self-supervised Node
Representation Learning [32.126228702554144]
グラフコントラスト学習(GCL)は、自己教師型で一般化可能、転送可能、堅牢なノード表現を学習するために多くの研究関心を集めている。
この作業では、既存の教師なしのGCLを超越して、シンプルだが効果的なフレームワークであるS$3$-CLを提案し、それらの制限に対処します。
実験の結果、S$3$-CLで学習したノード表現は、最先端のGCL法と比較して、異なるダウンストリームタスクにおいて優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2022-02-17T07:20:09Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Knowledge Embedding Based Graph Convolutional Network [35.35776808660919]
本稿では,知識埋め込みに基づくグラフ畳み込みネットワーク(KE-GCN)という新しいフレームワークを提案する。
KE-GCNはグラフベースの信念伝播におけるグラフ畳み込みネットワーク(GCN)のパワーと高度な知識埋め込み手法の強みを組み合わせたものである。
理論的解析により、KE-GCNはいくつかのよく知られたGCN法のエレガントな統一を具体例として示している。
論文 参考訳(メタデータ) (2020-06-12T17:12:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。