論文の概要: Mitigating Degree Bias Adaptively with Hard-to-Learn Nodes in Graph Contrastive Learning
- arxiv url: http://arxiv.org/abs/2506.05214v1
- Date: Thu, 05 Jun 2025 16:28:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.822322
- Title: Mitigating Degree Bias Adaptively with Hard-to-Learn Nodes in Graph Contrastive Learning
- Title(参考訳): グラフコントラスト学習におけるハード・ツー・ラーンノードによる遅延バイアスの適応化
- Authors: Jingyu Hu, Hongbo Bo, Jun Hong, Xiaowei Liu, Weiru Liu,
- Abstract要約: グラフニューラルネットワーク(GNN)はしばしばノード分類タスクの次数バイアスに悩まされる。
グラフコントラスト学習(GCL)を採用するいくつかのアプローチが、このバイアスを軽減するために提案されている。
本稿では,HAR (Hardness Adaptive Reweighted) のコントラスト損失を緩和し,次数バイアスを緩和する手法を提案する。
- 参考スコア(独自算出の注目度): 3.94446329459693
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) often suffer from degree bias in node classification tasks, where prediction performance varies across nodes with different degrees. Several approaches, which adopt Graph Contrastive Learning (GCL), have been proposed to mitigate this bias. However, the limited number of positive pairs and the equal weighting of all positives and negatives in GCL still lead to low-degree nodes acquiring insufficient and noisy information. This paper proposes the Hardness Adaptive Reweighted (HAR) contrastive loss to mitigate degree bias. It adds more positive pairs by leveraging node labels and adaptively weights positive and negative pairs based on their learning hardness. In addition, we develop an experimental framework named SHARP to extend HAR to a broader range of scenarios. Both our theoretical analysis and experiments validate the effectiveness of SHARP. The experimental results across four datasets show that SHARP achieves better performance against baselines at both global and degree levels.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、ノード分類タスクの次数バイアスに悩まされることが多い。
グラフコントラスト学習(GCL)を採用するいくつかのアプローチが、このバイアスを軽減するために提案されている。
しかし、GCLの正対数の制限と全ての正と負の等重み付けは、依然として不十分でノイズの多い情報を得る低次ノードに繋がる。
本稿では,HAR (Hardness Adaptive Reweighted) のコントラスト損失を緩和し,次数バイアスを緩和する手法を提案する。
ノードラベルを活用してよりポジティブなペアを追加し、学習困難度に基づいて正と負のペアを適応的に重み付けする。
さらに,HARを幅広いシナリオに拡張する実験フレームワークであるSHARPを開発した。
理論的解析と実験の両方で、SHARPの有効性が検証された。
4つのデータセットにわたる実験結果から、SHARPは、グローバルレベルとディフレクションレベルの両方において、ベースラインに対してより良いパフォーマンスを達成することが示された。
関連論文リスト
- Does GCL Need a Large Number of Negative Samples? Enhancing Graph Contrastive Learning with Effective and Efficient Negative Sampling [17.51838571216239]
Graph Contrastive Learningは、低次元グラフ表現を自己教師する。
GCLの有効性は多数の負の対に依存するという意見が一致している。
有効かつ効率的な負のサンプルであるE2Negを用いて,GCLと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2025-03-23T03:09:31Z) - Why Does Dropping Edges Usually Outperform Adding Edges in Graph Contrastive Learning? [54.44813218411879]
グラフがネットワークにどのように適合するかを定量化するために、新しいメトリック、すなわちエラー通過率(EPR)を導入する。
理論的な結論とポジティブ・インセンティブ雑音のアイデアに触発されて、我々は新しいGCLアルゴリズム、エラー・パッシングに基づくグラフコントラスト学習(EPAGCL)を提案する。
EPRから得られる重みに基づいてエッジの追加とドロップによりビューを生成する。
論文 参考訳(メタデータ) (2024-12-11T06:31:06Z) - Bootstrap Latents of Nodes and Neighbors for Graph Self-Supervised Learning [27.278097015083343]
対照的な学習は、モデルの崩壊を防ぎ、差別的な表現を学ぶために負のサンプルを必要とする。
我々は、アンカーノードに対する隣人の支持率を予測するために、クロスアテンションモジュールを導入する。
本手法は, 負の正試料と雑音の正試料とのクラス衝突を緩和し, クラス内コンパクト度を同時に向上する。
論文 参考訳(メタデータ) (2024-08-09T14:17:52Z) - Topology Reorganized Graph Contrastive Learning with Mitigating Semantic Drift [28.83750578838018]
グラフコントラスト学習(GCL)は、グラフにおけるノード表現学習に有効なパラダイムである。
対照的な視点の多様性を高めるために,現在のGCLを補うための2つの単純かつ効果的なグローバルトポロジ的拡張を提案する。
論文 参考訳(メタデータ) (2024-07-23T13:55:33Z) - Graph Ranking Contrastive Learning: A Extremely Simple yet Efficient Method [17.760628718072144]
InfoNCEは2つのビューを得るために拡張技術を使用し、1つのビューのノードがアンカーとして機能し、もう1つのビューの対応するノードが正のサンプルとして機能し、他のすべてのノードが負のサンプルとみなされる。
目標は、アンカーノードと正のサンプルの間の距離を最小化し、負のサンプルまでの距離を最大化することである。
トレーニング中にラベル情報が不足しているため、InfoNCEは必然的に同じクラスのサンプルを負のサンプルとして扱い、偽の負のサンプルの問題を引き起こす。
偽陰性サンプルの問題に対処する簡易かつ効率的なグラフコントラスト学習法であるGraphRankを提案する。
論文 参考訳(メタデータ) (2023-10-23T03:15:57Z) - Perfect Alignment May be Poisonous to Graph Contrastive Learning [15.668610380413682]
Graph Contrastive Learning (GCL)は、正のペアの整列と負のペアの分離によってノード表現を学習することを目的としている。
本稿では,アップストリーム性能とダウンストリーム性能の関連性を確立することを目的とする。
論文 参考訳(メタデータ) (2023-10-06T02:22:49Z) - Pseudo Contrastive Learning for Graph-based Semi-supervised Learning [67.37572762925836]
Pseudo Labelingは、グラフニューラルネットワーク(GNN)の性能向上に使用されるテクニックである。
我々はPseudo Contrastive Learning(PCL)と呼ばれるGNNのための一般的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-19T10:34:08Z) - STERLING: Synergistic Representation Learning on Bipartite Graphs [78.86064828220613]
二部グラフ表現学習の基本的な課題は、ノードの埋め込みを抽出する方法である。
最近の二部グラフSSL法は、正ノード対と負ノード対を識別することによって埋め込みを学習する対照的な学習に基づいている。
負のノードペアを持たないノード埋め込みを学習するための新しい相乗的表現学習モデル(STERling)を提案する。
論文 参考訳(メタデータ) (2023-01-25T03:21:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。