論文の概要: Mitigating Degree Bias in Graph Representation Learning with Learnable Structural Augmentation and Structural Self-Attention
- arxiv url: http://arxiv.org/abs/2504.15075v1
- Date: Mon, 21 Apr 2025 13:03:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-29 16:29:42.571931
- Title: Mitigating Degree Bias in Graph Representation Learning with Learnable Structural Augmentation and Structural Self-Attention
- Title(参考訳): 学習可能な構造拡張と構造自己認識によるグラフ表現学習における遅延バイアスの緩和
- Authors: Van Thuy Hoang, Hyeon-Ju Jeon, O-Joun Lee,
- Abstract要約: 現実世界のグラフでは、高次ノードがメッセージパッシングを支配しており、低次ノードが低次ノードを表現できない程度にバイアスを引き起こす。
本稿では,DegFairGTと名づけられたDegee Fairness Graph Transformerを提案する。
私たちのキーとなるアイデアは、同じコミュニティで同じような役割を持つ非隣接ノードを利用して、拡張の下で情報的エッジを生成することです。
- 参考スコア(独自算出の注目度): 1.9019250262578853
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) update node representations through message passing, which is primarily based on the homophily principle, assuming that adjacent nodes share similar features. However, in real-world graphs with long-tailed degree distributions, high-degree nodes dominate message passing, causing a degree bias where low-degree nodes remain under-represented due to inadequate messages. The main challenge in addressing degree bias is how to discover non-adjacent nodes to provide additional messages to low-degree nodes while reducing excessive messages for high-degree nodes. Nevertheless, exploiting non-adjacent nodes to provide valuable messages is challenging, as it could generate noisy information and disrupt the original graph structures. To solve it, we propose a novel Degree Fairness Graph Transformer, named DegFairGT, to mitigate degree bias by discovering structural similarities between non-adjacent nodes through learnable structural augmentation and structural self-attention. Our key idea is to exploit non-adjacent nodes with similar roles in the same community to generate informative edges under our augmentation, which could provide informative messages between nodes with similar roles while ensuring that the homophily principle is maintained within the community. To enable DegFairGT to learn such structural similarities, we then propose a structural self-attention to capture the similarities between node pairs. To preserve global graph structures and prevent graph augmentation from hindering graph structure, we propose a Self-Supervised Learning task to preserve p-step transition probability and regularize graph augmentation. Extensive experiments on six datasets showed that DegFairGT outperformed state-of-the-art baselines in degree fairness analysis, node classification, and node clustering tasks.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)はメッセージパッシングを通じてノード表現を更新する。
しかし、長期の次数分布を持つ実世界のグラフでは、高次ノードがメッセージパッシングを支配しており、不適切なメッセージのために低次ノードが低次のままである場合のバイアスが生じる。
次数バイアスに対処する主な課題は、高次ノードに対する過剰なメッセージを減らしながら、低次ノードに追加のメッセージを提供する、非隣接ノードを見つける方法である。
しかし、ノイズの多い情報を生成し、元のグラフ構造を乱す可能性があるため、アジャセントでないノードを利用して価値あるメッセージを提供するのは難しい。
そこで本研究では,非隣接ノード間の構造的類似性を学習可能な構造拡張と構造的自己注意により発見することにより,次数バイアスを軽減するために,DegFairGTという新しいDegree Fairness Graph Transformerを提案する。
我々のキーとなる考え方は、同じコミュニティで同様の役割を持つ非隣接ノードを利用して、拡張の下で情報伝達エッジを生成し、コミュニティ内でホモフィリ原理が維持されていることを保証しながら、同様の役割を持つノード間の情報伝達メッセージを提供することです。
このような構造的類似性をDegFairGTで学べるように、ノード対間の類似性を捉える構造的自己認識を提案する。
グローバルグラフの構造を保ち,グラフ構造を阻害しないために,p段階遷移確率の保存とグラフ拡張の正規化を目的とした自己改善学習タスクを提案する。
6つのデータセットに対する大規模な実験により、DegFairGTは次数フェアネス分析、ノード分類、ノードクラスタリングタスクにおいて最先端のベースラインを上回った。
関連論文リスト
- Federated Graph Semantic and Structural Learning [54.97668931176513]
本稿では,ノードレベルのセマンティクスとグラフレベルの構造の両方によって局所的なクライアントの歪みがもたらされることを示す。
構造的グラフニューラルネットワークは、固有の隣接関係のため、隣人に類似性を持っていると仮定する。
我々は、隣接関係を類似度分布に変換し、グローバルモデルを利用して関係知識を局所モデルに蒸留する。
論文 参考訳(メタデータ) (2024-06-27T07:08:28Z) - Self-Attention Empowered Graph Convolutional Network for Structure
Learning and Node Embedding [5.164875580197953]
グラフ構造化データの表現学習では、多くの人気のあるグラフニューラルネットワーク(GNN)が長距離依存をキャプチャできない。
本稿では,自己注意型グラフ畳み込みネットワーク(GCN-SA)と呼ばれる新しいグラフ学習フレームワークを提案する。
提案手法はノードレベルの表現学習において例外的な一般化能力を示す。
論文 参考訳(メタデータ) (2024-03-06T05:00:31Z) - Mitigating Degree Biases in Message Passing Mechanism by Utilizing
Community Structures [2.5252594834159643]
本稿では,学習可能な拡張とグラフトランスフォーマーに基づいて,次数不偏表現を学習するためのコミュニティ対応グラフトランス (CGT) を提案する。
まず、学習可能なグラフ拡張を設計し、エッジの摂動を通じて低次ノードを接続するコミュニティ内エッジを生成する。
第2に,コミュニティ内のノードの近接性や役割を学習するための自己意識の改善を提案する。
論文 参考訳(メタデータ) (2023-12-28T02:30:13Z) - Marginal Nodes Matter: Towards Structure Fairness in Graphs [77.25149739933596]
構造フェアネスを実現するために,textbfStructural textbfFair textbfGraph textbfNeural textbfNetwork (SFairGNN)を提案する。
実験の結果、SFairGNNは、下流タスクにおける全体的な性能を維持しながら、構造フェアネスを大幅に改善できることがわかった。
論文 参考訳(メタデータ) (2023-10-23T03:20:32Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Self-organization Preserved Graph Structure Learning with Principle of
Relevant Information [72.83485174169027]
PRI-GSLは、自己組織化を特定し、隠された構造を明らかにするグラフ構造学習フレームワークである。
PRI-GSLは、フォン・ノイマンエントロピーと量子ジェンセン=シャノンの発散によって定量化された最も関連性が最も低い冗長な情報を含む構造を学ぶ。
論文 参考訳(メタデータ) (2022-12-30T16:02:02Z) - Uniting Heterogeneity, Inductiveness, and Efficiency for Graph
Representation Learning [68.97378785686723]
グラフニューラルネットワーク(GNN)は,グラフ上のノード表現学習の性能を大幅に向上させた。
GNNの過半数クラスは均質グラフのためにのみ設計されており、より有益な異種グラフに劣る適応性をもたらす。
本稿では,低次ノードと高次ノードの両方のエッジに付随するヘテロジニアスなノード特徴をパッケージ化する,新しい帰納的メタパスフリーメッセージパッシング方式を提案する。
論文 参考訳(メタデータ) (2021-04-04T23:31:39Z) - Graph Inference Learning for Semi-supervised Classification [50.55765399527556]
半教師付きノード分類の性能を高めるためのグラフ推論学習フレームワークを提案する。
推論過程の学習には,トレーニングノードから検証ノードへの構造関係のメタ最適化を導入する。
4つのベンチマークデータセットの総合的な評価は、最先端の手法と比較して提案したGILの優位性を示している。
論文 参考訳(メタデータ) (2020-01-17T02:52:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。