論文の概要: Unbiased GNN Learning via Fairness-Aware Subgraph Diffusion
- arxiv url: http://arxiv.org/abs/2501.00595v1
- Date: Tue, 31 Dec 2024 18:48:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-05 17:16:13.239386
- Title: Unbiased GNN Learning via Fairness-Aware Subgraph Diffusion
- Title(参考訳): 公正な部分グラフ拡散による非バイアスGNN学習
- Authors: Abdullah Alchihabi, Yuhong Guo,
- Abstract要約: 本稿では,非バイアスGNN学習のための新しい生成型ニューラルフェアネス・アウェア・サブグラフ(FASD)手法を提案する。
FASDは,デバイアス付きサブグラフ上で標準GNN学習を行うことにより,入力グラフ上で公正なノード予測を誘導することを示す。
実験により,提案手法は最先端のFair GNNベースラインよりも優れた性能を示した。
- 参考スコア(独自算出の注目度): 23.615250207134004
- License:
- Abstract: Graph Neural Networks (GNNs) have demonstrated remarkable efficacy in tackling a wide array of graph-related tasks across diverse domains. However, a significant challenge lies in their propensity to generate biased predictions, particularly with respect to sensitive node attributes such as age and gender. These biases, inherent in many machine learning models, are amplified in GNNs due to the message-passing mechanism, which allows nodes to influence each other, rendering the task of making fair predictions notably challenging. This issue is particularly pertinent in critical domains where model fairness holds paramount importance. In this paper, we propose a novel generative Fairness-Aware Subgraph Diffusion (FASD) method for unbiased GNN learning. The method initiates by strategically sampling small subgraphs from the original large input graph, and then proceeds to conduct subgraph debiasing via generative fairness-aware graph diffusion processes based on stochastic differential equations (SDEs). To effectively diffuse unfairness in the input data, we introduce additional adversary bias perturbations to the subgraphs during the forward diffusion process, and train score-based models to predict these applied perturbations, enabling them to learn the underlying dynamics of the biases present in the data. Subsequently, the trained score-based models are utilized to further debias the original subgraph samples through the reverse diffusion process. Finally, FASD induces fair node predictions on the input graph by performing standard GNN learning on the debiased subgraphs. Experimental results demonstrate the superior performance of the proposed method over state-of-the-art Fair GNN baselines across multiple benchmark datasets.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、さまざまな領域にまたがる幅広いグラフ関連タスクに取り組む上で、顕著な効果を示している。
しかし、大きな課題は、特に年齢や性別などの敏感なノード属性に関して、バイアスのある予測を生成することにある。
これらのバイアスは、多くの機械学習モデルに固有のもので、ノード同士に影響を及ぼすメッセージパッシング機構のため、GNNでは増幅されており、公正な予測を行うタスクを顕著に困難にしている。
この問題は、モデルフェアネスが最重要となる重要な領域において特に関係している。
本稿では,非バイアスGNN学習のためのFairness-Aware Subgraph Diffusion (FASD)法を提案する。
この手法は, 元の大入力グラフから小部分グラフを戦略的にサンプリングし, 確率微分方程式(SDE)に基づく生成公正性を考慮したグラフ拡散プロセスにより, 部分グラフの偏平を行う。
入力データにおける不公平性を効果的に拡散するために,前向き拡散過程においてサブグラフに新たな逆バイアス摂動を導入し,これらの適用された摂動を予測するためのスコアベースモデルを訓練することにより,データに存在するバイアスの基盤となるダイナミクスを学習する。
その後、トレーニングされたスコアベースモデルを用いて、逆拡散過程を通じて元のサブグラフサンプルをさらに劣化させる。
最後に、FASDは、デバイアス付きサブグラフ上で標準GNN学習を行うことにより、入力グラフ上の公正ノード予測を誘導する。
実験の結果,提案手法は複数のベンチマークデータセットにまたがって,最先端のFair GNNベースラインよりも優れた性能を示した。
関連論文リスト
- Disentangling, Amplifying, and Debiasing: Learning Disentangled Representations for Fair Graph Neural Networks [22.5976413484192]
本稿では,新しいGNNフレームワークであるDAB-GNNを提案する。
Dab-GNNは、正確性と公正性の最適バランスを達成するという点で、最先端の10のライバルを著しく上回っている。
論文 参考訳(メタデータ) (2024-08-23T07:14:56Z) - DFA-GNN: Forward Learning of Graph Neural Networks by Direct Feedback Alignment [57.62885438406724]
グラフニューラルネットワークは、様々なアプリケーションにまたがる強力なパフォーマンスで認識されている。
BPには、その生物学的妥当性に挑戦する制限があり、グラフベースのタスクのためのトレーニングニューラルネットワークの効率、スケーラビリティ、並列性に影響を与える。
半教師付き学習のケーススタディを用いて,GNNに適した新しい前方学習フレームワークであるDFA-GNNを提案する。
論文 参考訳(メタデータ) (2024-06-04T07:24:51Z) - Graph Out-of-Distribution Generalization via Causal Intervention [69.70137479660113]
本稿では,ノードレベルの分散シフトの下で頑健なグラフニューラルネットワーク(GNN)をトレーニングするための,概念的に単純だが原則化されたアプローチを提案する。
本手法は,環境推定器と熟練GNN予測器を協調する因果推論に基づく新たな学習目標を提案する。
本モデルでは,様々な分散シフトによる一般化を効果的に向上し,グラフOOD一般化ベンチマーク上での最先端の精度を最大27.4%向上させることができる。
論文 参考訳(メタデータ) (2024-02-18T07:49:22Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Interpreting Unfairness in Graph Neural Networks via Training Node
Attribution [46.384034587689136]
本稿では,GNNの不公平さを学習ノードの影響によって解釈する新たな問題について検討する。
具体的には,GNNに現れるバイアスを測定するために,確率分布分散(PDD)という新しい手法を提案する。
PDDの有効性と実世界のデータセットを用いた実験による影響評価の有効性を検証する。
論文 参考訳(メタデータ) (2022-11-25T21:52:30Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - FairMod: Fair Link Prediction and Recommendation via Graph Modification [7.239011273682701]
入力グラフの変更によりGNNが学習したバイアスを軽減するためにFairModを提案する。
提案するモデルでは,GNNのトレーニング中にGNNの微視的あるいはマクロ的な編集を行い,リンクレコメンデーションのコンテキスト下で正確かつ公平なノード埋め込みを学習する。
提案手法の有効性を実世界の4つのデータセットに示すとともに,予測精度のリンクを無視できるコストで,提案するフェアネスをいくつかの要因で改善できることを示す。
論文 参考訳(メタデータ) (2022-01-27T15:49:33Z) - Fair Node Representation Learning via Adaptive Data Augmentation [9.492903649862761]
この研究は、グラフニューラルネットワーク(GNN)を用いて得られるノード表現のバイアス源を理論的に説明する。
この分析に基づいて、本質的なバイアスを低減するために、公正に意識したデータ拡張フレームワークを開発した。
分析と提案手法は,様々なGNN学習機構の公平性を高めるために容易に利用できる。
論文 参考訳(メタデータ) (2022-01-21T05:49:15Z) - Debiased Graph Neural Networks with Agnostic Label Selection Bias [59.61301255860836]
既存のグラフニューラルネットワーク(GNN)のほとんどは、データの選択バイアスを考慮せずに提案されている。
本稿では,デコリレーションレギュレータを区別した新しいデバイアスドグラフニューラルネットワーク(DGNN)を提案する。
DGNNは既存のGNNを強化するフレキシブルなフレームワークである。
論文 参考訳(メタデータ) (2022-01-19T16:50:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。