論文の概要: Let's Grow an Unbiased Community: Guiding the Fairness of Graphs via New Links
- arxiv url: http://arxiv.org/abs/2508.15499v1
- Date: Thu, 21 Aug 2025 12:26:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.317087
- Title: Let's Grow an Unbiased Community: Guiding the Fairness of Graphs via New Links
- Title(参考訳): 偏見のないコミュニティを育てよう:新しいリンクを通じてグラフの公平性を導く
- Authors: Jiahua Lu, Huaxiao Liu, Shuotong Bai, Junjie Xu, Renqiang Luo, Enyan Dai,
- Abstract要約: グラフニューラルネットワーク(GNN)は、さまざまなアプリケーションで大きな成功を収めています。
元のユーザグラフ構造は一般にバイアスを受けているが、新しいリンクを導入することで、これらの既存の構造をバイアスのないものへと導くことを約束している。
フェアネス誘導グラフ上で訓練された下流タスクの公平性を保証するための,FairGuideという新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 9.287052562599992
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have achieved remarkable success across diverse applications. However, due to the biases in the graph structures, graph neural networks face significant challenges in fairness. Although the original user graph structure is generally biased, it is promising to guide these existing structures toward unbiased ones by introducing new links. The fairness guidance via new links could foster unbiased communities, thereby enhancing fairness in downstream applications. To address this issue, we propose a novel framework named FairGuide. Specifically, to ensure fairness in downstream tasks trained on fairness-guided graphs, we introduce a differentiable community detection task as a pseudo downstream task. Our theoretical analysis further demonstrates that optimizing fairness within this pseudo task effectively enhances structural fairness, promoting fairness generalization across diverse downstream applications. Moreover, FairGuide employs an effective strategy which leverages meta-gradients derived from the fairness-guidance objective to identify new links that significantly enhance structural fairness. Extensive experimental results demonstrate the effectiveness and generalizability of our proposed method across a variety of graph-based fairness tasks.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、さまざまなアプリケーションで大きな成功を収めています。
しかし、グラフ構造のバイアスのため、グラフニューラルネットワークは公平性において重大な課題に直面している。
元のユーザグラフ構造は一般にバイアスを受けているが、新しいリンクを導入することで、これらの既存の構造をバイアスのないものへと導くことを約束している。
新たなリンクによるフェアネスガイダンスは、バイアスのないコミュニティを育み、下流のアプリケーションにおけるフェアネスを高める可能性がある。
この問題に対処するため,FairGuideという新しいフレームワークを提案する。
具体的には、フェアネス誘導グラフ上で訓練された下流タスクの公平性を確保するために、疑似下流タスクとして、識別可能なコミュニティ検出タスクを導入する。
この疑似タスク内での公平性を最適化することは、構造的公正性を効果的に向上させ、様々な下流アプリケーションにまたがる公正性一般化を促進することを示す。
さらに、FairGuideは、フェアネス誘導目的から派生したメタグラディエントを利用して、構造フェアネスを大幅に向上させる新しいリンクを識別する効果的な戦略を採用している。
実験結果から,提案手法の有効性と一般化性について,多種多様なグラフベースフェアネスタスクを用いて検証した。
関連論文リスト
- Rethinking Link Prediction for Directed Graphs [73.36395969796804]
有向グラフのリンク予測は、様々な現実世界のアプリケーションにとって重要な課題である。
埋め込み手法とグラフニューラルネットワーク(GNN)の最近の進歩は、有望な改善を示している。
本稿では,既存手法の表現性を評価する統一的なフレームワークを提案し,二重埋め込みとデコーダ設計がリンクの有向予測性能に与える影響を強調した。
論文 参考訳(メタデータ) (2025-02-08T23:51:05Z) - FairSample: Training Fair and Accurate Graph Convolutional Neural
Networks Efficiently [29.457338893912656]
センシティブなグループに対する社会的バイアスは多くの実世界のグラフに存在するかもしれない。
本稿では,グラフ構造バイアス,ノード属性バイアス,モデルパラメータがGCNの人口動態にどのように影響するかを詳細に分析する。
私たちの洞察は、3種類のバイアスを緩和するフレームワークであるFairSampleにつながります。
論文 参考訳(メタデータ) (2024-01-26T08:17:12Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Fairness-Aware Graph Neural Networks: A Survey [53.41838868516936]
グラフニューラルネットワーク(GNN)はその表現力と最先端の予測性能によってますます重要になっている。
GNNは、基礎となるグラフデータと基本的な集約メカニズムによって生じる公平性の問題に悩まされる。
本稿では,GNNの公平性向上のためのフェアネス手法の検討と分類を行う。
論文 参考訳(メタデータ) (2023-07-08T08:09:06Z) - Analyzing the Effect of Sampling in GNNs on Individual Fairness [79.28449844690566]
グラフニューラルネットワーク(GNN)ベースの手法は、レコメンダシステムの分野を飽和させた。
我々は,GNNの学習を支援するために,グラフ上で個別の公平性を促進させる既存手法を拡張した。
本研究では,局所ニュアンスが表現学習における公平化促進の過程を導くことによって,ミニバッチトレーニングが個人の公正化を促進することを示す。
論文 参考訳(メタデータ) (2022-09-08T16:20:25Z) - Fair Node Representation Learning via Adaptive Data Augmentation [9.492903649862761]
この研究は、グラフニューラルネットワーク(GNN)を用いて得られるノード表現のバイアス源を理論的に説明する。
この分析に基づいて、本質的なバイアスを低減するために、公正に意識したデータ拡張フレームワークを開発した。
分析と提案手法は,様々なGNN学習機構の公平性を高めるために容易に利用できる。
論文 参考訳(メタデータ) (2022-01-21T05:49:15Z) - Unbiased Graph Embedding with Biased Graph Observations [52.82841737832561]
基礎となるバイアスのないグラフから学習することで、バイアスのない表現を得るための、原則化された新しい方法を提案する。
この新たな視点に基づいて、そのような基礎となるグラフを明らかにするための2つの補完的手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T18:44:37Z) - Biased Edge Dropout for Enhancing Fairness in Graph Representation
Learning [14.664485680918725]
本稿では,グラフ表現学習における公平性向上と相反するバイアスド・エッジ・ドロップアウトアルゴリズム(fairdrop)を提案する。
FairDropは、多くの既存のアルゴリズムに簡単に接続でき、効率的で適応可能で、他の公平性誘導ソリューションと組み合わせることができます。
提案手法は,すべてのモデルのフェアネスを小さく,あるいは無視可能な精度低下まで改善できることを実証する。
論文 参考訳(メタデータ) (2021-04-29T08:59:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。