論文の概要: Fairness-Aware Graph Representation Learning with Limited Demographic Information
- arxiv url: http://arxiv.org/abs/2511.13540v2
- Date: Tue, 18 Nov 2025 05:27:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 13:59:16.895448
- Title: Fairness-Aware Graph Representation Learning with Limited Demographic Information
- Title(参考訳): 限定デモグラフィック情報を用いた公正なグラフ表現学習
- Authors: Zichong Wang, Zhipeng Yin, Liping Yang, Jun Zhuang, Rui Yu, Qingzhao Kong, Wenbin Zhang,
- Abstract要約: 限られた人口統計情報の下でバイアスを緩和する新しい公正グラフ学習フレームワークを導入する。
具体的には、人口統計情報のためのプロキシを生成するために、部分的な人口統計データによってガイドされるメカニズムを提案する。
また,各ノードの公正性と有用性に対する貢献度を動的に調整する適応的信頼戦略も開発している。
- 参考スコア(独自算出の注目度): 12.550140478205842
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensuring fairness in Graph Neural Networks is fundamental to promoting trustworthy and socially responsible machine learning systems. In response, numerous fair graph learning methods have been proposed in recent years. However, most of them assume full access to demographic information, a requirement rarely met in practice due to privacy, legal, or regulatory restrictions. To this end, this paper introduces a novel fair graph learning framework that mitigates bias in graph learning under limited demographic information. Specifically, we propose a mechanism guided by partial demographic data to generate proxies for demographic information and design a strategy that enforces consistent node embeddings across demographic groups. In addition, we develop an adaptive confidence strategy that dynamically adjusts each node's contribution to fairness and utility based on prediction confidence. We further provide theoretical analysis demonstrating that our framework, FairGLite, achieves provable upper bounds on group fairness metrics, offering formal guarantees for bias mitigation. Through extensive experiments on multiple datasets and fair graph learning frameworks, we demonstrate the framework's effectiveness in both mitigating bias and maintaining model utility.
- Abstract(参考訳): グラフニューラルネットワークにおける公正性の確保は、信頼できる社会的責任を持つ機械学習システムの促進に不可欠である。
これに対し、近年多くの公正グラフ学習手法が提案されている。
しかし、そのほとんどは人口統計情報への完全なアクセスを前提としており、プライバシー、法的、規制上の制約のために実際に満たされることはめったにない。
そこで本研究では,限られた人口統計情報の下でのグラフ学習におけるバイアスを緩和する,新しい公正グラフ学習フレームワークを提案する。
具体的には、部分的な人口統計データによって導かれるメカニズムを提案し、人口統計情報のプロキシを生成し、人口統計グループ間で一貫したノード埋め込みを強制する戦略を設計する。
さらに,予測信頼度に基づいて各ノードの公正性と実用性への貢献度を動的に調整する適応的信頼度戦略を開発する。
さらに、我々のフレームワークであるFairGLiteは、グループフェアネス指標の証明可能な上限を達成し、バイアス軽減の正式な保証を提供する。
複数のデータセットと公正なグラフ学習フレームワークに関する広範な実験を通じて、バイアス軽減とモデルユーティリティ維持におけるフレームワークの有効性を実証する。
関連論文リスト
- Deceptive Fairness Attacks on Graphs via Meta Learning [102.53029537886314]
グラフ学習モデルにおいて、どのようにして有害な攻撃を達成すれば、バイアスを欺いて悪化させることができるのか?
本稿では,FATEというメタラーニングに基づくフレームワークを提案し,様々なフェアネス定義やグラフ学習モデルに対処する。
半教師付きノード分類のタスクにおいて,実世界のデータセットに関する広範な実験的な評価を行う。
論文 参考訳(メタデータ) (2023-10-24T09:10:14Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - FairGen: Towards Fair Graph Generation [76.34239875010381]
フェアネスを考慮したグラフ生成モデルFairGenを提案する。
我々のモデルはラベルインフォームドグラフ生成モジュールと公正表現学習モジュールを共同で訓練する。
Webベースのグラフを含む7つの実世界のデータセットの実験結果は、FairGenが最先端のグラフ生成モデルと同等のパフォーマンスを得ることを示した。
論文 参考訳(メタデータ) (2023-03-30T23:30:42Z) - FairMILE: Towards an Efficient Framework for Fair Graph Representation
Learning [4.75624470851544]
本稿では,効率的な公正グラフ表現学習の課題について検討し,新しいフレームワークであるFairMILEを提案する。
FairMILEはグラフ表現を効率よく学習できるマルチレベルパラダイムであり、公正さと有効性を保っている。
論文 参考訳(メタデータ) (2022-11-17T22:52:10Z) - Unbiased Graph Embedding with Biased Graph Observations [52.82841737832561]
基礎となるバイアスのないグラフから学習することで、バイアスのない表現を得るための、原則化された新しい方法を提案する。
この新たな視点に基づいて、そのような基礎となるグラフを明らかにするための2つの補完的手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T18:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。