論文の概要: Fairness-Aware Graph Representation Learning with Limited Demographic Information
- arxiv url: http://arxiv.org/abs/2511.13540v2
- Date: Tue, 18 Nov 2025 05:27:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 13:59:16.895448
- Title: Fairness-Aware Graph Representation Learning with Limited Demographic Information
- Title(参考訳): 限定デモグラフィック情報を用いた公正なグラフ表現学習
- Authors: Zichong Wang, Zhipeng Yin, Liping Yang, Jun Zhuang, Rui Yu, Qingzhao Kong, Wenbin Zhang,
- Abstract要約: 限られた人口統計情報の下でバイアスを緩和する新しい公正グラフ学習フレームワークを導入する。
具体的には、人口統計情報のためのプロキシを生成するために、部分的な人口統計データによってガイドされるメカニズムを提案する。
また,各ノードの公正性と有用性に対する貢献度を動的に調整する適応的信頼戦略も開発している。
- 参考スコア(独自算出の注目度): 12.550140478205842
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensuring fairness in Graph Neural Networks is fundamental to promoting trustworthy and socially responsible machine learning systems. In response, numerous fair graph learning methods have been proposed in recent years. However, most of them assume full access to demographic information, a requirement rarely met in practice due to privacy, legal, or regulatory restrictions. To this end, this paper introduces a novel fair graph learning framework that mitigates bias in graph learning under limited demographic information. Specifically, we propose a mechanism guided by partial demographic data to generate proxies for demographic information and design a strategy that enforces consistent node embeddings across demographic groups. In addition, we develop an adaptive confidence strategy that dynamically adjusts each node's contribution to fairness and utility based on prediction confidence. We further provide theoretical analysis demonstrating that our framework, FairGLite, achieves provable upper bounds on group fairness metrics, offering formal guarantees for bias mitigation. Through extensive experiments on multiple datasets and fair graph learning frameworks, we demonstrate the framework's effectiveness in both mitigating bias and maintaining model utility.
- Abstract(参考訳): グラフニューラルネットワークにおける公正性の確保は、信頼できる社会的責任を持つ機械学習システムの促進に不可欠である。
これに対し、近年多くの公正グラフ学習手法が提案されている。
しかし、そのほとんどは人口統計情報への完全なアクセスを前提としており、プライバシー、法的、規制上の制約のために実際に満たされることはめったにない。
そこで本研究では,限られた人口統計情報の下でのグラフ学習におけるバイアスを緩和する,新しい公正グラフ学習フレームワークを提案する。
具体的には、部分的な人口統計データによって導かれるメカニズムを提案し、人口統計情報のプロキシを生成し、人口統計グループ間で一貫したノード埋め込みを強制する戦略を設計する。
さらに,予測信頼度に基づいて各ノードの公正性と実用性への貢献度を動的に調整する適応的信頼度戦略を開発する。
さらに、我々のフレームワークであるFairGLiteは、グループフェアネス指標の証明可能な上限を達成し、バイアス軽減の正式な保証を提供する。
複数のデータセットと公正なグラフ学習フレームワークに関する広範な実験を通じて、バイアス軽減とモデルユーティリティ維持におけるフレームワークの有効性を実証する。
関連論文リスト
- Enabling Group Fairness in Graph Unlearning via Bi-level Debiasing [11.879507789144062]
グラフアンラーニングは、トレーニングされたグラフモデルに対するユーザデータの影響を消去することで、ユーザのプライバシを保護するための重要なアプローチである。
グラフアンラーニング手法の最近の進歩は,ユーザ情報を取り除きながら,モデル予測性能の維持に重点を置いている。
プライバシと精度を維持しつつ公正性を確保するために,フェアグラフアンラーニング手法FGUを提案する。
論文 参考訳(メタデータ) (2025-05-14T18:04:02Z) - Perturbation-based Graph Active Learning for Weakly-Supervised Belief Representation Learning [13.311498341765772]
目標は、制約された予算内でラベル付けする価値のあるソーシャルメディアグラフ上で、価値あるメッセージを戦略的に特定することである。
本稿では、ラベル付けのためのメッセージを段階的に選択するグラフデータ強化型アクティブラーニング戦略(PerbALGraph)を提案する。
論文 参考訳(メタデータ) (2024-10-24T22:11:06Z) - A Benchmark for Fairness-Aware Graph Learning [58.515305543487386]
本稿では,10の代表的な公正性を考慮したグラフ学習手法に関する広範なベンチマークを示す。
我々の詳細な分析は、既存の手法の強みと限界に関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-07-16T18:43:43Z) - Graph Learning under Distribution Shifts: A Comprehensive Survey on
Domain Adaptation, Out-of-distribution, and Continual Learning [53.81365215811222]
グラフ学習の文脈における分布変化に対処する最新のアプローチ、戦略、洞察のレビューと要約を提供する。
既存のグラフ学習手法を,グラフ領域適応学習,グラフ配布学習,グラフ連続学習など,いくつかの重要なシナリオに分類する。
本稿では,この領域における現状を体系的に分析し,分散シフト下でのグラフ学習の可能性と今後の方向性について論じる。
論文 参考訳(メタデータ) (2024-02-26T07:52:40Z) - Deceptive Fairness Attacks on Graphs via Meta Learning [102.53029537886314]
グラフ学習モデルにおいて、どのようにして有害な攻撃を達成すれば、バイアスを欺いて悪化させることができるのか?
本稿では,FATEというメタラーニングに基づくフレームワークを提案し,様々なフェアネス定義やグラフ学習モデルに対処する。
半教師付きノード分類のタスクにおいて,実世界のデータセットに関する広範な実験的な評価を行う。
論文 参考訳(メタデータ) (2023-10-24T09:10:14Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - FairGen: Towards Fair Graph Generation [76.34239875010381]
フェアネスを考慮したグラフ生成モデルFairGenを提案する。
我々のモデルはラベルインフォームドグラフ生成モジュールと公正表現学習モジュールを共同で訓練する。
Webベースのグラフを含む7つの実世界のデータセットの実験結果は、FairGenが最先端のグラフ生成モデルと同等のパフォーマンスを得ることを示した。
論文 参考訳(メタデータ) (2023-03-30T23:30:42Z) - Graph Learning with Localized Neighborhood Fairness [32.301270877134]
近所のフェアネスの概念を導入し、そのような局所的なフェア埋め込みを学習するための計算フレームワークを開発する。
本稿では,フェアリンク予測,リンク分類,学習フェアグラフ埋め込みなど,さまざまなグラフ機械学習タスクに対して提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-12-22T21:20:43Z) - FairMILE: Towards an Efficient Framework for Fair Graph Representation
Learning [4.75624470851544]
本稿では,効率的な公正グラフ表現学習の課題について検討し,新しいフレームワークであるFairMILEを提案する。
FairMILEはグラフ表現を効率よく学習できるマルチレベルパラダイムであり、公正さと有効性を保っている。
論文 参考訳(メタデータ) (2022-11-17T22:52:10Z) - Unbiased Graph Embedding with Biased Graph Observations [52.82841737832561]
基礎となるバイアスのないグラフから学習することで、バイアスのない表現を得るための、原則化された新しい方法を提案する。
この新たな視点に基づいて、そのような基礎となるグラフを明らかにするための2つの補完的手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T18:44:37Z) - Fairness-Aware Node Representation Learning [9.850791193881651]
本研究は,グラフ強化設計によるグラフ対照的学習における公平性問題に対処する。
グラフ上の異なる公平性の概念を導入し、提案されたグラフ拡張のガイドラインとして機能する。
実ソーシャルネットワークにおける実験結果から,提案した拡張により,統計的平等と平等な機会の両面において公平性が向上することを示した。
論文 参考訳(メタデータ) (2021-06-09T21:12:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。