論文の概要: TopoFair: Linking Topological Bias to Fairness in Link Prediction Benchmarks
- arxiv url: http://arxiv.org/abs/2602.11802v1
- Date: Thu, 12 Feb 2026 10:29:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.771764
- Title: TopoFair: Linking Topological Bias to Fairness in Link Prediction Benchmarks
- Title(参考訳): TopoFair: リンク予測ベンチマークにおけるトポロジカルバイアスとフェアネスのリンク
- Authors: Lilian Marey, Mathilde Perez, Tiphaine Viard, Charlotte Laclau,
- Abstract要約: グラフリンク予測(LP)は、仕事の推薦や友情形成など、社会的に影響力のある応用において重要な役割を果たす。
多くの公正な手法は、予測格差を軽減するためにグラフ構造を操作するが、社会グラフ構造に固有のトポロジ的バイアスはいまだに理解されていない。
本稿では,その基盤となるグラフの構造的バイアスに着目した,公正なLPのための新しいベンチマークフレームワークを提案する。
- 参考スコア(独自算出の注目度): 2.227306407687634
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph link prediction (LP) plays a critical role in socially impactful applications, such as job recommendation and friendship formation. Ensuring fairness in this task is thus essential. While many fairness-aware methods manipulate graph structures to mitigate prediction disparities, the topological biases inherent to social graph structures remain poorly understood and are often reduced to homophily alone. This undermines the generalization potential of fairness interventions and limits their applicability across diverse network topologies. In this work, we propose a novel benchmarking framework for fair LP, centered on the structural biases of the underlying graphs. We begin by reviewing and formalizing a broad taxonomy of topological bias measures relevant to fairness in graphs. In parallel, we introduce a flexible graph generation method that simultaneously ensures fidelity to real-world graph patterns and enables controlled variation across a wide spectrum of structural biases. We apply this framework to evaluate both classical and fairness-aware LP models across multiple use cases. Our results provide a fine-grained empirical analysis of the interactions between predictive fairness and structural biases. This new perspective reveals the sensitivity of fairness interventions to beyond-homophily biases and underscores the need for structurally grounded fairness evaluations in graph learning.
- Abstract(参考訳): グラフリンク予測(LP)は、仕事の推薦や友情形成など、社会的に影響力のある応用において重要な役割を果たす。
したがって、このタスクにおける公平性を保証することが不可欠である。
多くの公正な手法はグラフ構造を操作して予測格差を緩和するが、社会グラフ構造に固有の位相バイアスはよく理解されておらず、しばしばホモフィリーに還元される。
これにより、公正な介入の一般化の可能性が損なわれ、様々なネットワークトポロジにまたがる適用性が制限される。
本研究では,その基盤となるグラフの構造的バイアスに着目した,公正なLPのための新しいベンチマークフレームワークを提案する。
まず、グラフの公平性に関連するトポロジカルバイアス尺度の広範な分類をレビューし、定式化することから始める。
並行して、現実のグラフパターンへの忠実度を同時に保証し、幅広い構造バイアスのスペクトルにわたって制御可能なフレキシブルグラフ生成手法を提案する。
本フレームワークは,複数のユースケースにまたがって,古典的かつ公平なLPモデルの評価を行う。
この結果から,予測公正性と構造バイアスの相互作用を詳細に解析した。
この新たな視点は、ホモフィリーバイアスを超える公平な介入の感受性を明らかにし、グラフ学習における構造的基礎的公正評価の必要性を浮き彫りにしている。
関連論文リスト
- Breaking the Dyadic Barrier: Rethinking Fairness in Link Prediction Beyond Demographic Parity [5.932575574212546]
我々は、リンク予測のようなランク付けに基づくタスクにおいて、公平性評価のために、人口統計学的パーティが望ましい性質を満たしていないことを論じる。
既存の公正評価の限界を形式化し、より表現力のある評価を可能にする枠組みを提案する。
論文 参考訳(メタデータ) (2025-11-09T22:58:29Z) - Estimating Fair Graphs from Graph-Stationary Data [58.94389691379349]
グループレベルとノードレベルの定義に対応するグラフに対する群と個性を考える。
与えられたグラフの公平性を評価するために、スペクトル領域における新しい測定を含む複数のバイアス指標を提供する。
FairSpecTempの1つの変種は、直接バイアスを拘束しながらグラフ定常性の可換性を利用する。
もう一方は、グラフスペクトルのバイアスを制限することによって、公正な推定を暗黙的に奨励し、したがってより柔軟である。
論文 参考訳(メタデータ) (2025-10-08T20:51:57Z) - Fair Deepfake Detectors Can Generalize [51.21167546843708]
共同設立者(データ分散とモデルキャパシティ)の制御により,公正な介入による一般化が向上することを示す。
この知見を応用して, 逆正当性重み付けとサブグループワイド特徴正規化を併用し, 新たなアライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・インセンティブ・インターベンション・インベンション・インテクション(DAID)を提案する。
DAIDは、いくつかの最先端技術と比較して、公平性と一般化の両方において一貫して優れた性能を達成する
論文 参考訳(メタデータ) (2025-07-03T14:10:02Z) - Graph Out-of-Distribution Generalization via Causal Intervention [69.70137479660113]
本稿では,ノードレベルの分散シフトの下で頑健なグラフニューラルネットワーク(GNN)をトレーニングするための,概念的に単純だが原則化されたアプローチを提案する。
本手法は,環境推定器と熟練GNN予測器を協調する因果推論に基づく新たな学習目標を提案する。
本モデルでは,様々な分散シフトによる一般化を効果的に向上し,グラフOOD一般化ベンチマーク上での最先端の精度を最大27.4%向上させることができる。
論文 参考訳(メタデータ) (2024-02-18T07:49:22Z) - FairWire: Fair Graph Generation [18.6649050946022]
この研究は、実グラフと合成グラフの両方における構造バイアスの分析と緩和に焦点を当てている。
同定されたバイアス要因を緩和するため、多目的な利用を提供する新しい公正正則化器を設計する。
本稿では, 公正な正規化器設計を生成モデルで活用することにより, 公正なグラフ生成フレームワークであるFairWireを提案する。
論文 参考訳(メタデータ) (2024-02-06T20:43:00Z) - FairSample: Training Fair and Accurate Graph Convolutional Neural
Networks Efficiently [29.457338893912656]
センシティブなグループに対する社会的バイアスは多くの実世界のグラフに存在するかもしれない。
本稿では,グラフ構造バイアス,ノード属性バイアス,モデルパラメータがGCNの人口動態にどのように影響するかを詳細に分析する。
私たちの洞察は、3種類のバイアスを緩和するフレームワークであるFairSampleにつながります。
論文 参考訳(メタデータ) (2024-01-26T08:17:12Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Fair Node Representation Learning via Adaptive Data Augmentation [9.492903649862761]
この研究は、グラフニューラルネットワーク(GNN)を用いて得られるノード表現のバイアス源を理論的に説明する。
この分析に基づいて、本質的なバイアスを低減するために、公正に意識したデータ拡張フレームワークを開発した。
分析と提案手法は,様々なGNN学習機構の公平性を高めるために容易に利用できる。
論文 参考訳(メタデータ) (2022-01-21T05:49:15Z) - Learning Fair Node Representations with Graph Counterfactual Fairness [56.32231787113689]
以上の事実から導かれるバイアスを考慮したグラフ反事実公正性を提案する。
我々は各ノードとその周辺住民の感度特性の摂動に対応する反事実を生成する。
我々のフレームワークはグラフの反ファクトフェアネスにおける最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-01-10T21:43:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。