論文の概要: k-hop Fairness: Addressing Disparities in Graph Link Prediction Beyond First-Order Neighborhoods
- arxiv url: http://arxiv.org/abs/2603.03867v1
- Date: Wed, 04 Mar 2026 09:20:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.247462
- Title: k-hop Fairness: Addressing Disparities in Graph Link Prediction Beyond First-Order Neighborhoods
- Title(参考訳): k-hop Fairness: グラフリンク予測における近隣地域の格差に対処する
- Authors: Lilian Marey, Tiphaine Viard, Charlotte Laclau,
- Abstract要約: リンク予測はグラフベースのアプリケーション、特にソーシャルレコメンデーションにおいて中心的な役割を果たす。
実世界のグラフは、しばしば構造的バイアス、特にホモフィリーを反映し、類似した属性を持つノードが接続する傾向を反映する。
我々は,ノード間の距離を条件とした不均一性を評価する,LPの公平性の構造概念である$k$-hop Fairnessを提案する。
- 参考スコア(独自算出の注目度): 2.4331722417973873
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Link prediction (LP) plays a central role in graph-based applications, particularly in social recommendation. However, real-world graphs often reflect structural biases, most notably homophily, the tendency of nodes with similar attributes to connect. While this property can improve predictive performance, it also risks reinforcing existing social disparities. In response, fairness-aware LP methods have emerged, often seeking to mitigate these effects by promoting inter-group connections, that is, links between nodes with differing sensitive attributes (e.g., gender), following the principle of dyadic fairness. However, dyadic fairness overlooks potential disparities within the sensitive groups themselves. To overcome this issue, we propose $k$-hop fairness, a structural notion of fairness for LP, that assesses disparities conditioned on the distance between nodes in the graph. We formalize this notion through predictive fairness and structural bias metrics, and propose pre- and post-processing mitigation strategies. Experiments across standard LP benchmarks reveal: (1) a strong tendency of models to reproduce structural biases at different $k$-hops; (2) interdependence between structural biases at different hops when rewiring graphs; and (3) that our post-processing method achieves favorable $k$-hop performance-fairness trade-offs compared to existing fair LP baselines.
- Abstract(参考訳): リンク予測(LP)は、特にソーシャルレコメンデーションにおいて、グラフベースのアプリケーションにおいて中心的な役割を果たす。
しかし、実世界のグラフは、しばしば構造バイアスを反映し、特にホモフィリー(英語版)は、類似した属性を持つノードが接続する傾向を反映している。
この特性は予測性能を向上させることができるが、既存の社会的格差を補強するリスクもある。
対して、フェアネスを意識したLP手法が出現し、しばしばグループ間接続、すなわち、異なる感度特性(例えば性別)を持つノード間のリンクを促進することによって、これらの効果を緩和しようと試みている。
しかし、ダイアド・フェアネスは、センシティブ群自体の潜在的な相違を見落としている。
この問題を解決するために,グラフ内のノード間の距離で条件付けられた相違を評価する,LPの公平性の構造概念である$k$-hop Fairnessを提案する。
我々はこの概念を予測公正性と構造バイアスメトリクスで定式化し、前処理と後処理の緩和戦略を提案する。
標準LPベンチマークを用いた実験では,(1)異なる$k$-hopにおける構造バイアスを再現するモデルの強い傾向,(2)グラフを切り替える際の異なるホップにおける構造バイアスの相互依存性,(3)我々の後処理手法が既存のフェアLPベースラインと比較して良好な$k$-hop性能-fairnessトレードオフを達成すること,などが示されている。
関連論文リスト
- TopoFair: Linking Topological Bias to Fairness in Link Prediction Benchmarks [2.227306407687634]
グラフリンク予測(LP)は、仕事の推薦や友情形成など、社会的に影響力のある応用において重要な役割を果たす。
多くの公正な手法は、予測格差を軽減するためにグラフ構造を操作するが、社会グラフ構造に固有のトポロジ的バイアスはいまだに理解されていない。
本稿では,その基盤となるグラフの構造的バイアスに着目した,公正なLPのための新しいベンチマークフレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-12T10:29:44Z) - Cauchy-Schwarz Fairness Regularizer [17.898277374771254]
機械学習におけるグループフェアネスは、モデル予測とセンシティブな属性間の依存を減らす正規化子を追加することで強制されることが多い。
感性群に条件付けられた予測分布間の経験的CSのばらつきを罰するコーシー=シュワルツフェアネス正規化器を提案する。
論文 参考訳(メタデータ) (2025-12-10T09:39:30Z) - Breaking the Dyadic Barrier: Rethinking Fairness in Link Prediction Beyond Demographic Parity [5.932575574212546]
我々は、リンク予測のようなランク付けに基づくタスクにおいて、公平性評価のために、人口統計学的パーティが望ましい性質を満たしていないことを論じる。
既存の公正評価の限界を形式化し、より表現力のある評価を可能にする枠組みを提案する。
論文 参考訳(メタデータ) (2025-11-09T22:58:29Z) - Estimating Fair Graphs from Graph-Stationary Data [58.94389691379349]
グループレベルとノードレベルの定義に対応するグラフに対する群と個性を考える。
与えられたグラフの公平性を評価するために、スペクトル領域における新しい測定を含む複数のバイアス指標を提供する。
FairSpecTempの1つの変種は、直接バイアスを拘束しながらグラフ定常性の可換性を利用する。
もう一方は、グラフスペクトルのバイアスを制限することによって、公正な推定を暗黙的に奨励し、したがってより柔軟である。
論文 参考訳(メタデータ) (2025-10-08T20:51:57Z) - Fair Deepfake Detectors Can Generalize [51.21167546843708]
共同設立者(データ分散とモデルキャパシティ)の制御により,公正な介入による一般化が向上することを示す。
この知見を応用して, 逆正当性重み付けとサブグループワイド特徴正規化を併用し, 新たなアライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・インセンティブ・インターベンション・インベンション・インテクション(DAID)を提案する。
DAIDは、いくつかの最先端技術と比較して、公平性と一般化の両方において一貫して優れた性能を達成する
論文 参考訳(メタデータ) (2025-07-03T14:10:02Z) - Promoting Fairness in Link Prediction with Graph Enhancement [6.477859104817626]
リンク予測はネットワーク分析において重要な課題であるが、偏りのある予測の傾向が示されている。
本研究は,予測リンク確率が接続ノードの感度特性に依存しないことを保証するためのフェアリンク予測問題について検討する。
本稿では,FairLinkを提案する。このFairLinkは,リンク予測器のトレーニング中にデバイアスを回避し,公平性向上したグラフを学習する手法である。
論文 参考訳(メタデータ) (2024-09-13T09:18:29Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Endowing Pre-trained Graph Models with Provable Fairness [49.8431177748876]
証明可能な公正性を持つ事前学習グラフモデル(GraphPAR)を実現する新しいアダプタチューニングフレームワークを提案する。
具体的には、各ノードに対して異なる属性意味を持つノード表現を拡張するために、ノード表現に対するセンシティブなセマンティックオーグメンタを設計する。
GraphPARでは、各ノードの公平性が証明可能であるかどうか、すなわち、予測が特定の機密属性セマンティクスの範囲内で常に公平であるかどうかを定量化する。
論文 参考訳(メタデータ) (2024-02-19T14:16:08Z) - Marginal Nodes Matter: Towards Structure Fairness in Graphs [77.25149739933596]
構造フェアネスを実現するために,textbfStructural textbfFair textbfGraph textbfNeural textbfNetwork (SFairGNN)を提案する。
実験の結果、SFairGNNは、下流タスクにおける全体的な性能を維持しながら、構造フェアネスを大幅に改善できることがわかった。
論文 参考訳(メタデータ) (2023-10-23T03:20:32Z) - Learning Fair Node Representations with Graph Counterfactual Fairness [56.32231787113689]
以上の事実から導かれるバイアスを考慮したグラフ反事実公正性を提案する。
我々は各ノードとその周辺住民の感度特性の摂動に対応する反事実を生成する。
我々のフレームワークはグラフの反ファクトフェアネスにおける最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-01-10T21:43:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。