論文の概要: Breaking the Dyadic Barrier: Rethinking Fairness in Link Prediction Beyond Demographic Parity
- arxiv url: http://arxiv.org/abs/2511.06568v1
- Date: Sun, 09 Nov 2025 22:58:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.00443
- Title: Breaking the Dyadic Barrier: Rethinking Fairness in Link Prediction Beyond Demographic Parity
- Title(参考訳): Dyadic Barrierを破る - デモグラフィックのパリティを超えて、リンク予測の公正性を再考する
- Authors: João Mattos, Debolina Halder Lina, Arlei Silva,
- Abstract要約: 我々は、リンク予測のようなランク付けに基づくタスクにおいて、公平性評価のために、人口統計学的パーティが望ましい性質を満たしていないことを論じる。
既存の公正評価の限界を形式化し、より表現力のある評価を可能にする枠組みを提案する。
- 参考スコア(独自算出の注目度): 5.932575574212546
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Link prediction is a fundamental task in graph machine learning with applications, ranging from social recommendation to knowledge graph completion. Fairness in this setting is critical, as biased predictions can exacerbate societal inequalities. Prior work adopts a dyadic definition of fairness, enforcing fairness through demographic parity between intra-group and inter-group link predictions. However, we show that this dyadic framing can obscure underlying disparities across subgroups, allowing systemic biases to go undetected. Moreover, we argue that demographic parity does not meet desired properties for fairness assessment in ranking-based tasks such as link prediction. We formalize the limitations of existing fairness evaluations and propose a framework that enables a more expressive assessment. Additionally, we propose a lightweight post-processing method combined with decoupled link predictors that effectively mitigates bias and achieves state-of-the-art fairness-utility trade-offs.
- Abstract(参考訳): リンク予測は、ソーシャルレコメンデーションからナレッジグラフ補完まで、アプリケーションによるグラフ機械学習における基本的なタスクである。
この設定の公平性は、偏見付き予測が社会的不平等を悪化させる可能性があるため、批判的である。
先行研究は、グループ内とグループ間リンク予測の間の人口的同値性を通じて公正性を促進する、公平性というダイアディックな定義を採用していた。
しかし、この二進フレーミングはサブグループ間の相違を曖昧にし、システムバイアスが検出されないことを示す。
さらに,リンク予測などのランク付けに基づくタスクにおいて,公平性評価が望まれる性質を満たさないことを論じる。
既存の公正評価の限界を形式化し、より表現力のある評価を可能にする枠組みを提案する。
さらに,非結合リンク予測器と組み合わせた軽量な後処理手法を提案し,バイアスを効果的に軽減し,最先端のフェアネスユーティリティトレードオフを実現する。
関連論文リスト
- Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Algorithmic Fairness in Performative Policy Learning: Escaping the Impossibility of Group Fairness [19.183108418687226]
我々は,社会分類問題におけるグループフェアネス保証の強化を実現するために,演奏性を活用するアルゴリズム的フェアネスプラクティスを開発した。
このアプローチの重要な利点は、矛盾するグループフェアネス定義の不整合を解決することができることである。
論文 参考訳(メタデータ) (2024-05-30T19:46:47Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Consistent End-to-End Estimation for Counterfactual Fairness [56.9060492313073]
本稿では, 対実フェアネスの予測を行うための新しい対実フェアネス予測器を提案する。
我々は,本手法が対実公正性の概念を確実にするのに有効であることを理論的に保証する。
論文 参考訳(メタデータ) (2023-10-26T17:58:39Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - All of the Fairness for Edge Prediction with Optimal Transport [11.51786288978429]
グラフにおけるエッジ予測の課題に対する公平性の問題について検討する。
本稿では,任意のグラフの隣接行列に対して,グループと個々の公正性のトレードオフを伴う埋め込み非依存の補修手順を提案する。
論文 参考訳(メタデータ) (2020-10-30T15:33:13Z) - On the Fairness of Causal Algorithmic Recourse [36.519629650529666]
グループレベルでの公平度基準と個人レベルでの公平度基準を提案する。
ここでは,会話の公平さは予測の公平さと相補的であることを示す。
本稿では, 社会的介入によって, データ生成プロセスの公正性違反に対処できるかどうかを論じる。
論文 参考訳(メタデータ) (2020-10-13T16:35:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。