論文の概要: Breaking the Dyadic Barrier: Rethinking Fairness in Link Prediction Beyond Demographic Parity
- arxiv url: http://arxiv.org/abs/2511.06568v2
- Date: Sun, 16 Nov 2025 19:26:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:22.07713
- Title: Breaking the Dyadic Barrier: Rethinking Fairness in Link Prediction Beyond Demographic Parity
- Title(参考訳): Dyadic Barrierを破る - デモグラフィックのパリティを超えて、リンク予測の公正性を再考する
- Authors: João Mattos, Debolina Halder Lina, Arlei Silva,
- Abstract要約: 我々は、リンク予測のようなランク付けに基づくタスクにおいて、公平性評価のために、人口統計学的パーティが望ましい性質を満たしていないことを論じる。
既存の公正評価の限界を形式化し、より表現力のある評価を可能にする枠組みを提案する。
- 参考スコア(独自算出の注目度): 5.932575574212546
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Link prediction is a fundamental task in graph machine learning with applications, ranging from social recommendation to knowledge graph completion. Fairness in this setting is critical, as biased predictions can exacerbate societal inequalities. Prior work adopts a dyadic definition of fairness, enforcing fairness through demographic parity between intra-group and inter-group link predictions. However, we show that this dyadic framing can obscure underlying disparities across subgroups, allowing systemic biases to go undetected. Moreover, we argue that demographic parity does not meet desired properties for fairness assessment in ranking-based tasks such as link prediction. We formalize the limitations of existing fairness evaluations and propose a framework that enables a more expressive assessment. Additionally, we propose a lightweight post-processing method combined with decoupled link predictors that effectively mitigates bias and achieves state-of-the-art fairness-utility trade-offs.
- Abstract(参考訳): リンク予測は、ソーシャルレコメンデーションからナレッジグラフ補完まで、アプリケーションによるグラフ機械学習における基本的なタスクである。
この設定の公平性は、偏見付き予測が社会的不平等を悪化させる可能性があるため、批判的である。
先行研究は、グループ内とグループ間リンク予測の間の人口的同値性を通じて公正性を促進する、公平性というダイアディックな定義を採用していた。
しかし、この二進フレーミングはサブグループ間の相違を曖昧にし、システムバイアスが検出されないことを示す。
さらに,リンク予測などのランク付けに基づくタスクにおいて,公平性評価が望まれる性質を満たさないことを論じる。
既存の公正評価の限界を形式化し、より表現力のある評価を可能にする枠組みを提案する。
さらに,非結合リンク予測器と組み合わせた軽量な後処理手法を提案し,バイアスを効果的に軽減し,最先端のフェアネスユーティリティトレードオフを実現する。
関連論文リスト
- k-hop Fairness: Addressing Disparities in Graph Link Prediction Beyond First-Order Neighborhoods [2.4331722417973873]
リンク予測はグラフベースのアプリケーション、特にソーシャルレコメンデーションにおいて中心的な役割を果たす。
実世界のグラフは、しばしば構造的バイアス、特にホモフィリーを反映し、類似した属性を持つノードが接続する傾向を反映する。
我々は,ノード間の距離を条件とした不均一性を評価する,LPの公平性の構造概念である$k$-hop Fairnessを提案する。
論文 参考訳(メタデータ) (2026-03-04T09:20:06Z) - Fairness under Graph Uncertainty: Achieving Interventional Fairness with Partially Known Causal Graphs over Clusters of Variables [2.436681150766912]
公正性の因果的概念は法的要件と一致するが、多くの手法が根底にある因果グラフの詳細な知識へのアクセスを前提としている。
本稿では,変数のテクストクラスタ上で因果グラフを活用することにより,介入フェアネスを実現する学習フレームワークを提案する。
我々のフレームワークは、既存のアプローチよりも公正性と精度のバランスが良く、因果グラフの知識が限られていることを明らかにする。
論文 参考訳(メタデータ) (2026-02-27T02:25:50Z) - TopoFair: Linking Topological Bias to Fairness in Link Prediction Benchmarks [2.227306407687634]
グラフリンク予測(LP)は、仕事の推薦や友情形成など、社会的に影響力のある応用において重要な役割を果たす。
多くの公正な手法は、予測格差を軽減するためにグラフ構造を操作するが、社会グラフ構造に固有のトポロジ的バイアスはいまだに理解されていない。
本稿では,その基盤となるグラフの構造的バイアスに着目した,公正なLPのための新しいベンチマークフレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-12T10:29:44Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Algorithmic Fairness in Performative Policy Learning: Escaping the Impossibility of Group Fairness [19.183108418687226]
我々は,社会分類問題におけるグループフェアネス保証の強化を実現するために,演奏性を活用するアルゴリズム的フェアネスプラクティスを開発した。
このアプローチの重要な利点は、矛盾するグループフェアネス定義の不整合を解決することができることである。
論文 参考訳(メタデータ) (2024-05-30T19:46:47Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Consistent End-to-End Estimation for Counterfactual Fairness [56.9060492313073]
本稿では, 対実フェアネスの予測を行うための新しい対実フェアネス予測器を提案する。
我々は,本手法が対実公正性の概念を確実にするのに有効であることを理論的に保証する。
論文 参考訳(メタデータ) (2023-10-26T17:58:39Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - All of the Fairness for Edge Prediction with Optimal Transport [11.51786288978429]
グラフにおけるエッジ予測の課題に対する公平性の問題について検討する。
本稿では,任意のグラフの隣接行列に対して,グループと個々の公正性のトレードオフを伴う埋め込み非依存の補修手順を提案する。
論文 参考訳(メタデータ) (2020-10-30T15:33:13Z) - On the Fairness of Causal Algorithmic Recourse [36.519629650529666]
グループレベルでの公平度基準と個人レベルでの公平度基準を提案する。
ここでは,会話の公平さは予測の公平さと相補的であることを示す。
本稿では, 社会的介入によって, データ生成プロセスの公正性違反に対処できるかどうかを論じる。
論文 参考訳(メタデータ) (2020-10-13T16:35:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。