論文の概要: FairRARI: A Plug and Play Framework for Fairness-Aware PageRank
- arxiv url: http://arxiv.org/abs/2602.08589v1
- Date: Mon, 09 Feb 2026 12:30:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.22501
- Title: FairRARI: A Plug and Play Framework for Fairness-Aware PageRank
- Title(参考訳): FairRARI: 公正を意識したPageRankのためのプラグインとプレイフレームワーク
- Authors: Emmanouil Kariotakis, Aritra Konar,
- Abstract要約: PageRank(PR)は、グラフ機械学習タスクの基本的なアルゴリズムである。
本報告では,FairRARIを用いて効率よく取り組める3つのフェアネス基準を提案する。
実世界のデータセットに関する大規模な実験は、FairRARIが既存手法を実用性で上回っていることを示している。
- 参考スコア(独自算出の注目度): 7.305019142196581
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: PageRank (PR) is a fundamental algorithm in graph machine learning tasks. Owing to the increasing importance of algorithmic fairness, we consider the problem of computing PR vectors subject to various group-fairness criteria based on sensitive attributes of the vertices. At present, principled algorithms for this problem are lacking - some cannot guarantee that a target fairness level is achieved, while others do not feature optimality guarantees. In order to overcome these shortcomings, we put forth a unified in-processing convex optimization framework, termed FairRARI, for tackling different group-fairness criteria in a ``plug and play'' fashion. Leveraging a variational formulation of PR, the framework computes fair PR vectors by solving a strongly convex optimization problem with fairness constraints, thereby ensuring that a target fairness level is achieved. We further introduce three different fairness criteria which can be efficiently tackled using FairRARI to compute fair PR vectors with the same asymptotic time-complexity as the original PR algorithm. Extensive experiments on real-world datasets showcase that FairRARI outperforms existing methods in terms of utility, while achieving the desired fairness levels across multiple vertex groups; thereby highlighting its effectiveness.
- Abstract(参考訳): PageRank(PR)は、グラフ機械学習タスクの基本的なアルゴリズムである。
アルゴリズムフェアネスの重要性が高まっているため,頂点の感度特性に基づいて,様々なグループフェアネス基準に基づくPRベクトルの計算の問題を考える。
現在、この問題の原理的アルゴリズムは欠落しており、対象の公正度レベルが達成されることを保証できない者もいれば、最適性保証を特徴としない者もいる。
このような欠点を克服するために,我々はFairRARIと呼ばれる統一されたプロセス内凸最適化フレームワークを,‘plug and play’方式で異なるグループフェアネス基準に対処するために導入した。
このフレームワークはPRの変分定式化を利用して、強い凸最適化問題をフェアネス制約で解くことにより、公正PRベクトルを計算し、目標のフェアネスレベルを確実にする。
さらに、FairRARIを用いて、元のPRアルゴリズムと同じ漸近時間複雑度を持つ公正PRベクトルを効率的に計算できる3つの異なるフェアネス基準を導入する。
実世界のデータセットに関する大規模な実験では、FairRARIは複数の頂点群にまたがる所望の公平性レベルを達成しつつ、実用性の観点から既存の手法よりも優れており、その結果の有効性を強調している。
関連論文リスト
- Accelerating Spectral Clustering under Fairness Constraints [56.865810822418744]
本研究では,Fair SC問題を凸関数(DC)フレームワークの差内にキャストすることで,フェアスペクトルクラスタリング(Fair SC)のための新しい効率的な手法を提案する。
本研究では,各サブプロブレムを効率よく解き,計算効率が先行処理よりも高いことを示す。
論文 参考訳(メタデータ) (2025-06-09T18:46:27Z) - A Unified Post-Processing Framework for Group Fairness in Classification [10.615965454674901]
本稿では, グループフェアネスの基準である統計パリティ, 平等機会, 等化確率を1つの枠組みでカバーする, 公平分類のためのポストプロセッシングアルゴリズムを提案する。
我々のアルゴリズムは「LinearPost」と呼ばれ、(不公平な)ベース予測器の予測を、(予測された)グループメンバーシップの重み付けによる「公正リスク」で線形変換することで、公正なポストホックを実現する。
論文 参考訳(メタデータ) (2024-05-07T05:58:44Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Proportionally Representative Clustering [17.5359577544947]
本稿では,クラスタリング問題を対象とした新しい公理比例代表フェアネス(PRF)を提案する。
我々のフェアネスの概念は、既存のフェアクラスタリングアルゴリズムで満たされていない。
制約のない設定に対する我々のアルゴリズムは、よく研究されたプロポーショナルフェアネス(PF)の公理に対する最初の既知時間近似アルゴリズムでもある。
論文 参考訳(メタデータ) (2023-04-27T02:01:24Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - FaiREE: Fair Classification with Finite-Sample and Distribution-Free Guarantee [35.68504233140245]
FaiREE は群フェアネス制約を有限サンプルと分布自由な理論保証で満たす公平な分類アルゴリズムである。
FaiREEは最先端のアルゴリズムよりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-11-28T05:16:20Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - A Maximal Correlation Approach to Imposing Fairness in Machine Learning [25.773384159810234]
我々は,情報理論の観点から,アルゴリズムフェアネスの問題を探究する。
公正度制約を表現するための最大相関フレームワークを導入し、独立性や分離性に基づく公正度基準を強制する正規化要因を導出できることを示した。
これらのアルゴリズムは, 離散データセット(COMPAS, アダルト)と連続データセット(コミュニティ, 犯罪)の両面において, スムーズなパフォーマンス・フェアネストレードオフ曲線を提供し, 最先端の手法と競合することを示す。
論文 参考訳(メタデータ) (2020-12-30T18:15:05Z) - Fairness with Overlapping Groups [15.154984899546333]
標準的なゴールは、複数の重なり合うグループ間での公平度メトリクスの平等を保証することである。
本稿では、確率論的人口分析を用いて、この標準公正分類問題を再考する。
提案手法は,既存のグループフェア分類手法を統一し,様々な非分解性性能指標と公正度尺度の拡張を可能にする。
論文 参考訳(メタデータ) (2020-06-24T05:01:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。