論文の概要: Fairness in Ranking: Robustness through Randomization without the Protected Attribute
- arxiv url: http://arxiv.org/abs/2403.19419v1
- Date: Thu, 28 Mar 2024 13:50:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-29 16:14:04.122486
- Title: Fairness in Ranking: Robustness through Randomization without the Protected Attribute
- Title(参考訳): ランク付けの公正性:保護属性のないランダム化によるロバスト性
- Authors: Andrii Kliachkin, Eleni Psaroudaki, Jakub Marecek, Dimitris Fotakis,
- Abstract要約: 本稿では,保護属性の可用性を必要とせず,列挙後処理のランダム化手法を提案する。
本研究では,P-FairnessとNDCG(正規化非カウント累積ゲイン)に関して,提案手法のロバスト性を示し,従来提案されていた手法を改良した。
- 参考スコア(独自算出の注目度): 15.086941303164375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been great interest in fairness in machine learning, especially in relation to classification problems. In ranking-related problems, such as in online advertising, recommender systems, and HR automation, much work on fairness remains to be done. Two complications arise: first, the protected attribute may not be available in many applications. Second, there are multiple measures of fairness of rankings, and optimization-based methods utilizing a single measure of fairness of rankings may produce rankings that are unfair with respect to other measures. In this work, we propose a randomized method for post-processing rankings, which do not require the availability of the protected attribute. In an extensive numerical study, we show the robustness of our methods with respect to P-Fairness and effectiveness with respect to Normalized Discounted Cumulative Gain (NDCG) from the baseline ranking, improving on previously proposed methods.
- Abstract(参考訳): 機械学習には、特に分類問題に関して、公平性に大きな関心が寄せられている。
オンライン広告、レコメンデーターシステム、人事自動化などのランキング関連問題では、フェアネスに関する多くの作業がまだ行われている。
まず、保護された属性は多くのアプリケーションでは利用できないかもしれない。
第2に、ランクの公平性の複数の尺度があり、ランクの公平性の単一の尺度を利用する最適化ベースの手法は、他の尺度に関して不公平なランクを生み出す可能性がある。
本研究では,保護属性の可利用性を必要としない列挙後処理のランダム化手法を提案する。
本研究では,P-FairnessとNDCG(正規化非カウント累積ゲイン)に関して,提案手法のロバスト性を示し,従来提案されていた手法を改良した。
関連論文リスト
- Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Anti-Exploration by Random Network Distillation [63.04360288089277]
ランダムネットワーク蒸留 (RND) の条件付けは, 不確実性推定器として用いるのに十分な識別性がないことを示す。
この制限は、FiLM(Feature-wise Linear Modulation)に基づく条件付けによって回避できることを示す。
D4RLベンチマークで評価したところ、アンサンブルベースの手法に匹敵する性能を達成でき、アンサンブルのない手法よりも広いマージンで性能を向上できることがわかった。
論文 参考訳(メタデータ) (2023-01-31T13:18:33Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - MANI-Rank: Multiple Attribute and Intersectional Group Fairness for
Consensus Ranking [6.231376714841276]
ランキングにおけるグループフェアネス、特にランクアグリゲーションは、その初期段階にある。
近年の研究では、ランキングを組み合わせるための公正なランクアグリゲーションの概念が導入されたが、候補が1つの二項保護属性を持つ場合に限られている。
しかし、すべてのランク付け者の好みを表すコンセンサスランキングを作成する方法は、依然として未解決の問題である。
我々は、このオープンなマルチ属性フェアコンセンサスランキング問題を初めて定義し、解決する。
論文 参考訳(メタデータ) (2022-07-20T16:36:20Z) - Recommendation Systems with Distribution-Free Reliability Guarantees [83.80644194980042]
我々は、主に良いアイテムを含むことを厳格に保証されたアイテムのセットを返す方法を示す。
本手法は, 擬似発見率の厳密な有限サンプル制御によるランキングモデルを提供する。
我々はYahoo!のランキングとMSMarcoデータセットの学習方法を評価する。
論文 参考訳(メタデータ) (2022-07-04T17:49:25Z) - Fairness for Robust Learning to Rank [8.019491256870557]
分布ロバストネスの第一原理に基づく新しいランキング体系を導出する。
提案手法は,既存のベースライン手法よりも,公平なランク付けに有効であることを示す。
論文 参考訳(メタデータ) (2021-12-12T17:56:56Z) - A Pre-processing Method for Fairness in Ranking [0.0]
本稿では,データの順序を相互に評価する公平なランキングフレームワークを提案する。
提案手法は,実世界のデータセットに対する精度と公平性のトレードオフにおいて,既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-29T02:55:32Z) - Estimation of Fair Ranking Metrics with Incomplete Judgments [70.37717864975387]
本研究では,4つの評価指標のサンプリング手法と推定手法を提案する。
ラベル付きアイテムの数が極めて少ない場合でも動作可能な頑健で偏りのない推定器を定式化する。
論文 参考訳(メタデータ) (2021-08-11T10:57:00Z) - Fairness Through Regularization for Learning to Rank [33.52974791836553]
本稿では,二項分類から文脈のランク付けのための学習への多くの公平性の概念の伝達方法を示す。
我々の形式主義は、証明可能な一般化保証を伴う公正目標を組み込む方法の設計を可能にする。
論文 参考訳(メタデータ) (2021-02-11T13:29:08Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。