論文の概要: The Role of Relevance in Fair Ranking
- arxiv url: http://arxiv.org/abs/2305.05608v2
- Date: Tue, 6 Jun 2023 15:02:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 19:58:24.313447
- Title: The Role of Relevance in Fair Ranking
- Title(参考訳): 公正ランキングにおける関連性の役割
- Authors: Aparna Balagopalan, Abigail Z. Jacobs, Asia Biega
- Abstract要約: 妥当性スコアは、公正な介入を導くために、望ましい基準のセットを満たすべきであると論じる。
次に、偏りのあるユーザクリックデータから推定される関連性のケーススタディにおいて、これらの基準がすべて満たされているわけではないことを実証的に示す。
分析と結果から,関連収集・生成への新たなアプローチの必要性が浮き彫りになっている。
- 参考スコア(独自算出の注目度): 1.5469452301122177
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Online platforms mediate access to opportunity: relevance-based rankings
create and constrain options by allocating exposure to job openings and job
candidates in hiring platforms, or sellers in a marketplace. In order to do so
responsibly, these socially consequential systems employ various fairness
measures and interventions, many of which seek to allocate exposure based on
worthiness. Because these constructs are typically not directly observable,
platforms must instead resort to using proxy scores such as relevance and infer
them from behavioral signals such as searcher clicks. Yet, it remains an open
question whether relevance fulfills its role as such a worthiness score in
high-stakes fair rankings. In this paper, we combine perspectives and tools
from the social sciences, information retrieval, and fairness in machine
learning to derive a set of desired criteria that relevance scores should
satisfy in order to meaningfully guide fairness interventions. We then
empirically show that not all of these criteria are met in a case study of
relevance inferred from biased user click data. We assess the impact of these
violations on the estimated system fairness and analyze whether existing
fairness interventions may mitigate the identified issues. Our analyses and
results surface the pressing need for new approaches to relevance collection
and generation that are suitable for use in fair ranking.
- Abstract(参考訳): オンラインプラットフォームは機会へのアクセスを仲介する: 関連性に基づくランキングは、雇用プラットフォームやマーケットプレイスの売り手において求人や求職者への露出を割り当てることで、オプションを作成し、制限する。
社会的に責任を負うために、これらの社会的な連帯システムは様々な公正対策や介入を採用しており、その多くは価値に基づく露出の配分を目指している。
これらの構成は通常直接観測できないため、プラットフォームは関連性などのプロキシスコアを使用し、検索者クリックのような行動信号から推論する必要がある。
しかし、高評価の公正なランキングにおいて、関連性がそのような価値あるスコアとしての役割を果たすかどうかには疑問が残る。
本稿では,機械学習における社会科学,情報検索,公平性といった視点とツールを組み合わせて,適合度スコアが満たすべき条件のセットを導出し,公平性介入を有意義に導く。
そして、バイアスのあるユーザークリックデータから推測される関連性のケーススタディにおいて、これらの基準がすべて満たされていないことを実証的に示す。
これらの違反がシステムフェアネスの推定に与える影響を評価し、既存のフェアネス介入が特定問題を緩和するかどうかを分析する。
分析と結果から,公平なランキングでの使用に適した関連性収集と生成への新たなアプローチの必要性が浮き彫りになった。
関連論文リスト
- Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Fairness in Contextual Resource Allocation Systems: Metrics and
Incompatibility Results [7.705334602362225]
本研究は、住宅を提供するホームレスサービスなど、基本的なニーズを満たすため、不足する資源を割り当てるシステムについて研究する。
これらの制度は、しばしば、体系的な人種、性別、その他の不正によって不当に影響を受けるコミュニティをサポートする。
本稿では,機械学習における公平度指標に触発された文脈的資源配分システムにおける公平性を評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-04T02:30:58Z) - Fair Ranking with Noisy Protected Attributes [25.081136190260015]
商品の社会的特質が無作為かつ独立に摂動するモデルの下で、公平な問題を考察する。
本稿では,グループフェアネス要件と,社会的に安定な属性の摂動に関する確率的情報とを組み込んだ公平なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-30T15:22:28Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Fair ranking: a critical review, challenges, and future directions [4.126546022406797]
大規模な「フェアランキング」研究文献は、ランク付けされている個人、提供者、コンテンツに対して、これらのシステムを公平にするために開発されている。
この研究は、このようなアプローチが見逃すしばしばコンテキスト固有の懸念を詳述した、この文献の批判的な概要を提供する。
そして、より包括的でインパクト指向の公正なランキング研究アジェンダへの道を提供する。
論文 参考訳(メタデータ) (2022-01-29T21:26:04Z) - Towards a Fairness-Aware Scoring System for Algorithmic Decision-Making [35.21763166288736]
本稿では,データ駆動型フェアネス対応スコアリングシステムを構築するための一般的なフレームワークを提案する。
提案するフレームワークは,実践者や政策立案者に対して,希望する公正性要件を選択するための柔軟性を提供する。
論文 参考訳(メタデータ) (2021-09-21T09:46:35Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。