論文の概要: What's in a Query: Polarity-Aware Distribution-Based Fair Ranking
- arxiv url: http://arxiv.org/abs/2502.11429v1
- Date: Mon, 17 Feb 2025 04:38:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:16:32.567311
- Title: What's in a Query: Polarity-Aware Distribution-Based Fair Ranking
- Title(参考訳): ポラリティを意識した分布に基づく公正ランキング
- Authors: Aparna Balagopalan, Kai Wang, Olawale Salaudeen, Asia Biega, Marzyeh Ghassemi,
- Abstract要約: ランキングにおける注意分布に基づく公正度に関する新しい尺度を提案する。
群フェアネスは個々のフェアネスによって上界であることが証明される。
償却公正ランキングの先行研究は、クエリに関する重要な情報を無視していることがわかった。
- 参考スコア(独自算出の注目度): 15.602253525743798
- License:
- Abstract: Machine learning-driven rankings, where individuals (or items) are ranked in response to a query, mediate search exposure or attention in a variety of safety-critical settings. Thus, it is important to ensure that such rankings are fair. Under the goal of equal opportunity, attention allocated to an individual on a ranking interface should be proportional to their relevance across search queries. In this work, we examine amortized fair ranking -- where relevance and attention are cumulated over a sequence of user queries to make fair ranking more feasible in practice. Unlike prior methods that operate on expected amortized attention for each individual, we define new divergence-based measures for attention distribution-based fairness in ranking (DistFaiR), characterizing unfairness as the divergence between the distribution of attention and relevance corresponding to an individual over time. This allows us to propose new definitions of unfairness, which are more reliable at test time. Second, we prove that group fairness is upper-bounded by individual fairness under this definition for a useful class of divergence measures, and experimentally show that maximizing individual fairness through an integer linear programming-based optimization is often beneficial to group fairness. Lastly, we find that prior research in amortized fair ranking ignores critical information about queries, potentially leading to a fairwashing risk in practice by making rankings appear more fair than they actually are.
- Abstract(参考訳): クエリに応じて個人(またはアイテム)がランク付けされ、検索の露出や注意をさまざまな安全クリティカルな設定で仲介する、機械学習駆動のランキング。
したがって、これらのランクが公平であることを保証することが重要である。
均等な機会の目標の下では、ランキングインターフェース上の個人に割り当てられた注意は、検索クエリ間の関連性に比例するべきである。
そこで本研究では,ユーザクエリのシーケンスに関連性や注意が蓄積され,公正なランキングが現実的により実現可能となるような,償却公正ランキングについて検討する。
個人毎の期待されたアモーティズド・アモーティズド・アモーティズド・アモーティズド・アモーティズド・アモーティズド・アモーティズド・アモーティズメント(DistFaiR)を運用する従来の手法とは違って、我々は、注目分布と個人に応じた関連性の相違として不公平性を特徴付ける、新たな分散に基づくアワーネス・アワーネス(DistFaiR)を定めている。
これにより、テスト時により信頼性の高い不公平の定義を新たに提案できます。
第二に、この定義の下では、分岐尺度の有用なクラスにおいて、群フェアネスが個人フェアネスによって上界であることが証明され、整数線形計画に基づく最適化による個人フェアネスの最大化が、群フェアネスにとって有益であることが実験的に示されている。
最後に、償却公正ランキングに関する先行研究では、クエリに関する重要な情報を無視しており、ランキングを実際よりも公平に見せることによって、実際にフェアウォッシングのリスクに繋がる可能性があることに気付きました。
関連論文リスト
- Stability and Multigroup Fairness in Ranking with Uncertain Predictions [61.76378420347408]
我々の研究はランキング関数について考察している。分類タスクの個々の予測からランキング上の分布へのマップ。
ランキング関数の2つの側面、すなわち予測における摂動に対する安定性と、個人とサブグループの両方に対する公正性に焦点を当てる。
我々の研究は、不確実性に敏感なランキングが、グループと個人レベルの公正性の保証とを自然に補間していることを示している。
論文 参考訳(メタデータ) (2024-02-14T17:17:05Z) - Fairness in Ranking under Disparate Uncertainty [24.401219403555814]
我々は、基礎となる関連モデルの不確実性がオプション群間で異なる場合、ランク付けは不公平をもたらす可能性があると論じる。
ランク付けのための新しい公正基準として平等ランク付け(EOR)を提案する。
異なる不確実性が存在する場合でも、EORは関連する選択肢の中でグループワイドフェア・宝くじに対応していることを示す。
論文 参考訳(メタデータ) (2023-09-04T13:49:48Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Sampling Individually-Fair Rankings that are Always Group Fair [9.333939443470944]
公正ランキングタスクは、グループフェアネスの制約を満たすために、実用性を最大化するために一連のアイテムをランク付けするよう要求する。
近年の研究では、品物の効用の不確かさが不公平の原因となっている。
我々は,各アウトプットランキングがグループフェアであることを保証しながら,個別のフェア分布からランキングを抽出する効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-21T01:26:34Z) - The Role of Relevance in Fair Ranking [1.5469452301122177]
妥当性スコアは、公正な介入を導くために、望ましい基準のセットを満たすべきであると論じる。
次に、偏りのあるユーザクリックデータから推定される関連性のケーススタディにおいて、これらの基準がすべて満たされているわけではないことを実証的に示す。
分析と結果から,関連収集・生成への新たなアプローチの必要性が浮き彫りになっている。
論文 参考訳(メタデータ) (2023-05-09T16:58:23Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Incentives for Item Duplication under Fair Ranking Policies [69.14168955766847]
重複が存在する場合の様々な公正ランキングポリシーの振る舞いについて検討する。
適合性にのみ焦点を絞った政策よりも、重複を動機付ける可能性を秘めているため、公正を意識したランキングポリシーは多様性と矛盾する可能性がある。
論文 参考訳(メタデータ) (2021-10-29T11:11:15Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Fairness Through Regularization for Learning to Rank [33.52974791836553]
本稿では,二項分類から文脈のランク付けのための学習への多くの公平性の概念の伝達方法を示す。
我々の形式主義は、証明可能な一般化保証を伴う公正目標を組み込む方法の設計を可能にする。
論文 参考訳(メタデータ) (2021-02-11T13:29:08Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Fast Fair Regression via Efficient Approximations of Mutual Information [0.0]
本稿では, 回帰モデルに対する独立性, 分離性, 充足性グループフェアネス基準の高速な近似について紹介する。
正規化リスク最小化フレームワーク内で公正性を強制するために、正規化のような近似を使用する。
実世界のデータセットでの実験では、計算効率が優れているにもかかわらず、我々のアルゴリズムは依然として最先端の精度/フェアネスのトレードオフを示す。
論文 参考訳(メタデータ) (2020-02-14T08:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。