論文の概要: Stability and Multigroup Fairness in Ranking with Uncertain Predictions
- arxiv url: http://arxiv.org/abs/2402.09326v1
- Date: Wed, 14 Feb 2024 17:17:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 14:19:04.475147
- Title: Stability and Multigroup Fairness in Ranking with Uncertain Predictions
- Title(参考訳): 不確かさ予測付きランキングの安定性と多群公正性
- Authors: Siddartha Devic, Aleksandra Korolova, David Kempe, Vatsal Sharan
- Abstract要約: 我々の研究はランキング関数について考察している。分類タスクの個々の予測からランキング上の分布へのマップ。
ランキング関数の2つの側面、すなわち予測における摂動に対する安定性と、個人とサブグループの両方に対する公正性に焦点を当てる。
我々の研究は、不確実性に敏感なランキングが、グループと個人レベルの公正性の保証とを自然に補間していることを示している。
- 参考スコア(独自算出の注目度): 61.76378420347408
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Rankings are ubiquitous across many applications, from search engines to
hiring committees. In practice, many rankings are derived from the output of
predictors. However, when predictors trained for classification tasks have
intrinsic uncertainty, it is not obvious how this uncertainty should be
represented in the derived rankings. Our work considers ranking functions: maps
from individual predictions for a classification task to distributions over
rankings. We focus on two aspects of ranking functions: stability to
perturbations in predictions and fairness towards both individuals and
subgroups. Not only is stability an important requirement for its own sake, but
-- as we show -- it composes harmoniously with individual fairness in the sense
of Dwork et al. (2012). While deterministic ranking functions cannot be stable
aside from trivial scenarios, we show that the recently proposed uncertainty
aware (UA) ranking functions of Singh et al. (2021) are stable. Our main result
is that UA rankings also achieve multigroup fairness through successful
composition with multiaccurate or multicalibrated predictors. Our work
demonstrates that UA rankings naturally interpolate between group and
individual level fairness guarantees, while simultaneously satisfying stability
guarantees important whenever machine-learned predictions are used.
- Abstract(参考訳): ランキングは、検索エンジンから採用委員会まで、多くのアプリケーションで広く使われている。
実際には、多くのランキングは予測子の出力から導かれる。
しかしながら、分類タスクに訓練された予測者が本質的不確実性を持つ場合、この不確実性が導出されたランキングにおいてどのように表現されるべきかは明らかではない。
我々の研究はランキング関数について考察している。分類タスクの個々の予測からランキング上の分布へのマップ。
ランキング関数の2つの側面、すなわち予測における摂動に対する安定性と、個人とサブグループの両方に対する公正性に焦点を当てる。
安定性は自身の目的にとって重要な要件であるだけでなく、Dwork et al. (2012) という意味において、個人の公正さと調和して構成される。
決定論的ランキング関数は自明なシナリオを除いては安定できないが、最近提案されたsingh et al. (2021) の不確実性認識(ua)ランキング関数は安定であることを示す。
我々の主な成果は、UAランキングがマルチ精度またはマルチキャリブレーション予測器を用いた構成を成功させることで、マルチグループフェアネスを達成することである。
我々の研究は、UAランキングがグループと個人レベルの公正性の保証を自然に補間し、同時にマシン学習予測が使われるたびに安定性の保証を満足することを示した。
関連論文リスト
- Interpreting Predictive Probabilities: Model Confidence or Human Label
Variation? [27.226997687210044]
私たちは、非常に異なる評価プロトコルを駆動する2つの主要な視点を特定します。
我々は,それらのメリットと限界について論じ,両者が信頼に値する,公平なNLPシステムにとって重要であるという立場を取る。
我々はツールを推奨し、人間のラベルに関する不確実性や不確実性について不整合表現を持つモデルへのエキサイティングな方向を示す。
論文 参考訳(メタデータ) (2024-02-25T15:00:13Z) - Ranking a Set of Objects using Heterogeneous Workers: QUITE an Easy
Problem [54.90613714264689]
我々は、不平等労働者の群れによって提供されるノイズの多いペア比較の集合から始まる、$N$オブジェクトのランク付けの問題に焦点をあてる。
本研究では,作業者の信頼性とオブジェクトの品質を共同で推定する非適応的ランキングアルゴリズムQUITEを提案する。
論文 参考訳(メタデータ) (2023-10-03T12:42:13Z) - Fairness in Ranking under Disparate Uncertainty [24.401219403555814]
我々は、基礎となる関連モデルの不確実性がオプション群間で異なる場合、ランク付けは不公平をもたらす可能性があると論じる。
ランク付けのための新しい公正基準として平等ランク付け(EOR)を提案する。
異なる不確実性が存在する場合でも、EORは関連する選択肢の中でグループワイドフェア・宝くじに対応していることを示す。
論文 参考訳(メタデータ) (2023-09-04T13:49:48Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Learning to Rank when Grades Matter [11.981942948477236]
グレードラベルは、現実世界の学習 to ランクのアプリケーションではユビキタスである。
従来の学習からランクまでの技術は、実際の成績を予測することを無視する。
ランクとグレードの予測を協調的に最適化する多目的定式化を提案する。
論文 参考訳(メタデータ) (2023-06-14T17:30:02Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Estimating Confidence of Predictions of Individual Classifiers and Their
Ensembles for the Genre Classification Task [0.0]
Genre IDは、非トピックテキスト分類のサブクラスである。
BERTやXLM-RoBERTaのような事前訓練されたトランスフォーマーに基づく神経モデルは、多くのNLPタスクにおいてSOTA結果を示す。
論文 参考訳(メタデータ) (2022-06-15T09:59:05Z) - Learning Equilibria in Matching Markets from Bandit Feedback [139.29934476625488]
不確実性の下で安定した市場成果を学習するためのフレームワークとアルゴリズムを開発する。
私たちの研究は、大規模なデータ駆動の市場において、いつ、どのように安定したマッチングが生じるかを明らかにするための第一歩を踏み出します。
論文 参考訳(メタデータ) (2021-08-19T17:59:28Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。