論文の概要: Detection of Groups with Biased Representation in Ranking
- arxiv url: http://arxiv.org/abs/2301.00719v2
- Date: Fri, 7 Jul 2023 00:13:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-10 15:43:33.908296
- Title: Detection of Groups with Biased Representation in Ranking
- Title(参考訳): ランク付けにおけるバイアス表現群の検出
- Authors: Jinyang Li, Yuval Moskovitch, H. V. Jagadish
- Abstract要約: 上位ランクの項目に偏りのある群を検出する問題について検討する。
2つの異なる公正度尺度に対する効率的な探索アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 28.095668425175564
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-life tools for decision-making in many critical domains are based on
ranking results. With the increasing awareness of algorithmic fairness, recent
works have presented measures for fairness in ranking. Many of those
definitions consider the representation of different ``protected groups'', in
the top-$k$ ranked items, for any reasonable $k$. Given the protected groups,
confirming algorithmic fairness is a simple task. However, the groups'
definitions may be unknown in advance. In this paper, we study the problem of
detecting groups with biased representation in the top-$k$ ranked items,
eliminating the need to pre-define protected groups. The number of such groups
possible can be exponential, making the problem hard. We propose efficient
search algorithms for two different fairness measures: global representation
bounds, and proportional representation. Then we propose a method to explain
the bias in the representations of groups utilizing the notion of Shapley
values. We conclude with an experimental study, showing the scalability of our
approach and demonstrating the usefulness of the proposed algorithms.
- Abstract(参考訳): 多くの重要なドメインにおける意思決定のための実生活ツールは、ランキング結果に基づいている。
アルゴリズム的公正に対する意識の高まりに伴い、近年の研究では、ランク付けにおける公平性の尺度が提示されている。
これらの定義の多くは、妥当な$k$ に対して、上位$k$ランクの項目において、異なる ``protected groups'' の表現を考える。
保護されたグループを考えると、アルゴリズムの公正性を確認することは簡単な作業である。
しかし、グループの定義は事前に不明である。
本稿では,保護されたグループを事前に定義する必要をなくし,上位ランクの項目に偏りのあるグループを検出する問題について検討する。
そのような群の数は指数関数的であり、問題を難しくする。
本研究では,グローバル表現境界と比例表現という2つの異なるフェアネス尺度に対する効率的な探索アルゴリズムを提案する。
次に,shapley値の概念を利用した群表現におけるバイアスを説明する手法を提案する。
本研究は,提案手法のスケーラビリティを実証し,提案アルゴリズムの有用性を実証する実験により結論付けた。
関連論文リスト
- Finite-Sample and Distribution-Free Fair Classification: Optimal Trade-off Between Excess Risk and Fairness, and the Cost of Group-Blindness [14.421493372559762]
グループフェアネス制約下の二項分類におけるアルゴリズムフェアネスとグループブレンドネスの強制効果を定量化する。
制御された過剰リスクを伴う分布自由かつ有限サンプルフェアネスを保証するフェア分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:04:17Z) - A structured regression approach for evaluating model performance across intersectional subgroups [53.91682617836498]
分散評価(disaggregated evaluation)は、AIフェアネスアセスメントにおける中心的なタスクであり、AIシステムのさまざまなサブグループ間でのパフォーマンスを測定することを目的としている。
非常に小さなサブグループであっても,信頼性の高いシステム性能推定値が得られることを示す。
論文 参考訳(メタデータ) (2024-01-26T14:21:45Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Explainable Disparity Compensation for Efficient Fair Ranking [0.3759936323189418]
意思決定システムで使用されるランク付け関数は、基礎となるデータに偏りがあるため、異なる集団に対して異なる結果をもたらすことが多い。
最近の補償策は主に、公正性を保証するためにランク関数の不透明な変換に焦点を当てている。
本稿では,ランキング関数に対するデータ駆動型補償法を提案する。
論文 参考訳(メタデータ) (2023-07-25T09:12:50Z) - Towards Auditing Unsupervised Learning Algorithms and Human Processes
For Fairness [39.77120515767369]
既存の研究は、統計パリティの標準定義を用いたバイナリ保護状態変数の2つのグループ分類問題について検討してきた。
ここでは、より複雑なフェアネスの定義の下で、多群設定を探索することによって監査の領域を構築する。
論文 参考訳(メタデータ) (2022-09-20T12:30:05Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Fairness with Overlapping Groups [15.154984899546333]
標準的なゴールは、複数の重なり合うグループ間での公平度メトリクスの平等を保証することである。
本稿では、確率論的人口分析を用いて、この標準公正分類問題を再考する。
提案手法は,既存のグループフェア分類手法を統一し,様々な非分解性性能指標と公正度尺度の拡張を可能にする。
論文 参考訳(メタデータ) (2020-06-24T05:01:10Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Robust Optimization for Fairness with Noisy Protected Groups [85.13255550021495]
ノイズが保護されたグループラベルに頼った結果について検討した。
頑健な最適化を用いた2つの新しいアプローチを提案する。
頑健なアプローチは、単純アプローチよりも真のグループ公平性を保証することが示される。
論文 参考訳(メタデータ) (2020-02-21T14:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。