論文の概要: Individually Fair Ranking
- arxiv url: http://arxiv.org/abs/2103.11023v1
- Date: Fri, 19 Mar 2021 21:17:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 14:54:46.877451
- Title: Individually Fair Ranking
- Title(参考訳): 個別に公平なランキング
- Authors: Amanda Bower, Hamid Eftekhari, Mikhail Yurochkin, Yuekai Sun
- Abstract要約: 個別に公平な学習からランクへのモデルを訓練するアルゴリズムを開発した。
提案手法では,少数グループの項目が多数派からの類似項目とともに現れることを保証する。
- 参考スコア(独自算出の注目度): 23.95661284311917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop an algorithm to train individually fair learning-to-rank (LTR)
models. The proposed approach ensures items from minority groups appear
alongside similar items from majority groups. This notion of fair ranking is
based on the definition of individual fairness from supervised learning and is
more nuanced than prior fair LTR approaches that simply ensure the ranking
model provides underrepresented items with a basic level of exposure. The crux
of our method is an optimal transport-based regularizer that enforces
individual fairness and an efficient algorithm for optimizing the regularizer.
We show that our approach leads to certifiably individually fair LTR models and
demonstrate the efficacy of our method on ranking tasks subject to demographic
biases.
- Abstract(参考訳): 本研究では,LTRモデルを個別に学習するアルゴリズムを開発した。
提案手法では,少数グループの項目が多数派からの類似項目とともに現れることを保証する。
この公正ランク付けの概念は、教師付き学習から個々の公平性の定義に基づいており、単にランク付けモデルが低表示項目に基本的な露出レベルを提供することを保証する以前の公正なltrアプローチよりもニュアンスが高い。
本手法は, 個別の公正性を強制する最適輸送ベース正規化器と, 正規化器を最適化するための効率的なアルゴリズムである。
本手法は,個別に公平なltrモデルに結びつくことを示し,この手法が人口統計学の偏りを考慮した評価課題に有効であることを示す。
関連論文リスト
- FairLoRA: Unpacking Bias Mitigation in Vision Models with Fairness-Driven Low-Rank Adaptation [3.959853359438669]
低ランク適応のための新しいフェアネス特化正規化器であるFairLoRAについて紹介する。
以上の結果から,偏見を緩和するためのより高いランクの必要性は普遍的ではなく,事前学習モデルやデータセット,タスクといった要因に依存していることがわかった。
論文 参考訳(メタデータ) (2024-10-22T18:50:36Z) - Learning Fair Ranking Policies via Differentiable Optimization of
Ordered Weighted Averages [55.04219793298687]
本稿では,学習からランクへの学習ループに,効率よく解ける公正ランキングモデルを組み込む方法について述べる。
特に,本論文は,OWA目標の制約された最適化を通じてバックプロパゲーションを行う方法を示す最初のものである。
論文 参考訳(メタデータ) (2024-02-07T20:53:53Z) - Optimizing Group-Fair Plackett-Luce Ranking Models for Relevance and
Ex-Post Fairness [5.349671569838342]
学習からランクへの学習において、関連性のみを最適化することは、特定のカテゴリの項目に表現的害をもたらす可能性がある。
本稿では,与えられた表現制約を満たすランキングに対して,期待される妥当性を最大化する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-25T08:27:43Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Re-weighting Based Group Fairness Regularization via Classwise Robust
Optimization [30.089819400033985]
そこで本研究では,グループフェアネス尺度を学習目標に組み込むことにより,この2つの学習手法を統一する原理的手法を提案する。
我々は,各グループに対して適切な再重み付けを自動的に生成することにより,結果の目的を最小化する反復最適化アルゴリズムを開発した。
実験の結果,FairDROはスケーラブルで,多様なアプリケーションに容易に適用可能であることがわかった。
論文 参考訳(メタデータ) (2023-03-01T12:00:37Z) - Fair and Optimal Classification via Post-Processing [10.163721748735801]
本稿では、分類問題における人口統計学の特質的トレードオフの完全な評価について述べる。
ランダム化および属性認識フェア分類器によって達成可能な最小誤差率は、ワッサーシュタイン・バリセンタ問題の最適値によって与えられることを示す。
論文 参考訳(メタデータ) (2022-11-03T00:04:04Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - SenSeI: Sensitive Set Invariance for Enforcing Individual Fairness [50.916483212900275]
まず、ある感度集合の不変性を強制する個別の公正性のバージョンを定式化する。
次に,輸送型正規化器を設計し,個別の公平性を強制し,効率よく正規化器を最小化するためのアルゴリズムを開発する。
論文 参考訳(メタデータ) (2020-06-25T04:31:57Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。