論文の概要: RAGUEL: Recourse-Aware Group Unfairness Elimination
- arxiv url: http://arxiv.org/abs/2208.14175v1
- Date: Tue, 30 Aug 2022 11:53:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-31 13:36:42.551316
- Title: RAGUEL: Recourse-Aware Group Unfairness Elimination
- Title(参考訳): RAGUEL: Recourse-Aware Group Unfairness Elimination
- Authors: Aparajita Haldar, Teddy Cunningham, Hakan Ferhatosmanoglu
- Abstract要約: 「algorithmic recourse」は、望ましくない結果を変えるための実行可能な回復行動を提供する。
ランク付けされたグループレベルのリコースフェアネスの概念を導入する。
我々は、ランク付けされたrecourse Fairness制約を満たす'recourse-aware ranking'ソリューションを開発する。
- 参考スコア(独自算出の注目度): 2.720659230102122
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While machine learning and ranking-based systems are in widespread use for
sensitive decision-making processes (e.g., determining job candidates,
assigning credit scores), they are rife with concerns over unintended biases in
their outcomes, which makes algorithmic fairness (e.g., demographic parity,
equal opportunity) an objective of interest. 'Algorithmic recourse' offers
feasible recovery actions to change unwanted outcomes through the modification
of attributes. We introduce the notion of ranked group-level recourse fairness,
and develop a 'recourse-aware ranking' solution that satisfies ranked recourse
fairness constraints while minimizing the cost of suggested modifications. Our
solution suggests interventions that can reorder the ranked list of database
records and mitigate group-level unfairness; specifically, disproportionate
representation of sub-groups and recourse cost imbalance. This re-ranking
identifies the minimum modifications to data points, with these attribute
modifications weighted according to their ease of recourse. We then present an
efficient block-based extension that enables re-ranking at any granularity
(e.g., multiple brackets of bank loan interest rates, multiple pages of search
engine results). Evaluation on real datasets shows that, while existing methods
may even exacerbate recourse unfairness, our solution -- RAGUEL --
significantly improves recourse-aware fairness. RAGUEL outperforms alternatives
at improving recourse fairness, through a combined process of counterfactual
generation and re-ranking, whilst remaining efficient for large-scale datasets.
- Abstract(参考訳): 機械学習とランキングベースのシステムは、センシティブな意思決定プロセス(例えば、求職者の決定、クレジットスコアの割り当てなど)に広く使われているが、それらは結果の意図しないバイアスに対する懸念に陥り、アルゴリズムによる公平性(例えば、人口格差、平等機会)が関心の対象となっている。
agorithmic recourse'は属性の変更を通じて望ましくない結果を変更するための実現可能なリカバリアクションを提供する。
提案する修正のコストを最小限に抑えながら、ランク付けされたグループレベルのリコース公正の概念を導入し、ランク付けされたリコース公正制約を満たす「リコース対応」ソリューションを開発する。
我々のソリューションは、データベースレコードのランク付けリストをリオーダーし、グループレベルの不公平を軽減できる介入を提案する。
この再ランクは、データポイントに対する最小限の変更を識別し、これらの属性は、リコースの容易さに応じて重み付けされる。
次に、任意の粒度(銀行ローン金利の複数括弧、検索エンジン検索結果の複数ページなど)で再ランク付けできる効率的なブロックベース拡張を提案する。
実際のデータセットの評価は、既存の方法がリコースの不公平を悪化させる可能性も示していますが、我々のソリューションであるraguelは、リコースを認識できる公平性を大幅に改善します。
RAGUELは、カウンターファクト生成と再ランク付けの複合プロセスを通じて、リコースフェアネスを改善するための代替手段よりも優れており、大規模なデータセットでは効率的である。
関連論文リスト
- Reward-Augmented Data Enhances Direct Preference Alignment of LLMs [56.24431208419858]
報奨条件付き大言語モデル(LLM)を導入し、データセット内の応答品質のスペクトル全体から学習する。
そこで本稿では,品質スコアに優先ペアを条件付け,報酬を加算したデータセットを構築する,効果的なデータレバーベリング手法を提案する。
論文 参考訳(メタデータ) (2024-10-10T16:01:51Z) - Optimal Group Fair Classifiers from Linear Post-Processing [10.615965454674901]
本稿では,グループフェアネス基準の統一されたファミリーの下でモデルバイアスを緩和するフェア分類のためのポストプロセッシングアルゴリズムを提案する。
与えられたベースモデルの出力スコアを、(予測された)グループのメンバシップの線形結合である「公正コスト」で再計算することで、公平性を達成する。
論文 参考訳(メタデータ) (2024-05-07T05:58:44Z) - Learning Fair Ranking Policies via Differentiable Optimization of
Ordered Weighted Averages [55.04219793298687]
本稿では,学習からランクへの学習ループに,効率よく解ける公正ランキングモデルを組み込む方法について述べる。
特に,本論文は,OWA目標の制約された最適化を通じてバックプロパゲーションを行う方法を示す最初のものである。
論文 参考訳(メタデータ) (2024-02-07T20:53:53Z) - A Distributionally Robust Optimisation Approach to Fair Credit Scoring [2.8851756275902467]
クレジットスコアリングは、欧州委員会と米国大統領の執行部によって、リスクの高い分類タスクとしてカタログ化されている。
この懸念に対処するため、近年の信用スコアリング研究は、公平性向上技術の範囲を検討した。
論文 参考訳(メタデータ) (2024-02-02T11:43:59Z) - Fairness in Ranking under Disparate Uncertainty [24.401219403555814]
我々は、基礎となる関連モデルの不確実性がオプション群間で異なる場合、ランク付けは不公平をもたらす可能性があると論じる。
ランク付けのための新しい公正基準として平等ランク付け(EOR)を提案する。
異なる不確実性が存在する場合でも、EORは関連する選択肢の中でグループワイドフェア・宝くじに対応していることを示す。
論文 参考訳(メタデータ) (2023-09-04T13:49:48Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Explainable Disparity Compensation for Efficient Fair Ranking [0.3759936323189418]
意思決定システムで使用されるランク付け関数は、基礎となるデータに偏りがあるため、異なる集団に対して異なる結果をもたらすことが多い。
最近の補償策は主に、公正性を保証するためにランク関数の不透明な変換に焦点を当てている。
本稿では,ランキング関数に対するデータ駆動型補償法を提案する。
論文 参考訳(メタデータ) (2023-07-25T09:12:50Z) - Modeling the Q-Diversity in a Min-max Play Game for Robust Optimization [61.39201891894024]
群分布的ロバスト最適化(群 DRO)は、事前定義された群に対する最悪の損失を最小限にすることができる。
グループDROフレームワークをQ-Diversityを提案して再構築する。
インタラクティブなトレーニングモードによって特徴付けられるQ-Diversityは、アノテーションからグループ識別を緩和し、直接パラメータ化を行う。
論文 参考訳(メタデータ) (2023-05-20T07:02:27Z) - Mitigating Algorithmic Bias with Limited Annotations [65.060639928772]
機密属性が公開されていない場合、バイアスを軽減するために、トレーニングデータの小さな部分を手動でアノテートする必要がある。
本稿では,アルゴリズムバイアスの影響を最大限に排除するために,限定アノテーションを誘導する対話型フレームワークであるアクティブペナライゼーション・オブ・差別(APOD)を提案する。
APODは完全なアノテートバイアス緩和と同等のパフォーマンスを示しており、機密情報が制限された場合、APODが現実世界のアプリケーションに利益をもたらすことを実証している。
論文 参考訳(メタデータ) (2022-07-20T16:31:19Z) - Debiasing Neural Retrieval via In-batch Balancing Regularization [25.941718123899356]
我々は,nPRF上でのT-統計を有効活用し,公平性を向上させるために,識別可能なテキストトナー付きペアワイドランキングフェアネス(nPRF)を開発した。
nPRF を用いた手法は,ベースラインに比べてランク付け性能の低下が最小限に抑えられ,バイアスが大幅に低減される。
論文 参考訳(メタデータ) (2022-05-18T22:57:15Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。