論文の概要: Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility
- arxiv url: http://arxiv.org/abs/2006.08267v4
- Date: Mon, 7 Jun 2021 09:26:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 02:56:19.080995
- Title: Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility
- Title(参考訳): 階層的公平性とアルゴリズムの有用性のバランスをとるためのモデル非依存なポストホック調整法
- Authors: Sen Cui, Weishen Pan, Changshui Zhang, Fei Wang
- Abstract要約: Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
- 参考スコア(独自算出の注目度): 54.179859639868646
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bipartite ranking, which aims to learn a scoring function that ranks positive
individuals higher than negative ones from labeled data, is widely adopted in
various applications where sample prioritization is needed. Recently, there
have been rising concerns on whether the learned scoring function can cause
systematic disparity across different protected groups defined by sensitive
attributes. While there could be trade-off between fairness and performance, in
this paper we propose a model agnostic post-processing framework for balancing
them in the bipartite ranking scenario. Specifically, we maximize a weighted
sum of the utility and fairness by directly adjusting the relative ordering of
samples across groups. By formulating this problem as the identification of an
optimal warping path across different protected groups, we propose a
non-parametric method to search for such an optimal path through a dynamic
programming process. Our method is compatible with various classification
models and applicable to a variety of ranking fairness metrics. Comprehensive
experiments on a suite of benchmark data sets and two real-world patient
electronic health record repositories show that our method can achieve a great
balance between the algorithm utility and ranking fairness. Furthermore, we
experimentally verify the robustness of our method when faced with the fewer
training samples and the difference between training and testing ranking score
distributions.
- Abstract(参考訳): ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング関数を学習することを目的としたバイパートランキングは、サンプル優先順位付けが必要な様々なアプリケーションで広く採用されている。
近年、学習したスコアリング関数が、機密属性によって定義された異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
公平性と性能の間にはトレードオフがあるかもしれないが,本稿では,二成分ランキングシナリオにおいてバランスをとるためのモデル非依存なポストプロセッシングフレームワークを提案する。
具体的には,グループ間のサンプルの相対順序を直接調整することにより,有効性と公平性の重み付き和を最大化する。
この問題を,異なる保護群にまたがる最適なワープ経路の同定として定式化することにより,動的プログラミングプロセスを通じて最適経路を探索する非パラメトリック手法を提案する。
本手法は,様々な分類モデルに適合し,様々な階層的公平度指標に適用できる。
ベンチマークデータセット群と2つの実世界の患者電子健康記録リポジトリに関する包括的実験により,本手法がアルゴリズムの有用性とランキングの公平性との間に大きなバランスをとれることを示した。
さらに,本手法がトレーニングサンプルが少ない場合のロバスト性や,評価スコア分布のトレーニングとテストの違いを実験的に検証した。
関連論文リスト
- Optimal Baseline Corrections for Off-Policy Contextual Bandits [61.740094604552475]
オンライン報酬指標の偏りのないオフライン推定を最適化する意思決定ポリシーを学習することを目指している。
学習シナリオにおける同値性に基づく単一のフレームワークを提案する。
我々のフレームワークは、分散最適非バイアス推定器の特徴付けを可能にし、それに対する閉形式解を提供する。
論文 参考訳(メタデータ) (2024-05-09T12:52:22Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Matched Pair Calibration for Ranking Fairness [2.580183306478581]
マッチングペアキャリブレーションと呼ばれるスコアベースランキングシステムにおける公平性テストを提案する。
本稿では,2進分類設定からランク付けまで,キャリブレーションの公平さの直観を一般化する方法について述べる。
論文 参考訳(メタデータ) (2023-06-06T15:32:30Z) - Revisiting Long-tailed Image Classification: Survey and Benchmarks with
New Evaluation Metrics [88.39382177059747]
メトリクスのコーパスは、長い尾の分布で学習するアルゴリズムの正確性、堅牢性、およびバウンダリを測定するために設計されている。
ベンチマークに基づいて,CIFAR10およびCIFAR100データセット上での既存手法の性能を再評価する。
論文 参考訳(メタデータ) (2023-02-03T02:40:54Z) - Fair and Optimal Classification via Post-Processing [10.163721748735801]
本稿では、分類問題における人口統計学の特質的トレードオフの完全な評価について述べる。
ランダム化および属性認識フェア分類器によって達成可能な最小誤差率は、ワッサーシュタイン・バリセンタ問題の最適値によって与えられることを示す。
論文 参考訳(メタデータ) (2022-11-03T00:04:04Z) - A Pre-processing Method for Fairness in Ranking [0.0]
本稿では,データの順序を相互に評価する公平なランキングフレームワークを提案する。
提案手法は,実世界のデータセットに対する精度と公平性のトレードオフにおいて,既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-29T02:55:32Z) - Multiple-criteria Based Active Learning with Fixed-size Determinantal
Point Processes [43.71112693633952]
本稿では,情報性,代表性,多様性の3つの相補的基準を取り入れた,複数基準に基づく能動学習アルゴリズムを提案する。
提案手法は,他の複数基準のALアルゴリズムよりも性能が優れ,安定であることを示す。
論文 参考訳(メタデータ) (2021-07-04T13:22:54Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。