論文の概要: A Pre-processing Method for Fairness in Ranking
- arxiv url: http://arxiv.org/abs/2110.15503v1
- Date: Fri, 29 Oct 2021 02:55:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-01 15:36:19.716092
- Title: A Pre-processing Method for Fairness in Ranking
- Title(参考訳): ランキングにおける公平さの前処理法
- Authors: Ryosuke Sonoda
- Abstract要約: 本稿では,データの順序を相互に評価する公平なランキングフレームワークを提案する。
提案手法は,実世界のデータセットに対する精度と公平性のトレードオフにおいて,既存の手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fair ranking problems arise in many decision-making processes that often
necessitate a trade-off between accuracy and fairness.
Many existing studies have proposed correction methods such as adding
fairness constraints to a ranking model's loss.
However, the challenge of correcting the data bias for fair ranking remains,
and the trade-off of the ranking models leaves room for improvement.
In this paper, we propose a fair ranking framework that evaluates the order
of training data in a pairwise manner as well as various fairness measurements
in ranking.
This study is the first proposal of a pre-processing method that solves fair
ranking problems using the pairwise ordering method with our best knowledge.
The fair pairwise ordering method is prominent in training the fair ranking
models because it ensures that the resulting ranking likely becomes parity
across groups.
As far as the fairness measurements in ranking are represented as a linear
constraint of the ranking models, we proved that the minimization of loss
function subject to the constraints is reduced to the closed solution of the
minimization problem augmented by weights to training data.
This closed solution inspires us to present a practical and stable algorithm
that iterates the optimization of weights and model parameters.
The empirical results over real-world datasets demonstrated that our method
outperforms the existing methods in the trade-off between accuracy and fairness
over real-world datasets and various fairness measurements.
- Abstract(参考訳): 公正なランキング問題は、しばしば正確さと公平さの間のトレードオフを必要とする多くの意思決定プロセスで発生する。
既存の多くの研究は、ランク付けモデルの損失に公平さの制約を加えるなどの補正手法を提案している。
しかし、公正ランキングのデータバイアスを修正するという課題は依然として残っており、ランキングモデルのトレードオフは改善の余地を残している。
本稿では,学習データの順序を相互に評価する公正ランキングフレームワークと,ランキングにおける公平度の測定方法を提案する。
本研究は, 最適知識を持つペア順序付け手法を用いて, 公正ランキング問題を解く前処理法の最初の提案である。
フェアペアワイズ順序付け(fair pairwise order method)は、結果のランクがグループ間で同等になる可能性を保証するため、フェアランキングモデルのトレーニングにおいて顕著である。
ランキングの公平性測定をランキングモデルの線形制約として表現する限り,制約を受ける損失関数の最小化は,トレーニングデータへの重み付けによって増大する最小化問題の閉解に還元されることを示した。
この閉解は、重みとモデルパラメータの最適化を反復する実用的で安定したアルゴリズムを提案するきっかけとなる。
実世界のデータセットに対する実験結果は、実世界のデータセットと様々な公平性測定に対する正確さと公平さのトレードオフにおいて、既存の手法を上回っていることを示した。
関連論文リスト
- Fair Bilevel Neural Network (FairBiNN): On Balancing fairness and accuracy via Stackelberg Equilibrium [0.3350491650545292]
バイアスを緩和する現在の方法は、情報損失と精度と公平性のバランスが不十分であることが多い。
本稿では,二段階最適化の原理に基づく新しい手法を提案する。
私たちのディープラーニングベースのアプローチは、正確性と公平性の両方を同時に最適化します。
論文 参考訳(メタデータ) (2024-10-21T18:53:39Z) - Learn to be Fair without Labels: a Distribution-based Learning Framework for Fair Ranking [1.8577028544235155]
本研究では,未利用の公正度ラベルを対象の公正度分布に置き換えることにより,ラベルを必要としない分布ベースフェアラーニングフレームワーク(DLF)を提案する。
提案手法は,フェアネス関連トレードオフの制御性を高めつつ,フェアネス性能を向上する。
論文 参考訳(メタデータ) (2024-05-28T03:49:04Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - Improving Fair Training under Correlation Shifts [33.385118640843416]
特にラベルとセンシティブなグループ間のバイアスが変化すると、トレーニングされたモデルの公平性に直接影響し、悪化する可能性がある。
既存のプロセス内フェアアルゴリズムは、精度とグループフェアネスに根本的な限界があることを解析的に示す。
相関シフトを減らすために入力データをサンプリングする新しい前処理ステップを提案する。
論文 参考訳(メタデータ) (2023-02-05T07:23:35Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - On Modality Bias Recognition and Reduction [70.69194431713825]
マルチモーダル分類の文脈におけるモダリティバイアス問題について検討する。
本稿では,各ラベルの特徴空間を適応的に学習するプラグアンドプレイ損失関数法を提案する。
本手法は, ベースラインに比べ, 顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2022-02-25T13:47:09Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - PiRank: Learning To Rank via Differentiable Sorting [85.28916333414145]
ランク付けのための新しい分類可能なサロゲートであるPiRankを提案する。
ピランクは所望の指標をゼロ温度の限界で正確に回収する。
論文 参考訳(メタデータ) (2020-12-12T05:07:36Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。