論文の概要: hyperFA*IR: A hypergeometric approach to fair rankings with finite candidate pool
- arxiv url: http://arxiv.org/abs/2506.14349v1
- Date: Tue, 17 Jun 2025 09:45:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.409907
- Title: hyperFA*IR: A hypergeometric approach to fair rankings with finite candidate pool
- Title(参考訳): hyperFA*IR:有限候補プールによる公正ランキングに対するハイパー幾何学的アプローチ
- Authors: Mauritz N. Cartier van Dissel, Samuel Martin-Gutierrez, Lisette Espín-Noboa, Ana María Jaramillo, Fariba Karimi,
- Abstract要約: 本稿では,候補の有限集合から抽出したランキングの公平性を評価するためのフレームワークである hyperFA*IR を提案する。
これは超幾何分布に基づく生成プロセスに依存しており、固定されたグループサイズから置き換えることなくサンプリングによって実世界のシナリオをモデル化する。
また,計算コストのかかるパラメータチューニングを回避し,不正ランキングを効率的に検出するモンテカルロアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ranking algorithms play a pivotal role in decision-making processes across diverse domains, from search engines to job applications. When rankings directly impact individuals, ensuring fairness becomes essential, particularly for groups that are marginalised or misrepresented in the data. Most of the existing group fairness frameworks often rely on ensuring proportional representation of protected groups. However, these approaches face limitations in accounting for the stochastic nature of ranking processes or the finite size of candidate pools. To this end, we present hyperFA*IR, a framework for assessing and enforcing fairness in rankings drawn from a finite set of candidates. It relies on a generative process based on the hypergeometric distribution, which models real-world scenarios by sampling without replacement from fixed group sizes. This approach improves fairness assessment when top-$k$ selections are large relative to the pool or when protected groups are small. We compare our approach to the widely used binomial model, which treats each draw as independent with fixed probability, and demonstrate$-$both analytically and empirically$-$that our method more accurately reproduces the statistical properties of sampling from a finite population. To operationalise this framework, we propose a Monte Carlo-based algorithm that efficiently detects unfair rankings by avoiding computationally expensive parameter tuning. Finally, we adapt our generative approach to define affirmative action policies by introducing weights into the sampling process.
- Abstract(参考訳): ランク付けアルゴリズムは、検索エンジンからジョブアプリケーションまで、さまざまな領域にわたる意思決定プロセスにおいて重要な役割を果たす。
ランキングが個人に直接影響を及ぼすとき、特にデータに疎外されたり、誤った表現をされたグループにとって、公正性を保証することが不可欠である。
既存のグループフェアネスフレームワークの多くは、しばしば保護されたグループの比例表現を保証することに頼っている。
しかし、これらのアプローチはランク付け過程の確率的性質や候補プールの有限サイズを考慮する際に制限に直面している。
そこで本研究では,候補の有限集合から抽出したランキングの公平性を評価するためのフレームワークであるHyperFA*IRを提案する。
これは超幾何分布に基づく生成プロセスに依存しており、固定されたグループサイズから置き換えることなくサンプリングによって実世界のシナリオをモデル化する。
このアプローチは、トップ$k$選択がプールに対して大きい場合や、保護されたグループが小さい場合の公平性評価を改善する。
提案手法は,各ドローを一定の確率で独立に扱う広範に使われている二項モデルと比較し,解析的および実証的に$-$$$−であり,本手法が有限集団からのサンプリングの統計的特性をより正確に再現できることを実証する。
この枠組みを運用するために,計算コストのかかるパラメータチューニングを回避し,不公平なランキングを効率的に検出するモンテカルロアルゴリズムを提案する。
最後に, 標本化プロセスに重みを導入して, 肯定的行動ポリシーを定義するために, 生成的アプローチを適用した。
関連論文リスト
- Project-Probe-Aggregate: Efficient Fine-Tuning for Group Robustness [53.96714099151378]
画像テキスト基礎モデルのパラメータ効率向上のための3段階のアプローチを提案する。
本手法は, マイノリティ標本同定とロバストトレーニングアルゴリズムの2つの重要な要素を改良する。
我々の理論分析は,PPAが少数群の識別を向上し,バランスの取れたグループエラーを最小限に抑えるためにベイズが最適であることを示している。
論文 参考訳(メタデータ) (2025-03-12T15:46:12Z) - A Unified Post-Processing Framework for Group Fairness in Classification [10.615965454674901]
本稿では, グループフェアネスの基準である統計パリティ, 平等機会, 等化確率を1つの枠組みでカバーする, 公平分類のためのポストプロセッシングアルゴリズムを提案する。
我々のアルゴリズムは「LinearPost」と呼ばれ、(不公平な)ベース予測器の予測を、(予測された)グループメンバーシップの重み付けによる「公正リスク」で線形変換することで、公正なポストホックを実現する。
論文 参考訳(メタデータ) (2024-05-07T05:58:44Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Correcting Underrepresentation and Intersectional Bias for Classification [49.1574468325115]
我々は、表現不足のバイアスによって破損したデータから学習する問題を考察する。
偏りのないデータの少ない場合、グループワイドのドロップアウト率を効率的に推定できることが示される。
本アルゴリズムは,有限VC次元のモデルクラスに対して,効率的な学習を可能にする。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - Detection of Groups with Biased Representation in Ranking [28.095668425175564]
上位ランクの項目に偏りのある群を検出する問題について検討する。
2つの異なる公正度尺度に対する効率的な探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-30T10:50:02Z) - Repairing Regressors for Fair Binary Classification at Any Decision
Threshold [8.322348511450366]
同時にすべてのしきい値で公正なパフォーマンスを向上できることを示します。
本研究では,異なる保護群に対する分類の分布の類似度を捉える分布パリティの形式的尺度を導入する。
我々の主な成果は、最適輸送に基づく新しい後処理アルゴリズムを提案し、分散パリティを確実に最大化することである。
論文 参考訳(メタデータ) (2022-03-14T20:53:35Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。