論文の概要: Quantifying Query Fairness Under Unawareness
- arxiv url: http://arxiv.org/abs/2506.04140v1
- Date: Wed, 04 Jun 2025 16:31:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.469007
- Title: Quantifying Query Fairness Under Unawareness
- Title(参考訳): 未知条件下でのクエリフェアネスの定量化
- Authors: Thomas Jaenich, Alejandro Moreo, Alessandro Fabris, Graham McDonald, Andrea Esuli, Iadh Ounis, Fabrizio Sebastiani,
- Abstract要約: 本稿では,二項分類を超えた複数の機密属性を効果的に処理する定量化に基づく頑健な公正度推定手法を提案する。
提案手法は, 様々な属性にまたがる既存のベースラインよりも優れており, 未知の公正度を測定するための信頼性の高いプロトコルを最初に確立した。
- 参考スコア(独自算出の注目度): 82.33181164973365
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional ranking algorithms are designed to retrieve the most relevant items for a user's query, but they often inherit biases from data that can unfairly disadvantage vulnerable groups. Fairness in information access systems (IAS) is typically assessed by comparing the distribution of groups in a ranking to a target distribution, such as the overall group distribution in the dataset. These fairness metrics depend on knowing the true group labels for each item. However, when groups are defined by demographic or sensitive attributes, these labels are often unknown, leading to a setting known as "fairness under unawareness". To address this, group membership can be inferred using machine-learned classifiers, and group prevalence is estimated by counting the predicted labels. Unfortunately, such an estimation is known to be unreliable under dataset shift, compromising the accuracy of fairness evaluations. In this paper, we introduce a robust fairness estimator based on quantification that effectively handles multiple sensitive attributes beyond binary classifications. Our method outperforms existing baselines across various sensitive attributes and, to the best of our knowledge, is the first to establish a reliable protocol for measuring fairness under unawareness across multiple queries and groups.
- Abstract(参考訳): 従来のランキングアルゴリズムは、ユーザのクエリに最も関連性の高い項目を検索するように設計されているが、不公平に脆弱なグループに不利なデータからバイアスを継承することが多い。
情報アクセスシステム(IAS)の公正性は、典型的には、ランキング内のグループの分布を、データセット内のグループ全体の分布のようなターゲット分布と比較することによって評価される。
これらの公正度指標は、各項目の真のグループラベルを知ることに依存する。
しかし、集団が人口統計学的またはセンシティブな属性によって定義される場合、これらのラベルはしばしば不明であり、「無意識のフェアネス」と呼ばれる設定に繋がる。
これを解決するために、機械学習型分類器を用いてグループメンバシップを推定し、予測されたラベルを数えてグループ頻度を推定する。
残念なことに、データセットシフトではそのような推定は信頼できないことが知られており、公正性評価の精度を損なう。
本稿では,二項分類を超えた複数の属性を効果的に扱う量子化に基づく頑健な公正度推定器を提案する。
提案手法は,様々な属性にまたがる既存のベースラインよりも優れており,最も優れた知識を生かして,複数のクエリやグループにまたがる不明瞭さを計測する信頼性の高いプロトコルを最初に確立した。
関連論文リスト
- FALE: Fairness-Aware ALE Plots for Auditing Bias in Subgroups [0.8528401618469597]
本稿では,サブグループ内の潜在的なバイアスを識別し,ユーザフレンドリな方法で発見を可視化するための説明可能性手法を提案する。
FALEは,潜在的なバイアス問題のあるサブグループを特定するための,効率的でユーザフレンドリで,理解しやすく,信頼性の高い第1段階ツールとして機能することを期待している。
論文 参考訳(メタデータ) (2024-04-29T13:30:57Z) - Group-blind optimal transport to group parity and its constrained variants [6.70948761466883]
我々は、ソースデータ中の両方のグループの特徴分布を整列する単一のグループ盲投影マップを設計する。
情報源データは人口の偏りのない表現であると仮定する。
合成データと実データについて数値的な結果を示す。
論文 参考訳(メタデータ) (2023-10-17T17:14:07Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Towards Group Robustness in the presence of Partial Group Labels [61.33713547766866]
入力サンプルとターゲットラベルの間に 急激な相関関係がある ニューラルネットワークの予測を誤った方向に導く
本稿では,制約セットから最悪のグループ割り当てを最適化するアルゴリズムを提案する。
グループ間で総合的な集計精度を維持しつつ,少数集団のパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2022-01-10T22:04:48Z) - Learning Fair Classifiers with Partially Annotated Group Labels [22.838927494573436]
我々は、アノテーション付きグループラベル(FairPG)を用いたアルゴリズムフェアネスと呼ばれるより実践的なシナリオを考える。
フェアネスを意識した学習戦略に容易に適用可能な,簡易な補助グループ割当て(CGL)を提案する。
本手法は, フェアネス基準の観点から, バニラの擬似ラベル方式よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-29T15:11:18Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Estimation of Fair Ranking Metrics with Incomplete Judgments [70.37717864975387]
本研究では,4つの評価指標のサンプリング手法と推定手法を提案する。
ラベル付きアイテムの数が極めて少ない場合でも動作可能な頑健で偏りのない推定器を定式化する。
論文 参考訳(メタデータ) (2021-08-11T10:57:00Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。