論文の概要: Privilege Scores
- arxiv url: http://arxiv.org/abs/2502.01211v1
- Date: Mon, 03 Feb 2025 10:03:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:04:00.679806
- Title: Privilege Scores
- Title(参考訳): プリヴィレージスコア
- Authors: Ludwig Bothmann, Philip A. Boustani, Jose M. Alvarez, Giuseppe Casalicchio, Bernd Bischl, Susanne Dandl,
- Abstract要約: バイアス変換機械学習は、保護属性(PA)に関して中立的でない状態クオを補正することを目的としている。
実世界におけるモデル予測と,PAの影響を排除した公正な世界におけるモデル予測を比較することで,PA関連特権を測定するための特権スコア(PS)を導入する。
PSは肯定行動の資格を持つ個人を特定でき、世界レベルでは、PSは偏見変化政策を通知することができる。
- 参考スコア(独自算出の注目度): 17.295217956712115
- License:
- Abstract: Bias-transforming methods of fairness-aware machine learning aim to correct a non-neutral status quo with respect to a protected attribute (PA). Current methods, however, lack an explicit formulation of what drives non-neutrality. We introduce privilege scores (PS) to measure PA-related privilege by comparing the model predictions in the real world with those in a fair world in which the influence of the PA is removed. At the individual level, PS can identify individuals who qualify for affirmative action; at the global level, PS can inform bias-transforming policies. After presenting estimation methods for PS, we propose privilege score contributions (PSCs), an interpretation method that attributes the origin of privilege to mediating features and direct effects. We provide confidence intervals for both PS and PSCs. Experiments on simulated and real-world data demonstrate the broad applicability of our methods and provide novel insights into gender and racial privilege in mortgage and college admissions applications.
- Abstract(参考訳): 公平性を意識した機械学習のバイアス変換手法は、保護属性(PA)に関して中立的でない状態クオを補正することを目的としている。
しかし、現在の方法には、非中立性を引き起こすものを明示的な定式化が欠けている。
実世界におけるモデル予測と,PAの影響を排除した公正な世界におけるモデル予測を比較することで,PA関連特権を測定するための特権スコア(PS)を導入する。
個人レベルでは、PSは肯定行動の資格を持つ個人を特定できる。
評価手法をPSに提示した後、特権の原点を特徴や直接的な効果の媒介とする解釈法として、特権スコアコントリビューション(PSCs)を提案する。
我々はPSとPSCの両方に対して信頼区間を提供する。
シミュレーションおよび実世界のデータを用いた実験は、我々の手法の幅広い適用性を示し、住宅ローン及び大学入学申請における性別および人種的特権に関する新たな洞察を提供する。
関連論文リスト
- The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [58.130894823145205]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Addressing Polarization and Unfairness in Performative Prediction [17.43138110646834]
性能予測解は, 重度の偏光効果とグループワイズ損失の相違を生じさせることを示した。
PP設定における安定性と公平性を両立できる新しい公正介入機構を提案する。
論文 参考訳(メタデータ) (2024-06-24T16:03:57Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Causal Fair Machine Learning via Rank-Preserving Interventional Distributions [0.5062312533373299]
我々は、個人が架空の、規範的に望まれる(FiND)世界で等しければ、規範的に等しくなると定義する。
本研究では,それが保持する特定のFiND世界を定義するために,ランク保存的介入分布を提案する。
我々のワープアプローチは、最も差別された個人を効果的に識別し、不公平を緩和することを示します。
論文 参考訳(メタデータ) (2023-07-24T13:46:50Z) - Uncertainty-Aware Instance Reweighting for Off-Policy Learning [63.31923483172859]
本研究では,不確実性を考慮した逆確率スコア推定器 (UIPS) を提案する。
実世界の3つのレコメンデーションデータセットを用いた実験結果から,提案したUIPS推定器の有効サンプル効率が示された。
論文 参考訳(メタデータ) (2023-03-11T11:42:26Z) - COFFEE: Counterfactual Fairness for Personalized Text Generation in
Explainable Recommendation [56.520470678876656]
ユーザ記述テキストに固有のバイアスは、言語品質の異なるレベルとユーザの保護された属性を関連付けることができる。
説明生成における測度特異的な対実的公正性を実現するための一般的な枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-14T02:29:10Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Parity-based Cumulative Fairness-aware Boosting [7.824964622317634]
データ駆動型AIシステムは、性別や人種といった保護された属性に基づいた差別につながる可能性がある。
AdaFairは、各ラウンドでデータ分布を変更するフェアネスを意識したブーピングアンサンブルである。
提案手法は, 統計的パーティ, 均等な機会, 異質な不正処理の両面から, パリティを達成できることを実証した。
論文 参考訳(メタデータ) (2022-01-04T14:16:36Z) - Achieving Fairness via Post-Processing in Web-Scale Recommender Systems [6.5191290612443105]
フェアネスの定義を推薦システム、すなわち機会の等式と等化確率に拡張する。
そこで我々は,位置バイアスの存在下でのランク付けにおける機会の平等と確率の等化を達成するためのスケーラブルな手法を提案する。
論文 参考訳(メタデータ) (2020-06-19T20:12:13Z) - Ensuring Fairness under Prior Probability Shifts [8.120457495747766]
本研究では,事前確率シフトの存在下での公平な分類の問題について検討する。
この現象は、いくつかの実世界のデータセットの年次記録に見ることができる。
本稿では,CAPE が PE-fairness を保証するために最小化を試みている Prevalence difference (PD) と呼ばれる指標を提案する。
論文 参考訳(メタデータ) (2020-05-06T13:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。