論文の概要: Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach
- arxiv url: http://arxiv.org/abs/2109.08549v5
- Date: Mon, 27 Mar 2023 13:33:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 03:59:05.285069
- Title: Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach
- Title(参考訳): 感性属性の認識下での公正さの測定:定量化に基づくアプローチ
- Authors: Alessandro Fabris, Andrea Esuli, Alejandro Moreo, Fabrizio Sebastiani
- Abstract要約: センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
- 参考スコア(独自算出の注目度): 131.20444904674494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithms and models are increasingly deployed to inform decisions about
people, inevitably affecting their lives. As a consequence, those in charge of
developing these models must carefully evaluate their impact on different
groups of people and favour group fairness, that is, ensure that groups
determined by sensitive demographic attributes, such as race or sex, are not
treated unjustly. To achieve this goal, the availability (awareness) of these
demographic attributes to those evaluating the impact of these models is
fundamental. Unfortunately, collecting and storing these attributes is often in
conflict with industry practices and legislation on data minimisation and
privacy. For this reason, it can be hard to measure the group fairness of
trained models, even from within the companies developing them. In this work,
we tackle the problem of measuring group fairness under unawareness of
sensitive attributes, by using techniques from quantification, a supervised
learning task concerned with directly providing group-level prevalence
estimates (rather than individual-level class labels). We show that
quantification approaches are particularly suited to tackle the
fairness-under-unawareness problem, as they are robust to inevitable
distribution shifts while at the same time decoupling the (desirable) objective
of measuring group fairness from the (undesirable) side effect of allowing the
inference of sensitive attributes of individuals. More in detail, we show that
fairness under unawareness can be cast as a quantification problem and solved
with proven methods from the quantification literature. We show that these
methods outperform previous approaches to measure demographic parity in five
experimental protocols, corresponding to important challenges that complicate
the estimation of classifier fairness under unawareness.
- Abstract(参考訳): アルゴリズムとモデルは、必然的に生活に影響を及ぼす人々に関する意思決定を知らせるために、ますますデプロイされている。
結果として、これらのモデルの開発担当者は、異なる集団に対する影響を慎重に評価し、人種や性別などのセンシティブな人口統計学的属性によって決定された集団が不正に扱われないようにしなくてはならない。
この目標を達成するために、これらのモデルの影響を評価する人に対するこれらの属性の可用性(認識)が基本である。
残念ながら、これらの属性の収集と保存は、データ最小化とプライバシーに関する業界慣行や法律と矛盾することが多い。
このような理由から、トレーニングされたモデルのグループフェアネスを、開発企業からでも測定することは困難である。
本研究では,グループレベルの有病率推定を直接提供することを目的とした教師あり学習課題である定量化の手法を用いて,センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化のアプローチは,不可避な分布シフトに頑健な一方で,集団フェアネス測定の(望ましくない)目的と,個人の繊細な属性の推論を可能にする(望ましくない)副作用を分離するため,特にフェアネス・アンダー・ウェアネス問題に適応する。
より詳しくは、無意識下での公正性は定量化問題としてキャストでき、定量化文献から証明された方法で解決できることを示す。
これらの手法は、5つの実験プロトコルにおいて、非認識下での分類器の公平さの推定を複雑化する重要な課題に対応するため、従来の手法よりも優れていることを示す。
関連論文リスト
- Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Group Robust Classification Without Any Group Information [5.053622900542495]
この研究は、グループロバストネスに対する現在のバイアス非教師アプローチが、最適なパフォーマンスを達成するためにグループ情報に依存し続けていることを主張する。
バイアスラベルは依然として効果的なモデル選択に不可欠であり、現実のシナリオにおけるこれらの手法の実用性を制限する。
本稿では, 偏りのないモデルに対して, 完全にバイアスのない方法でトレーニングし, 妥当性を検証するための改訂手法を提案する。
論文 参考訳(メタデータ) (2023-10-28T01:29:18Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - A statistical approach to detect sensitive features in a group fairness
setting [10.087372021356751]
本稿では,不公平な結果の検証に訓練されたモデルを必要としないセンシティブな特徴を自動的に認識するタスクに対処する前処理ステップを提案する。
我々の経験的結果は、我々の仮説を証明し、文献に敏感であると考えられるいくつかの特徴が必ずしも異質な(不公平な)結果を必要とするとは限らないことを示す。
論文 参考訳(メタデータ) (2023-05-11T17:30:12Z) - Demographic-Reliant Algorithmic Fairness: Characterizing the Risks of
Demographic Data Collection in the Pursuit of Fairness [0.0]
我々は、アルゴリズムの公正性を実現するために、人口統計に関するより多くのデータを集めることを検討する。
これらの技術は、データガバナンスとシステム抑圧に関するより広範な疑問を、いかに無視するかを示す。
論文 参考訳(メタデータ) (2022-04-18T04:50:09Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Towards Threshold Invariant Fair Classification [10.317169065327546]
本稿では、決定しきい値とは無関係に、異なるグループ間で公平な性能を強制する、しきい値不変公平性の概念を紹介する。
実験結果から,提案手法は,公平性を実現するために設計された機械学習モデルの閾値感度を緩和するために有効であることが示された。
論文 参考訳(メタデータ) (2020-06-18T16:49:46Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。