論文の概要: Measuring Fairness under Unawareness via Quantification
- arxiv url: http://arxiv.org/abs/2109.08549v1
- Date: Fri, 17 Sep 2021 13:45:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-20 14:29:09.617490
- Title: Measuring Fairness under Unawareness via Quantification
- Title(参考訳): 定量化による未知視下での公正度測定
- Authors: Alessandro Fabris, Andrea Esuli, Alejandro Moreo, Fabrizio Sebastiani
- Abstract要約: センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
我々は,グループレベルの有病率推定を直接提供することを目的とした教師付き学習課題である量子化(quantification)の手法を用いる。
また、個人レベルで感度特性を推定する潜在的なモデル誤用の問題についても検討する。
- 参考スコア(独自算出の注目度): 124.07402954603518
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Models trained by means of supervised learning are increasingly deployed in
high-stakes domains, and, when their predictions inform decisions about people,
they inevitably impact (positively or negatively) on their lives. As a
consequence, those in charge of developing these models must carefully evaluate
their impact on different groups of people and ensure that sensitive
demographic attributes, such as race or sex, do not result in unfair treatment
for members of specific groups. For doing this, awareness of demographic
attributes on the part of those evaluating model impacts is fundamental.
Unfortunately, the collection of these attributes is often in conflict with
industry practices and legislation on data minimization and privacy. For this
reason, it may be hard to measure the group fairness of trained models, even
from within the companies developing them. In this work, we tackle the problem
of measuring group fairness under unawareness of sensitive attributes, by using
techniques from quantification, a supervised learning task concerned with
directly providing group-level prevalence estimates (rather than
individual-level class labels). We identify five important factors that
complicate the estimation of fairness under unawareness and formalize them into
five different experimental protocols under which we assess the effectiveness
of different estimators of group fairness. We also consider the problem of
potential model misuse to infer sensitive attributes at an individual level,
and demonstrate that quantification approaches are suitable for decoupling the
(desirable) objective of measuring group fairness from the (undesirable)
objective of inferring sensitive attributes of individuals.
- Abstract(参考訳): 教師付き学習によって訓練されたモデルは、ハイテイクな領域にますます展開され、予測が人々に関する決定を知らせると、必然的に(肯定的または否定的に)彼らの生活に影響を及ぼす。
結果として、これらのモデルを開発する担当者は、異なる集団に対する彼らの影響を慎重に評価し、人種や性別などのセンシティブな人口特性が特定のグループのメンバーに不公平な処置を与えないことを保証する必要がある。
これを行うためには、モデルの影響を評価する部分における人口統計特性の認識が不可欠である。
残念ながら、これらの属性の収集は、データ最小化とプライバシに関する業界慣行や法律と矛盾することが多い。
このような理由から、トレーニングされたモデルのグループフェアネスを測定するのは難しいかもしれません。
本研究では,グループレベルの有病率推定を直接提供することを目的とした教師あり学習課題である定量化の手法を用いて,センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
グループフェアネスの推定を無意識で複雑にし,それらを5つの異なる実験プロトコルに形式化し,グループフェアネスの異なる推定器の有効性を評価する。
また, 個人レベルで機密属性を推測する潜在的なモデル誤用の問題を検討し, 定量化アプローチが, 個人の機密属性を推論する(望ましくない)目的から集団フェアネスを測定する(望ましくない)目的を分離するのに適していることを示す。
関連論文リスト
- Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Group Robust Classification Without Any Group Information [5.053622900542495]
この研究は、グループロバストネスに対する現在のバイアス非教師アプローチが、最適なパフォーマンスを達成するためにグループ情報に依存し続けていることを主張する。
バイアスラベルは依然として効果的なモデル選択に不可欠であり、現実のシナリオにおけるこれらの手法の実用性を制限する。
本稿では, 偏りのないモデルに対して, 完全にバイアスのない方法でトレーニングし, 妥当性を検証するための改訂手法を提案する。
論文 参考訳(メタデータ) (2023-10-28T01:29:18Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - A statistical approach to detect sensitive features in a group fairness
setting [10.087372021356751]
本稿では,不公平な結果の検証に訓練されたモデルを必要としないセンシティブな特徴を自動的に認識するタスクに対処する前処理ステップを提案する。
我々の経験的結果は、我々の仮説を証明し、文献に敏感であると考えられるいくつかの特徴が必ずしも異質な(不公平な)結果を必要とするとは限らないことを示す。
論文 参考訳(メタデータ) (2023-05-11T17:30:12Z) - Demographic-Reliant Algorithmic Fairness: Characterizing the Risks of
Demographic Data Collection in the Pursuit of Fairness [0.0]
我々は、アルゴリズムの公正性を実現するために、人口統計に関するより多くのデータを集めることを検討する。
これらの技術は、データガバナンスとシステム抑圧に関するより広範な疑問を、いかに無視するかを示す。
論文 参考訳(メタデータ) (2022-04-18T04:50:09Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Towards Threshold Invariant Fair Classification [10.317169065327546]
本稿では、決定しきい値とは無関係に、異なるグループ間で公平な性能を強制する、しきい値不変公平性の概念を紹介する。
実験結果から,提案手法は,公平性を実現するために設計された機械学習モデルの閾値感度を緩和するために有効であることが示された。
論文 参考訳(メタデータ) (2020-06-18T16:49:46Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。