論文の概要: An Empirical Study on Fairness Improvement with Multiple Protected
Attributes
- arxiv url: http://arxiv.org/abs/2308.01923v1
- Date: Tue, 25 Jul 2023 14:01:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 02:07:48.368101
- Title: An Empirical Study on Fairness Improvement with Multiple Protected
Attributes
- Title(参考訳): 多重保護属性による公平性向上に関する実証的研究
- Authors: Zhenpeng Chen and Jie M. Zhang and Federica Sarro and Mark Harman
- Abstract要約: 本稿では,複数の保護属性に対する公平性向上について検討した。
我々は,11種類の最先端の公平性向上手法の有効性を解析した。
単一属性と複数の保護属性を考えると,精度損失の差はほとんどない。
- 参考スコア(独自算出の注目度): 27.67313504037565
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing research mostly improves the fairness of Machine Learning (ML)
software regarding a single protected attribute at a time, but this is
unrealistic given that many users have multiple protected attributes. This
paper conducts an extensive study of fairness improvement regarding multiple
protected attributes, covering 11 state-of-the-art fairness improvement
methods. We analyze the effectiveness of these methods with different datasets,
metrics, and ML models when considering multiple protected attributes. The
results reveal that improving fairness for a single protected attribute can
largely decrease fairness regarding unconsidered protected attributes. This
decrease is observed in up to 88.3% of scenarios (57.5% on average). More
surprisingly, we find little difference in accuracy loss when considering
single and multiple protected attributes, indicating that accuracy can be
maintained in the multiple-attribute paradigm. However, the effect on precision
and recall when handling multiple protected attributes is about 5 times and 8
times that of a single attribute. This has important implications for future
fairness research: reporting only accuracy as the ML performance metric, which
is currently common in the literature, is inadequate.
- Abstract(参考訳): 既存の研究は、一度に1つの保護属性に関する機械学習(ML)ソフトウェアの公平性を大幅に改善していますが、多くのユーザが複数の保護属性を持っているため、これは現実的ではありません。
本稿では,複数の保護属性に関する公平性改善に関する広範な研究を行い,11の公正性改善手法について述べる。
複数の保護属性を考慮した場合、これらの手法の有効性を異なるデータセット、メトリクス、MLモデルで分析する。
その結果、単一の保護属性の公平性を改善することは、未検討の保護属性に対する公平性を大幅に低下させることが判明した。
この減少は88.3%のシナリオで観察される(平均57.5%)。
より驚くべきことに、単一属性と複数の保護属性を考えると、精度損失の差はほとんど見られず、多重属性パラダイムでは精度が維持できることを示している。
しかし、複数の保護属性を扱う場合の精度とリコールへの影響は、1つの属性の約5倍と8倍である。
これは将来の公正性研究に重要な意味を持ち、現在文献で一般的なMLパフォーマンス指標としてのみ正確さを報告することは不十分である。
関連論文リスト
- What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - Improving Fairness using Vision-Language Driven Image Augmentation [60.428157003498995]
公平性は、特に顔領域において、ディープラーニングの識別モデルを訓練する際に重要である。
モデルは、特定の特性(年齢や肌の色など)と無関係な属性(下流タスク)を関連付ける傾向がある
本稿では,これらの相関を緩和し,公平性を向上する手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T19:51:10Z) - Estimating and Implementing Conventional Fairness Metrics With
Probabilistic Protected Features [7.457585597068654]
限られた属性ラベルを持つ設定において,違反を計測・低減する手法を開発した。
提案手法は, 従来の手法よりも5.5倍の精度で, 真の相違を抑えることができることを示す。
論文 参考訳(メタデータ) (2023-10-02T22:30:25Z) - Muffin: A Framework Toward Multi-Dimension AI Fairness by Uniting
Off-the-Shelf Models [9.01924639426239]
モデルフェアネス(すなわちバイアス)は、幅広いAIアプリケーションにおいて最も重要な問題の一つとなっている。
本稿では,マルチ次元フェアネスフレームワーク,すなわちMuffinを提案する。このフレームワークは,複数の属性に対するフェアネスを同時に向上するために,市販モデルを統合する自動ツールを含む。
論文 参考訳(メタデータ) (2023-08-26T02:04:10Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Multiple Attribute Fairness: Application to Fraud Detection [0.0]
本稿では, 人気均等度制度における等値条件を緩和する公平度尺度を提案する。
評価基準に適合する機密属性値当たりの結果を校正する反復的非依存グリッドベースモデルを設計する。
論文 参考訳(メタデータ) (2022-07-28T19:19:45Z) - Spread Spurious Attribute: Improving Worst-group Accuracy with Spurious
Attribute Estimation [72.92329724600631]
本稿では,最悪のグループ精度を向上させるために,疑似属性に基づくアルゴリズムSpread Spurious Attributeを提案する。
各種ベンチマークデータセットに対する実験により,アルゴリズムはベースライン法より一貫して優れていることが示された。
また,提案したSSAは,フル (100%) のスプリアス特性監視を用いた手法に匹敵する性能を達成できることを実証した。
論文 参考訳(メタデータ) (2022-04-05T09:08:30Z) - Dikaios: Privacy Auditing of Algorithmic Fairness via Attribute
Inference Attacks [0.5801044612920815]
モデルビルダーのための公正性アルゴリズムのためのプライバシ監査ツールであるDikaiosを提案する。
適応予測しきい値を持つ属性推論攻撃は,前回の攻撃よりも有意に優れていた。
論文 参考訳(メタデータ) (2022-02-04T17:19:59Z) - Fairness without Demographics through Adversarially Reweighted Learning [20.803276801890657]
保護されたグループメンバーシップさえ知らない場合、フェアネスを改善するためにMLモデルをトレーニングします。
特に,非保護機能やタスクラベルは公平性の問題を特定する上で有用である,という仮説を立てる。
以上の結果から,ARLはRawlsian Max-Minフェアネスを向上し,複数のデータセットにおける最悪の保護グループに対するAUCの顕著な改善が見られた。
論文 参考訳(メタデータ) (2020-06-23T16:06:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。