論文の概要: Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes
- arxiv url: http://arxiv.org/abs/2211.06138v1
- Date: Fri, 11 Nov 2022 11:28:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 15:56:41.627393
- Title: Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes
- Title(参考訳): 多種多変量感度属性を用いたフェアラーニングの実践的アプローチ
- Authors: Tennison Liu, Alex J. Chan, Boris van Breugel, Mihaela van der Schaar
- Abstract要約: 現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
- 参考スコア(独自算出の注目度): 70.6326967720747
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is important to guarantee that machine learning algorithms deployed in the
real world do not result in unfairness or unintended social consequences. Fair
ML has largely focused on the protection of single attributes in the simpler
setting where both attributes and target outcomes are binary. However, the
practical application in many a real-world problem entails the simultaneous
protection of multiple sensitive attributes, which are often not simply binary,
but continuous or categorical. To address this more challenging task, we
introduce FairCOCCO, a fairness measure built on cross-covariance operators on
reproducing kernel Hilbert Spaces. This leads to two practical tools: first,
the FairCOCCO Score, a normalised metric that can quantify fairness in settings
with single or multiple sensitive attributes of arbitrary type; and second, a
subsequent regularisation term that can be incorporated into arbitrary learning
objectives to obtain fair predictors. These contributions address crucial gaps
in the algorithmic fairness literature, and we empirically demonstrate
consistent improvements against state-of-the-art techniques in balancing
predictive power and fairness on real-world datasets.
- Abstract(参考訳): 現実世界に展開された機械学習アルゴリズムが不公平や意図しない社会的結果をもたらすことはないことを保証することが重要である。
Fair MLは、属性とターゲット結果の両方がバイナリである単純な設定において、単一属性の保護に重点を置いている。
しかし、実世界の多くの問題における実用的応用は、単にバイナリではなく、連続的あるいはカテゴリ的である複数の機密属性を同時に保護することを伴う。
この課題に対処するため,カーネルHilbert Spaces上での相互共分散演算子に基づく公正度尺度であるFairCOCCOを導入する。
ひとつは、任意のタイプの単一または複数の機密属性で設定における公平性を定量化できる正規化メトリックであるFairCOCCOスコアと、もうひとつは、任意の学習目標に組み込んで公正な予測値を得るための後続の正規化用語である。
これらの貢献はアルゴリズム的公平性文学における重要なギャップに対処し、実世界のデータセットにおける予測力と公平さのバランスをとるための最先端技術に対する一貫した改善を実証的に実証する。
関連論文リスト
- Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Fair Tree Learning [0.15229257192293202]
様々な最適化基準は、分類性能と公正度を組み合わせている。
現在の公正決定木法は、分類タスクと公正度測定の両方において、一定の閾値を最適化するのみである。
そこで本研究では,一様人口分布パリティと呼ばれるしきい値非依存の公平度尺度と,SCAFF – Splitting Criterion AUC for Fairnessと題する分割基準を提案する。
論文 参考訳(メタデータ) (2021-10-18T13:40:25Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Fair Meta-Learning For Few-Shot Classification [7.672769260569742]
バイアスデータに基づいてトレーニングされた機械学習アルゴリズムは、不公平な予測を行う傾向がある。
本稿では,メタトレイン中のバイアスを効果的に軽減する,高速適応型数ショットメタラーニング手法を提案する。
提案手法は,モデル出力のバイアスを効果的に軽減し,不明瞭なタスクに対して精度と公平性の両方を一般化することを実証的に実証する。
論文 参考訳(メタデータ) (2020-09-23T22:33:47Z) - Adversarial Learning for Counterfactual Fairness [15.302633901803526]
近年、フェアネスは機械学習研究コミュニティにおいて重要なトピックとなっている。
我々は,MDDの罰則よりも強力な推論を可能にする,対向的ニューラルネットワークアプローチに頼ることを提案する。
実験では、離散的および連続的な設定の両方に対して、対実的公正性の観点から、顕著な改善が示された。
論文 参考訳(メタデータ) (2020-08-30T09:06:03Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。