論文の概要: Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes
- arxiv url: http://arxiv.org/abs/2211.06138v1
- Date: Fri, 11 Nov 2022 11:28:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 15:56:41.627393
- Title: Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes
- Title(参考訳): 多種多変量感度属性を用いたフェアラーニングの実践的アプローチ
- Authors: Tennison Liu, Alex J. Chan, Boris van Breugel, Mihaela van der Schaar
- Abstract要約: 現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
- 参考スコア(独自算出の注目度): 70.6326967720747
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is important to guarantee that machine learning algorithms deployed in the
real world do not result in unfairness or unintended social consequences. Fair
ML has largely focused on the protection of single attributes in the simpler
setting where both attributes and target outcomes are binary. However, the
practical application in many a real-world problem entails the simultaneous
protection of multiple sensitive attributes, which are often not simply binary,
but continuous or categorical. To address this more challenging task, we
introduce FairCOCCO, a fairness measure built on cross-covariance operators on
reproducing kernel Hilbert Spaces. This leads to two practical tools: first,
the FairCOCCO Score, a normalised metric that can quantify fairness in settings
with single or multiple sensitive attributes of arbitrary type; and second, a
subsequent regularisation term that can be incorporated into arbitrary learning
objectives to obtain fair predictors. These contributions address crucial gaps
in the algorithmic fairness literature, and we empirically demonstrate
consistent improvements against state-of-the-art techniques in balancing
predictive power and fairness on real-world datasets.
- Abstract(参考訳): 現実世界に展開された機械学習アルゴリズムが不公平や意図しない社会的結果をもたらすことはないことを保証することが重要である。
Fair MLは、属性とターゲット結果の両方がバイナリである単純な設定において、単一属性の保護に重点を置いている。
しかし、実世界の多くの問題における実用的応用は、単にバイナリではなく、連続的あるいはカテゴリ的である複数の機密属性を同時に保護することを伴う。
この課題に対処するため,カーネルHilbert Spaces上での相互共分散演算子に基づく公正度尺度であるFairCOCCOを導入する。
ひとつは、任意のタイプの単一または複数の機密属性で設定における公平性を定量化できる正規化メトリックであるFairCOCCOスコアと、もうひとつは、任意の学習目標に組み込んで公正な予測値を得るための後続の正規化用語である。
これらの貢献はアルゴリズム的公平性文学における重要なギャップに対処し、実世界のデータセットにおける予測力と公平さのバランスをとるための最先端技術に対する一貫した改善を実証的に実証する。
関連論文リスト
- Probably Approximately Precision and Recall Learning [62.912015491907994]
精度とリコールは機械学習の基本的な指標である。
一方的なフィードバック – トレーニング中にのみ肯定的な例が観察される – は,多くの実践的な問題に固有のものだ。
PAC学習フレームワークでは,各仮説をグラフで表現し,エッジは肯定的な相互作用を示す。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - Flexible Fairness-Aware Learning via Inverse Conditional Permutation [0.0]
本稿では,逆数学習と新しい逆条件変分スキームを統合した,プロセス内フェアネス対応学習手法であるFairICPを紹介する。
FairICPは、複素および多次元の感度特性によって記述された公正な条件下での等化オッズを促進する理論的に正当化され、柔軟で効率的なスキームを提供する。
論文 参考訳(メタデータ) (2024-04-08T16:57:44Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in Regression Machine Learning Problems [46.93320580613236]
回帰問題に対する正規化(FaiReg)に基づく単純かつ効果的な手法を提案する。
データバランシングと敵対的トレーニングという,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減できる優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z) - Fair Tree Learning [0.15229257192293202]
様々な最適化基準は、分類性能と公正度を組み合わせている。
現在の公正決定木法は、分類タスクと公正度測定の両方において、一定の閾値を最適化するのみである。
そこで本研究では,一様人口分布パリティと呼ばれるしきい値非依存の公平度尺度と,SCAFF – Splitting Criterion AUC for Fairnessと題する分割基準を提案する。
論文 参考訳(メタデータ) (2021-10-18T13:40:25Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Fair Meta-Learning For Few-Shot Classification [7.672769260569742]
バイアスデータに基づいてトレーニングされた機械学習アルゴリズムは、不公平な予測を行う傾向がある。
本稿では,メタトレイン中のバイアスを効果的に軽減する,高速適応型数ショットメタラーニング手法を提案する。
提案手法は,モデル出力のバイアスを効果的に軽減し,不明瞭なタスクに対して精度と公平性の両方を一般化することを実証的に実証する。
論文 参考訳(メタデータ) (2020-09-23T22:33:47Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。