論文の概要: MultiFair: Multi-Group Fairness in Machine Learning
- arxiv url: http://arxiv.org/abs/2105.11069v1
- Date: Mon, 24 May 2021 02:30:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-26 05:07:30.641773
- Title: MultiFair: Multi-Group Fairness in Machine Learning
- Title(参考訳): MultiFair: 機械学習におけるマルチグループフェアネス
- Authors: Jian Kang, Tiankai Xie, Xintao Wu, Ross Maciejewski, Hanghang Tong
- Abstract要約: 機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
- 参考スコア(独自算出の注目度): 52.24956510371455
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic fairness is becoming increasingly important in data mining and
machine learning, and one of the most fundamental notions is group fairness.
The vast majority of the existing works on group fairness, with a few
exceptions, primarily focus on debiasing with respect to a single sensitive
attribute, despite the fact that the co-existence of multiple sensitive
attributes (e.g., gender, race, marital status, etc.) in the real-world is
commonplace. As such, methods that can ensure a fair learning outcome with
respect to all sensitive attributes of concern simultaneously need to be
developed. In this paper, we study multi-group fairness in machine learning
(MultiFair), where statistical parity, a representative group fairness measure,
is guaranteed among demographic groups formed by multiple sensitive attributes
of interest. We formulate it as a mutual information minimization problem and
propose a generic end-to-end algorithmic framework to solve it. The key idea is
to leverage a variational representation of mutual information, which considers
the variational distribution between learning outcomes and sensitive
attributes, as well as the density ratio between the variational and the
original distributions. Our proposed framework is generalizable to many
different settings, including other statistical notions of fairness, and could
handle any type of learning task equipped with a gradient-based optimizer.
Empirical evaluations in the fair classification task on three real-world
datasets demonstrate that our proposed framework can effectively debias the
classification results with minimal impact to the classification accuracy.
- Abstract(参考訳): データマイニングや機械学習では、アルゴリズム的公平性がますます重要になってきており、最も基本的な概念の1つがグループフェアネスである。
グループフェアネスに関する既存の研究の大部分は、主に、複数のセンシティブな属性(例えば、性別、人種、結婚状態など)が共存しているにもかかわらず、単一のセンシティブな属性に対する嫌悪感に焦点を当てている。
現実世界では普通です。
このようにして、関心のあるすべての敏感な属性に対して公平な学習結果を保証する方法を同時に開発する必要がある。
本稿では,複数の興味を持つ属性によって形成された集団間で,代表的集団フェアネス尺度である統計パリティが保証される機械学習(multifair)における多集団フェアネスについて検討する。
相互情報最小化問題として定式化し,それを解決するための汎用的なエンドツーエンドアルゴリズムフレームワークを提案する。
鍵となるアイデアは、学習結果と繊細な属性の間の変動分布と、変動分布と元の分布の間の密度比を考える相互情報の変動表現を活用することである。
提案するフレームワークは,他の統計的フェアネス概念を含む様々な設定に一般化可能であり,グラデーションに基づくオプティマイザを備えた任意の学習タスクを処理可能である。
3つの実世界のデータセットにおける公平な分類タスクにおける経験的評価は,提案手法が分類精度にほとんど影響を与えず,効果的に分類結果を識別できることを実証する。
関連論文リスト
- Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Towards A Holistic View of Bias in Machine Learning: Bridging
Algorithmic Fairness and Imbalanced Learning [8.602734307457387]
保護されたグループに対するアルゴリズムの公正性を達成する上で重要な要素は、基礎となるトレーニングデータにおいて、クラスと保護されたグループの不均衡を同時に減少させることである。
本稿では、スキュークラス分布と保護された特徴の両方に対処する新しいオーバーサンプリングアルゴリズム、Fair Oversamplingを提案する。
論文 参考訳(メタデータ) (2022-07-13T09:48:52Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - FairFed: Enabling Group Fairness in Federated Learning [22.913999279079878]
フェデレーテッド・ラーニングは、複数のパーティで機械学習モデルを学習するための有望なソリューションと見なされている。
フェアネスを意識したアグリゲーション手法によりグループフェアネスを高める新しいアルゴリズムであるFairFedを提案する。
提案手法は,高度の不均一な属性分布の下で,最先端の公正な学習フレームワークよりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-02T17:55:20Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z) - One-vs.-One Mitigation of Intersectional Bias: A General Method to
Extend Fairness-Aware Binary Classification [0.48733623015338234]
1-vs.ワン・マイティゲーション(英: One-vs. One Mitigation)は、二項分類のためのフェアネス認識機械学習と、センシティブ属性に関連する各サブグループの比較プロセスである。
本手法は,すべての設定において従来の手法よりも交叉バイアスを緩和する。
論文 参考訳(メタデータ) (2020-10-26T11:35:39Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。