論文の概要: Towards Understanding Fairness and its Composition in Ensemble Machine
Learning
- arxiv url: http://arxiv.org/abs/2212.04593v1
- Date: Thu, 8 Dec 2022 22:51:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 15:39:30.477789
- Title: Towards Understanding Fairness and its Composition in Ensemble Machine
Learning
- Title(参考訳): 機械学習における公正性と構成の理解に向けて
- Authors: Usman Gohar, Sumon Biswas, Hridesh Rajan
- Abstract要約: 私たちは、バッグング、ブースティング、積み重ね、投票といった、人気のある現実世界のアンサンブルを研究します。
フェアネスの構成を理解するために、既存のフェアネスメトリクスを使用します。
その結果,アンサンブルは緩和技術を用いることなく,より公平に設計できることがわかった。
- 参考スコア(独自算出の注目度): 6.495021431429491
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Learning (ML) software has been widely adopted in modern society,
with reported fairness implications for minority groups based on race, sex,
age, etc. Many recent works have proposed methods to measure and mitigate
algorithmic bias in ML models. The existing approaches focus on single
classifier-based ML models. However, real-world ML models are often composed of
multiple independent or dependent learners in an ensemble (e.g., Random
Forest), where the fairness composes in a non-trivial way. How does fairness
compose in ensembles? What are the fairness impacts of the learners on the
ultimate fairness of the ensemble? Can fair learners result in an unfair
ensemble? Furthermore, studies have shown that hyperparameters influence the
fairness of ML models. Ensemble hyperparameters are more complex since they
affect how learners are combined in different categories of ensembles.
Understanding the impact of ensemble hyperparameters on fairness will help
programmers design fair ensembles. Today, we do not understand these fully for
different ensemble algorithms. In this paper, we comprehensively study popular
real-world ensembles: bagging, boosting, stacking and voting. We have developed
a benchmark of 168 ensemble models collected from Kaggle on four popular
fairness datasets. We use existing fairness metrics to understand the
composition of fairness. Our results show that ensembles can be designed to be
fairer without using mitigation techniques. We also identify the interplay
between fairness composition and data characteristics to guide fair ensemble
design. Finally, our benchmark can be leveraged for further research on fair
ensembles. To the best of our knowledge, this is one of the first and largest
studies on fairness composition in ensembles yet presented in the literature.
- Abstract(参考訳): 機械学習(ML)ソフトウェアは現代社会において広く採用されており、人種、性別、年齢などに基づく少数派グループに公正な影響が報告されている。
近年,MLモデルのアルゴリズムバイアスを計測・緩和する手法が提案されている。
既存のアプローチでは、単一分類器ベースのMLモデルに重点を置いている。
しかし、現実のMLモデルは複数の独立した学習者(例えばランダムフォレスト)で構成され、フェアネスは非自明な方法で構成される。
アンサンブルの公平さはどのように構成されますか。
アンサンブルの究極の公平性に対する学習者の公平性の影響はどのようなものか?
公平な学習者は不公平なアンサンブルを生み出すことができるか?
さらに、ハイパーパラメータがMLモデルの公平性に影響を与えることが研究によって示されている。
アンサンブルハイパーパラメータは、学習者が異なるカテゴリのアンサンブルでどのように結合されるかに影響するため、より複雑である。
アンサンブルハイパーパラメータがフェアネスに与える影響を理解することは、プログラマがフェアアンサンブルを設計するのに役立つ。
今日では、これらを異なるアンサンブルアルゴリズムについて完全には理解していない。
本稿では,バッキング,ブースティング,積み重ね,投票など,現実世界で人気のあるアンサンブルを包括的に研究する。
我々は,4つの人気フェアネスデータセットを用いて,Kaggleから収集した168アンサンブルモデルのベンチマークを開発した。
私たちはフェアネスの構成を理解するために既存のフェアネスメトリクスを使用します。
その結果,アンサンブルは緩和技術を用いることなく,より公平に設計できることがわかった。
また,フェアネス構成とデータ特性との相互作用を識別し,フェアアンサンブル設計を導く。
最後に、我々のベンチマークはフェアアンサンブルのさらなる研究に活用できる。
私たちの知る限りでは、これはまだ文献で提示されていないアンサンブルにおける公正な構成に関する最初のかつ最大の研究の1つである。
関連論文リスト
- FairGLVQ: Fairness in Partition-Based Classification [5.548241734363096]
本研究では,特定の公平性定義に依存しない分割モデルに対して,公平な機械学習を行うための一般的なフレームワークを開発する。
学習ベクトル量子化(LVQ)の公平なバージョンを特定のインスタンス化として導出する。
理論的および実世界のデータに関する文献から得られた他のアルゴリズムと比較し,その実用的妥当性を示す。
論文 参考訳(メタデータ) (2024-10-16T11:00:25Z) - Fair Abstractive Summarization of Diverse Perspectives [103.08300574459783]
公平な要約は、特定のグループを過小評価することなく、多様な視点を包括的にカバーしなければなりません。
はじめに、抽象的な要約における公正性は、いかなる集団の視点にも過小評価されないものとして、正式に定義する。
本研究では,対象視点と対象視点の差を測定することで,基準のない4つの自動計測手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T03:38:55Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Blackbox Post-Processing for Multiclass Fairness [1.5305403478254664]
我々は,マルチクラス設定における公平性を達成するため,ブラックボックス機械学習分類器の予測を変更することを検討する。
我々は,系統的な合成実験を通じて,公正かつ正確な予測を行う方法を探究する。
全体として、我々の手法は精度の小さな低下を生じさせ、データセットの個体数が高い場合に公平さを強制する。
論文 参考訳(メタデータ) (2022-01-12T13:21:20Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Making ML models fairer through explanations: the case of LimeOut [7.952582509792971]
アルゴリズムによる決定は今では日常的に使われており、複雑でバイアスのかかる機械学習(ML)プロセスに基づいている。
これは、偏見のある決定が個人や社会全体に与える影響を考えると、いくつかの懸念を提起する。
モデルフェアネスを改善するために,「フィーチャードロップアウト」というシンプルなアイデアと「アンサンブルアプローチ」を併用する方法について述べる。
論文 参考訳(メタデータ) (2020-11-01T19:07:11Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。