論文の概要: Mitigating Unfairness via Evolutionary Multi-objective Ensemble Learning
- arxiv url: http://arxiv.org/abs/2210.16754v1
- Date: Sun, 30 Oct 2022 06:34:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 14:47:32.079356
- Title: Mitigating Unfairness via Evolutionary Multi-objective Ensemble Learning
- Title(参考訳): 進化的多目的アンサンブル学習による不公平の軽減
- Authors: Zhang Qingquan, Liu Jialin, Zhang Zeqi, Wen Junyi, Mao Bifei, Yao Xin
- Abstract要約: 1つまたは複数の公正度対策を最適化することは、他の措置を犠牲にしたり、悪化させることがある。
複数のメトリクスを同時に最適化するために、多目的進化学習フレームワークが使用される。
提案アルゴリズムは,意思決定者に対して,精度とマルチフェアネス指標のトレードオフを向上する。
- 参考スコア(独自算出の注目度): 0.8563354084119061
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the literature of mitigating unfairness in machine learning, many fairness
measures are designed to evaluate predictions of learning models and also
utilised to guide the training of fair models. It has been theoretically and
empirically shown that there exist conflicts and inconsistencies among accuracy
and multiple fairness measures. Optimising one or several fairness measures may
sacrifice or deteriorate other measures. Two key questions should be
considered, how to simultaneously optimise accuracy and multiple fairness
measures, and how to optimise all the considered fairness measures more
effectively. In this paper, we view the mitigating unfairness problem as a
multi-objective learning problem considering the conflicts among fairness
measures. A multi-objective evolutionary learning framework is used to
simultaneously optimise several metrics (including accuracy and multiple
fairness measures) of machine learning models. Then, ensembles are constructed
based on the learning models in order to automatically balance different
metrics. Empirical results on eight well-known datasets demonstrate that
compared with the state-of-the-art approaches for mitigating unfairness, our
proposed algorithm can provide decision-makers with better tradeoffs among
accuracy and multiple fairness metrics. Furthermore, the high-quality models
generated by the framework can be used to construct an ensemble to
automatically achieve a better tradeoff among all the considered fairness
metrics than other ensemble methods. Our code is publicly available at
https://github.com/qingquan63/FairEMOL
- Abstract(参考訳): 機械学習における不公平さを緩和する文献では、学習モデルの予測を評価するために多くの公平性尺度が設計されており、公平モデルのトレーニングを導くためにも利用されている。
理論的、実験的に、精度と多重公正度尺度の間に矛盾や矛盾があることが示されている。
1つまたは複数の公正度対策を最適化することは、他の措置を犠牲にしたり、悪化させることがある。
2つの重要な問いは、精度と多重公正度を同時に最適化する方法、そして、検討された公正度をより効果的に最適化する方法である。
本稿では,公平性尺度間の葛藤を考慮した多目的学習問題として,緩和不公平性問題を考察する。
多目的進化学習フレームワークは、機械学習モデルの複数のメトリクス(正確性や公平性を含む)を同時に最適化するために使用される。
そして、学習モデルに基づいてアンサンブルを構築し、異なるメトリクスを自動的にバランスさせる。
8つのよく知られたデータセットに対する実証的な結果から、不公平を緩和するための最先端のアプローチと比較して、提案アルゴリズムは意思決定者に対して精度のトレードオフと複数の公正度測定値を提供することができる。
さらに、フレームワークが生成する高品質なモデルは、他のアンサンブル法よりも、すべての考慮された公平度メトリクス間のより良いトレードオフを達成するためにアンサンブルを構築するのに使うことができる。
私たちのコードはhttps://github.com/qingquan63/FairEMOLで公開されています。
関連論文リスト
- Enhancing Fairness and Performance in Machine Learning Models: A Multi-Task Learning Approach with Monte-Carlo Dropout and Pareto Optimality [1.5498930424110338]
マルチタスク学習に基づくバイアス軽減手法を提案する。
モデルフェアネスとパフォーマンスの最も望ましいトレードオフを実現する方法を示します。
論文 参考訳(メタデータ) (2024-04-12T04:17:50Z) - Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fairly Accurate: Learning Optimal Accuracy vs. Fairness Tradeoffs for
Hate Speech Detection [8.841221697099687]
本稿では,モデルトレーニングにおけるグループフェアネスの直接最適化を可能にする,微分可能な尺度を提案する。
ヘイトスピーチ検出の特定のタスクについて,本手法の評価を行った。
畳み込み、シーケンシャル、トランスフォーマーに基づくニューラルネットワークによる実験結果は、事前の作業よりも経験的精度が優れている。
論文 参考訳(メタデータ) (2022-04-15T22:11:25Z) - FADE: FAir Double Ensemble Learning for Observable and Counterfactual
Outcomes [0.0]
公正予測器を構築する方法は、フェアネスと精度、およびフェアネスの異なる基準の間のトレードオフを伴うことが多い。
フェアネス・精度の空間を効率的に探索できるフェアアンサンブル学習のためのフレキシブルなフレームワークを開発した。
驚くべきことに、複数の不公平度対策は、精度にほとんど影響を与えないと同時に、同時に最小化できることが示される。
論文 参考訳(メタデータ) (2021-09-01T03:56:43Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。