論文の概要: Diversity Drives Fairness: Ensemble of Higher Order Mutants for Intersectional Fairness of Machine Learning Software
- arxiv url: http://arxiv.org/abs/2412.08167v1
- Date: Wed, 11 Dec 2024 07:44:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 14:04:12.861593
- Title: Diversity Drives Fairness: Ensemble of Higher Order Mutants for Intersectional Fairness of Machine Learning Software
- Title(参考訳): 多様性がフェアネスを駆動する - 機械学習ソフトウェアの節間フェアネスのための高次ミュータントの集合
- Authors: Zhenpeng Chen, Xinyue Li, Jie M. Zhang, Federica Sarro, Yang Liu,
- Abstract要約: 本稿では,機械学習ソフトウェアの交差公正性を高めるための新しいアンサンブル手法であるFairHOMEを紹介する。
多様性の利点を強調する社会科学理論に触発されて、FairHOMEは入力インスタンスごとに多様なサブグループを表すミュータントを生成する。
我々はFairHOMEを、24の意思決定タスクにまたがる7つの最先端の公正性改善手法に対して広範囲に評価する。
平均して交差点の公正度は47.5%向上し、現在最高のパフォーマンスの手法を9.6ポイント上回っている。
- 参考スコア(独自算出の注目度): 22.887573151964464
- License:
- Abstract: Intersectional fairness is a critical requirement for Machine Learning (ML) software, demanding fairness across subgroups defined by multiple protected attributes. This paper introduces FairHOME, a novel ensemble approach using higher order mutation of inputs to enhance intersectional fairness of ML software during the inference phase. Inspired by social science theories highlighting the benefits of diversity, FairHOME generates mutants representing diverse subgroups for each input instance, thus broadening the array of perspectives to foster a fairer decision-making process. Unlike conventional ensemble methods that combine predictions made by different models, FairHOME combines predictions for the original input and its mutants, all generated by the same ML model, to reach a final decision. Notably, FairHOME is even applicable to deployed ML software as it bypasses the need for training new models. We extensively evaluate FairHOME against seven state-of-the-art fairness improvement methods across 24 decision-making tasks using widely adopted metrics. FairHOME consistently outperforms existing methods across all metrics considered. On average, it enhances intersectional fairness by 47.5%, surpassing the currently best-performing method by 9.6 percentage points.
- Abstract(参考訳): インターセクションフェアネス(Intersectional Fairness)は、機械学習(ML)ソフトウェアにとって重要な要件であり、複数の保護属性によって定義されたサブグループ間の公平性を要求する。
本稿では,入力の高次変異を用いた新しいアンサンブル手法であるFairHOMEを紹介し,推論フェーズにおけるMLソフトウェアの交差公正性を高める。
多様性の利点を強調する社会科学理論に触発されて、FairHOMEは入力インスタンスごとに多様なサブグループを表すミュータントを生成し、より公平な意思決定プロセスを促進するために、視点の配列を広げる。
異なるモデルで作成された予測を組み合わせる従来のアンサンブル法とは異なり、FairHOMEはオリジナルの入力の予測と、同じMLモデルで生成されたミュータントを組み合わせて最終的な決定に達する。
FairHOMEは、新しいモデルをトレーニングする必要がなくなるため、デプロイされたMLソフトウェアにも適用できる。
本研究では,FairHOMEを,広く採用されているメトリクスを用いて,24の意思決定タスクに対して,最先端のフェアネス改善手法7つに対して広範囲に評価する。
FairHOMEは、考慮されたすべてのメトリクスで、既存のメソッドを一貫して上回ります。
平均して交差点の公正度は47.5%向上し、現在最高のパフォーマンスの手法を9.6ポイント上回っている。
関連論文リスト
- Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - FIXED: Frustratingly Easy Domain Generalization with Mixup [53.782029033068675]
ドメイン一般化(Domain Generalization, DG)は、複数のトレーニングドメインから一般化可能なモデルを学ぶことを目的としている。
一般的な戦略は、Mixupcitezhang 2018mixupのようなメソッドによる一般化のためにトレーニングデータを拡張することである。
我々は、MixupベースのDG、すなわちドメイン不変の特徴mIXup(FIX)の簡易かつ効果的な拡張を提案する。
提案手法は,9つの最先端手法よりも優れており,試験精度の面では,ベースラインの平均6.5%を上回っている。
論文 参考訳(メタデータ) (2022-11-07T09:38:34Z) - Domain Adaptation meets Individual Fairness. And they get along [48.95808607591299]
アルゴリズムフェアネスの介入は、機械学習モデルが分散シフトを克服するのに役立つことを示す。
特に,個人フェアネス(IF)の適切な概念を強制することで,MLモデルの分布外精度が向上することを示す。
論文 参考訳(メタデータ) (2022-05-01T16:19:55Z) - Unified Group Fairness on Federated Learning [22.143427873780404]
フェデレートラーニング(FL)は、グローバルモデルが分散クライアントのプライベートデータに基づいてトレーニングされる、重要な機械学習パラダイムとして登場した。
近年の研究では、顧客間の公平性に焦点が当てられているが、センシティブな属性(例えば、性別や人種)によって形成される異なるグループに対する公正性は無視されている。
本稿では,G-DRFA (Group Distributionally Robust Federated Averaging) と呼ばれる新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-09T08:21:38Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Multi-Fair Pareto Boosting [7.824964622317634]
マルチ属性)保護グループとインスタンスのクラスメンバシップの両方を考慮しながら、不公平度を測定する新しい公平性概念であるMulti-Max Mistreatment(MMM)を紹介します。
本研究では,分散更新とポストトレーニングにおいて,マルチフェアネス処理を取り入れたブースティング手法を用いて問題を解決する。
論文 参考訳(メタデータ) (2021-04-27T16:37:35Z) - Fair Bayesian Optimization [25.80374249896801]
機械学習(ML)モデルの性能を最適化するために、一般的な制約付きベイズ最適化フレームワークを導入する。
我々は、ランダムな森林、ブースティング、ニューラルネットワークなど、さまざまな人気モデルに公平性制約のあるBOを適用した。
提案手法は,モデル固有の公正性制約を強制する特殊な手法と競合することを示す。
論文 参考訳(メタデータ) (2020-06-09T08:31:08Z) - AvgOut: A Simple Output-Probability Measure to Eliminate Dull Responses [97.50616524350123]
機能エンジニアリングなしで、どの発話やトークンが退屈であるかを動的に認識する対話モデルを構築します。
最初のモデルMinAvgOutは、各バッチの出力分布を通して、ダイバーシティスコアを直接最大化する。
第2のモデルであるラベルファインチューニング(LFT)は、多様性スコアによって連続的にスケールされたラベルをソースシーケンスにプリペイドし、多様性レベルを制御する。
3つ目のモデルであるRLは強化学習を採用し、多様性スコアを報奨信号として扱う。
論文 参考訳(メタデータ) (2020-01-15T18:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。