論文の概要: Multi-Fair Pareto Boosting
- arxiv url: http://arxiv.org/abs/2104.13312v1
- Date: Tue, 27 Apr 2021 16:37:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-28 13:18:50.340634
- Title: Multi-Fair Pareto Boosting
- Title(参考訳): マルチフェアパレートブースティング
- Authors: Arjun Roy, Vasileios Iosifidis, Eirini Ntoutsi
- Abstract要約: マルチ属性)保護グループとインスタンスのクラスメンバシップの両方を考慮しながら、不公平度を測定する新しい公平性概念であるMulti-Max Mistreatment(MMM)を紹介します。
本研究では,分散更新とポストトレーニングにおいて,マルチフェアネス処理を取り入れたブースティング手法を用いて問題を解決する。
- 参考スコア(独自算出の注目度): 7.824964622317634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness-aware machine learning for multiple protected at-tributes (referred
to as multi-fairness hereafter) is receiving increasing attention as
traditional single-protected attribute approaches cannot en-sure fairness
w.r.t. other protected attributes. Existing methods, how-ever, still ignore the
fact that datasets in this domain are often imbalanced, leading to unfair
decisions towards the minority class. Thus, solutions are needed that achieve
multi-fairness,accurate predictive performance in overall, and balanced
performance across the different classes.To this end, we introduce a new
fairness notion,Multi-Max Mistreatment(MMM), which measures unfairness while
considering both (multi-attribute) protected group and class membership of
instances. To learn an MMM-fair classifier, we propose a multi-objective
problem formulation. We solve the problem using a boosting approach that
in-training,incorporates multi-fairness treatment in the distribution update
and post-training, finds multiple Pareto-optimal solutions; then uses
pseudo-weight based decision making to select optimal solution(s) among
accurate, balanced, and multi-attribute fair solutions
- Abstract(参考訳): 複数の保護された属性に対するフェアネス対応機械学習(以下、マルチフェアネスと呼ぶ)が注目されている。
他の保護された属性
既存のメソッドは、このドメイン内のデータセットがしばしば不均衡であるという事実を無視しており、マイノリティクラスに対する不公平な決定に繋がる。
したがって,マルチフェアネスを達成し,全体としての正確な予測性能と,異なるクラス間でのバランスの取れたパフォーマンスを実現するためのソリューションが必要であり,そのために,複数属性の保護されたグループとクラスメンバシップの両方を考慮して不公平さを計測する新たなフェアネス概念であるMulti-Max Mistreatment(MMM)を導入する。
MMM-fair分類器を学習するために,多目的問題の定式化を提案する。
配信更新と後学習におけるマルチフェアネス処理を取り入れたブースティング手法を用いて、複数のパレート最適解を見つけ出し、擬似重みに基づく意思決定を用いて、正確でバランスの取れた複数属性の公正解の中から最適な解を選択する。
関連論文リスト
- Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - Achieving Fairness in Multi-Agent Markov Decision Processes Using
Reinforcement Learning [30.605881670761853]
有限水平エピソードMDPにおける公平性を実現するための強化学習手法を提案する。
このようなアプローチは、エピソード数の観点から、サブ線形後悔を実現することを示す。
論文 参考訳(メタデータ) (2023-06-01T03:43:53Z) - Optimizing fairness tradeoffs in machine learning with multiobjective
meta-models [0.913755431537592]
複数のコスト関数を持つ重み付き分類問題として、公平な機械学習タスクを定義するフレキシブルなフレームワークを提案する。
我々は、与えられた学習者のモデルトレーニングで使用されるサンプル重量を定義するために多目的最適化を使用し、重みを適応させ、公平性と精度の複数の指標を最適化する。
実世界の一連の問題において、このアプローチは、好ましいエラー/フェアネストレードオフを持つ解集合を見つけることによって、現在の最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2023-04-21T13:42:49Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Mitigating Unfairness via Evolutionary Multi-objective Ensemble Learning [0.8563354084119061]
1つまたは複数の公正度対策を最適化することは、他の措置を犠牲にしたり、悪化させることがある。
複数のメトリクスを同時に最適化するために、多目的進化学習フレームワークが使用される。
提案アルゴリズムは,意思決定者に対して,精度とマルチフェアネス指標のトレードオフを向上する。
論文 参考訳(メタデータ) (2022-10-30T06:34:10Z) - Improving Robust Fairness via Balance Adversarial Training [51.67643171193376]
対人訓練 (AT) 法は, 対人攻撃に対して有効であるが, 異なるクラス間での精度と頑健さの相違が激しい。
本稿では,頑健な公正性問題に対処するために,BAT(Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2022-09-15T14:44:48Z) - Towards A Holistic View of Bias in Machine Learning: Bridging
Algorithmic Fairness and Imbalanced Learning [8.602734307457387]
保護されたグループに対するアルゴリズムの公正性を達成する上で重要な要素は、基礎となるトレーニングデータにおいて、クラスと保護されたグループの不均衡を同時に減少させることである。
本稿では、スキュークラス分布と保護された特徴の両方に対処する新しいオーバーサンプリングアルゴリズム、Fair Oversamplingを提案する。
論文 参考訳(メタデータ) (2022-07-13T09:48:52Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - PLM: Partial Label Masking for Imbalanced Multi-label Classification [59.68444804243782]
長いラベルの分布を持つ実世界のデータセットで訓練されたニューラルネットワークは、頻繁なクラスに偏りがあり、頻繁なクラスでは不十分である。
本稿では,この比率を利用したPLM(Partial Label Masking)を提案する。
本手法は,マルチラベル (MultiMNIST と MSCOCO) とシングルラベル (CIFAR-10 と CIFAR-100) の2つの画像分類データセットにおいて,既存の手法と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-05-22T18:07:56Z) - Accuracy and Fairness Trade-offs in Machine Learning: A Stochastic
Multi-Objective Approach [0.0]
機械学習を実生活の意思決定システムに適用すると、予測結果は機密性の高い属性を持つ人々に対して差別され、不公平になる可能性がある。
公正機械学習における一般的な戦略は、予測損失の最小化において、制約や罰則として公正さを含めることである。
本稿では,多目的最適化問題を定式化して公平性を扱うための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-08-03T18:51:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。