論文の概要: Fair Balance: Mitigating Machine Learning Bias Against Multiple
Protected Attributes With Data Balancing
- arxiv url: http://arxiv.org/abs/2107.08310v1
- Date: Sat, 17 Jul 2021 20:40:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-20 14:51:24.219685
- Title: Fair Balance: Mitigating Machine Learning Bias Against Multiple
Protected Attributes With Data Balancing
- Title(参考訳): fair balance: データバランシングによる複数の保護属性に対する機械学習バイアスの軽減
- Authors: Zhe Yu
- Abstract要約: 機械学習モデルをトレーニングする前に、保護属性毎にトレーニングデータの分散のバランスをとるために、FairBalanceを提案する。
以上の結果から,FairBalanceは,予測性能に悪影響を及ぼすことなく,すべての既知の保護属性に対するバイアス指標(AOD, EOD, SPD)を著しく低減できることがわかった。
- 参考スコア(独自算出の注目度): 1.547743767987131
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper aims to improve machine learning fairness on multiple protected
at-tributes. Machine learning fairness has attracted increasing attention since
machine learning models are increasingly used for high-stakes and high-risk
decisions. Most existing solutions for machine learning fairness only target
one protected attribute(e.g. sex) at a time. These solutions cannot generate a
machine learning model which is fair against every protected attribute (e.g.
both sex and race) at the same time. To solve this problem, we propose
FairBalance in this paper to balance the distribution of training data across
every protected attribute before training the machine learning models. Our
results show that, under the assumption of unbiased ground truth labels,
FairBalance can significantly reduce bias metrics (AOD, EOD, and SPD) on every
known protected attribute without much, if not any damage to the prediction
performance.
- Abstract(参考訳): 本稿では,複数の保護されたアトリビュートにおける機械学習の公平性を改善することを目的とする。
機械学習の公平性は、高リスクと高リスクの決定に機械学習モデルがますます使われているため、注目を集めている。
機械学習フェアネスのための既存のソリューションのほとんどは、保護された属性(例)を1つだけターゲットとしている。
セックス) 一度に
これらのソリューションは、(例えば)すべての保護された属性に対して公平なマシンラーニングモデルを生成することができない。
性別も人種も)同時に。
本論文では,機械学習モデルを学習する前に,保護属性ごとのトレーニングデータの分散のバランスをとるために,FairBalanceを提案する。
以上の結果から,FairBalanceは,未バイアスの真実ラベルを仮定して,予測性能に悪影響を及ぼすことなく,既知のすべての属性に対するバイアス指標(AOD, EOD, SPD)を著しく低減することができることがわかった。
関連論文リスト
- Fair Bilevel Neural Network (FairBiNN): On Balancing fairness and accuracy via Stackelberg Equilibrium [0.3350491650545292]
バイアスを緩和する現在の方法は、情報損失と精度と公平性のバランスが不十分であることが多い。
本稿では,二段階最適化の原理に基づく新しい手法を提案する。
私たちのディープラーニングベースのアプローチは、正確性と公平性の両方を同時に最適化します。
論文 参考訳(メタデータ) (2024-10-21T18:53:39Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - FORML: Learning to Reweight Data for Fairness [2.105564340986074]
メタラーニング(FORML)によるフェアネス最適化リヘアリングについて紹介する。
FORMLは、トレーニングサンプル重量とニューラルネットワークのパラメータを共同最適化することで、公正性の制約と精度のバランスを取る。
また,FORMLは,既存の最先端再重み付け手法に比べて,画像分類タスクで約1%,顔予測タスクで約5%向上することを示した。
論文 参考訳(メタデータ) (2022-02-03T17:36:07Z) - Parity-based Cumulative Fairness-aware Boosting [7.824964622317634]
データ駆動型AIシステムは、性別や人種といった保護された属性に基づいた差別につながる可能性がある。
AdaFairは、各ラウンドでデータ分布を変更するフェアネスを意識したブーピングアンサンブルである。
提案手法は, 統計的パーティ, 均等な機会, 異質な不正処理の両面から, パリティを達成できることを実証した。
論文 参考訳(メタデータ) (2022-01-04T14:16:36Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z) - A Distributionally Robust Approach to Fair Classification [17.759493152879013]
本研究では、性別や民族などのセンシティブな属性に対する差別を防止する不公平なペナルティを持つロジスティックなロジスティック回帰モデルを提案する。
このモデルは、トレーニングデータ上の経験的分布を中心とするワッサーシュタイン球が分布の不確かさのモデル化に使用される場合、トラクタブル凸最適化問題と等価である。
得られた分類器は, 合成データセットと実データセットの両方において, 予測精度の限界損失による公平性の向上を実証する。
論文 参考訳(メタデータ) (2020-07-18T22:34:48Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Recovering from Biased Data: Can Fairness Constraints Improve Accuracy? [11.435833538081557]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、バイアスがあるだけでなく、真のデータ分布に最適な精度を持つ分類器を生成する。
公平性に制約されたERMによるこの問題の是正能力について検討する。
また、トレーニングデータの再重み付け、等化オッド、復号化パリティなど、他のリカバリ手法についても検討する。
論文 参考訳(メタデータ) (2019-12-02T22:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。