論文の概要: Data Augmentation via Subgroup Mixup for Improving Fairness
- arxiv url: http://arxiv.org/abs/2309.07110v1
- Date: Wed, 13 Sep 2023 17:32:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-14 13:09:03.054718
- Title: Data Augmentation via Subgroup Mixup for Improving Fairness
- Title(参考訳): フェアネス向上のためのサブグループ混合によるデータ拡張
- Authors: Madeline Navarro, Camille Little, Genevera I. Allen, Santiago Segarra
- Abstract要約: グループフェアネスを改善するために、サブグループ間のペアワイズミキシングによるデータ拡張を提案する。
分類性能を向上させるためのミックスアップの成功に触発されて、トレーニングデータを増やすためのペアワイドミックスアップスキームを開発した。
- 参考スコア(独自算出の注目度): 31.296907816698987
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose data augmentation via pairwise mixup across
subgroups to improve group fairness. Many real-world applications of machine
learning systems exhibit biases across certain groups due to
under-representation or training data that reflects societal biases. Inspired
by the successes of mixup for improving classification performance, we develop
a pairwise mixup scheme to augment training data and encourage fair and
accurate decision boundaries for all subgroups. Data augmentation for group
fairness allows us to add new samples of underrepresented groups to balance
subpopulations. Furthermore, our method allows us to use the generalization
ability of mixup to improve both fairness and accuracy. We compare our proposed
mixup to existing data augmentation and bias mitigation approaches on both
synthetic simulations and real-world benchmark fair classification data,
demonstrating that we are able to achieve fair outcomes with robust if not
improved accuracy.
- Abstract(参考訳): 本研究では,グループフェア性を改善するために,サブグループ間のペアワイズミックスアップによるデータ拡張を提案する。
機械学習システムの現実的な応用の多くは、社会的バイアスを反映した非表現データやトレーニングデータによって、特定のグループに偏りを示す。
分類性能を向上させるためのミックスアップの成功に触発されて、トレーニングデータを増強し、全てのサブグループの公平かつ正確な決定境界を奨励するペアワイズ・ミックスアップ・スキームを開発した。
グループフェアネスのためのデータ拡張により、サブポピュレーションのバランスをとるために、未表示のグループの新しいサンプルを追加できます。
さらに,ミキサアップの一般化能力を利用して,公平性と精度を両立させることができる。
提案手法は,合成シミュレーションと実世界のベンチマークフェア分類データの両方において,既存のデータ拡張法とバイアス緩和法と比較し,精度が向上しなければ十分な結果が得られることを示した。
関連論文リスト
- Dynamic Fair Federated Learning Based on Reinforcement Learning [19.033986978896074]
フェデレートラーニングは、ローカルデータサンプルを共有することなく、デバイスのグループ間でグローバルモデルの協調トレーニングと最適化を可能にする。
DQFFLと呼ばれる強化学習を伴う動的qフェアネスフェデレーション学習アルゴリズムを提案する。
我々のDQFFLは、全体的な性能、公平性、収束速度において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-11-02T03:05:40Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Repairing Regressors for Fair Binary Classification at Any Decision
Threshold [8.322348511450366]
同時にすべてのしきい値で公正なパフォーマンスを向上できることを示します。
本研究では,異なる保護群に対する分類の分布の類似度を捉える分布パリティの形式的尺度を導入する。
我々の主な成果は、最適輸送に基づく新しい後処理アルゴリズムを提案し、分散パリティを確実に最大化することである。
論文 参考訳(メタデータ) (2022-03-14T20:53:35Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Blackbox Post-Processing for Multiclass Fairness [1.5305403478254664]
我々は,マルチクラス設定における公平性を達成するため,ブラックボックス機械学習分類器の予測を変更することを検討する。
我々は,系統的な合成実験を通じて,公正かつ正確な予測を行う方法を探究する。
全体として、我々の手法は精度の小さな低下を生じさせ、データセットの個体数が高い場合に公平さを強制する。
論文 参考訳(メタデータ) (2022-01-12T13:21:20Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Fair Mixup: Fairness via Interpolation [28.508444261249423]
公平性制約を課すための新しいデータ拡張戦略であるfair mixupを提案する。
対象群間の補間標本の経路のモデルに正則化することで公平性が達成できることを示す。
ベンチマークにおける精度と公正度の測定の両面において,より優れた一般化を実現することを実証的に示す。
論文 参考訳(メタデータ) (2021-03-11T06:57:26Z) - Fairness with Overlapping Groups [15.154984899546333]
標準的なゴールは、複数の重なり合うグループ間での公平度メトリクスの平等を保証することである。
本稿では、確率論的人口分析を用いて、この標準公正分類問題を再考する。
提案手法は,既存のグループフェア分類手法を統一し,様々な非分解性性能指標と公正度尺度の拡張を可能にする。
論文 参考訳(メタデータ) (2020-06-24T05:01:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。