論文の概要: Data Augmentation via Subgroup Mixup for Improving Fairness
- arxiv url: http://arxiv.org/abs/2309.07110v1
- Date: Wed, 13 Sep 2023 17:32:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-14 13:09:03.054718
- Title: Data Augmentation via Subgroup Mixup for Improving Fairness
- Title(参考訳): フェアネス向上のためのサブグループ混合によるデータ拡張
- Authors: Madeline Navarro, Camille Little, Genevera I. Allen, Santiago Segarra
- Abstract要約: グループフェアネスを改善するために、サブグループ間のペアワイズミキシングによるデータ拡張を提案する。
分類性能を向上させるためのミックスアップの成功に触発されて、トレーニングデータを増やすためのペアワイドミックスアップスキームを開発した。
- 参考スコア(独自算出の注目度): 31.296907816698987
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose data augmentation via pairwise mixup across
subgroups to improve group fairness. Many real-world applications of machine
learning systems exhibit biases across certain groups due to
under-representation or training data that reflects societal biases. Inspired
by the successes of mixup for improving classification performance, we develop
a pairwise mixup scheme to augment training data and encourage fair and
accurate decision boundaries for all subgroups. Data augmentation for group
fairness allows us to add new samples of underrepresented groups to balance
subpopulations. Furthermore, our method allows us to use the generalization
ability of mixup to improve both fairness and accuracy. We compare our proposed
mixup to existing data augmentation and bias mitigation approaches on both
synthetic simulations and real-world benchmark fair classification data,
demonstrating that we are able to achieve fair outcomes with robust if not
improved accuracy.
- Abstract(参考訳): 本研究では,グループフェア性を改善するために,サブグループ間のペアワイズミックスアップによるデータ拡張を提案する。
機械学習システムの現実的な応用の多くは、社会的バイアスを反映した非表現データやトレーニングデータによって、特定のグループに偏りを示す。
分類性能を向上させるためのミックスアップの成功に触発されて、トレーニングデータを増強し、全てのサブグループの公平かつ正確な決定境界を奨励するペアワイズ・ミックスアップ・スキームを開発した。
グループフェアネスのためのデータ拡張により、サブポピュレーションのバランスをとるために、未表示のグループの新しいサンプルを追加できます。
さらに,ミキサアップの一般化能力を利用して,公平性と精度を両立させることができる。
提案手法は,合成シミュレーションと実世界のベンチマークフェア分類データの両方において,既存のデータ拡張法とバイアス緩和法と比較し,精度が向上しなければ十分な結果が得られることを示した。
関連論文リスト
- Fair Distillation: Teaching Fairness from Biased Teachers in Medical Imaging [16.599189934420885]
本研究では,Fair Distillation (FairDi) 法を提案する。
また,FairDiの精度は,既存手法に比べて向上し,グループ別精度も向上した。
FairDiは分類やセグメンテーションなどの様々な医療タスクに適応し、公平なモデルパフォーマンスのための効果的なソリューションを提供する。
論文 参考訳(メタデータ) (2024-11-18T16:50:34Z) - FairDgcl: Fairness-aware Recommendation with Dynamic Graph Contrastive Learning [48.38344934125999]
提案手法は,高品質なデータ拡張を実現し,コメンデーションフェアネスを改善する方法である。
具体的には,動的グラフ対逆学習フレームワークであるFairDgclを提案する。
FairDgclは、公正さと精度の両方を持つ拡張表現を同時に生成できることを示す。
論文 参考訳(メタデータ) (2024-10-23T04:43:03Z) - Dynamic Fair Federated Learning Based on Reinforcement Learning [19.033986978896074]
フェデレートラーニングは、ローカルデータサンプルを共有することなく、デバイスのグループ間でグローバルモデルの協調トレーニングと最適化を可能にする。
DQFFLと呼ばれる強化学習を伴う動的qフェアネスフェデレーション学習アルゴリズムを提案する。
我々のDQFFLは、全体的な性能、公平性、収束速度において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-11-02T03:05:40Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Fair Mixup: Fairness via Interpolation [28.508444261249423]
公平性制約を課すための新しいデータ拡張戦略であるfair mixupを提案する。
対象群間の補間標本の経路のモデルに正則化することで公平性が達成できることを示す。
ベンチマークにおける精度と公正度の測定の両面において,より優れた一般化を実現することを実証的に示す。
論文 参考訳(メタデータ) (2021-03-11T06:57:26Z) - Fairness with Overlapping Groups [15.154984899546333]
標準的なゴールは、複数の重なり合うグループ間での公平度メトリクスの平等を保証することである。
本稿では、確率論的人口分析を用いて、この標準公正分類問題を再考する。
提案手法は,既存のグループフェア分類手法を統一し,様々な非分解性性能指標と公正度尺度の拡張を可能にする。
論文 参考訳(メタデータ) (2020-06-24T05:01:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。