論文の概要: Fair-CDA: Continuous and Directional Augmentation for Group Fairness
- arxiv url: http://arxiv.org/abs/2304.00295v1
- Date: Sat, 1 Apr 2023 11:23:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 18:54:17.631562
- Title: Fair-CDA: Continuous and Directional Augmentation for Group Fairness
- Title(参考訳): Fair-CDA: グループフェアネスのための継続的および方向性拡張
- Authors: Rui Sun, Fengwei Zhou, Zhenhua Dong, Chuanlong Xie, Lanqing Hong,
Jiawei Li, Rui Zhang, Zhen Li, Zhenguo Li
- Abstract要約: 公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
- 参考スコア(独自算出の注目度): 48.84385689186208
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we propose {\it Fair-CDA}, a fine-grained data augmentation
strategy for imposing fairness constraints. We use a feature disentanglement
method to extract the features highly related to the sensitive attributes. Then
we show that group fairness can be achieved by regularizing the models on
transition paths of sensitive features between groups. By adjusting the
perturbation strength in the direction of the paths, our proposed augmentation
is controllable and auditable. To alleviate the accuracy degradation caused by
fairness constraints, we further introduce a calibrated model to impute labels
for the augmented data. Our proposed method does not assume any data generative
model and ensures good generalization for both accuracy and fairness.
Experimental results show that Fair-CDA consistently outperforms
state-of-the-art methods on widely-used benchmarks, e.g., Adult, CelebA and
MovieLens. Especially, Fair-CDA obtains an 86.3\% relative improvement for
fairness while maintaining the accuracy on the Adult dataset. Moreover, we
evaluate Fair-CDA in an online recommendation system to demonstrate the
effectiveness of our method in terms of accuracy and fairness.
- Abstract(参考訳): 本研究では,公平性制約を課すための細粒度データ拡張戦略である「it fair-cda」を提案する。
特徴の絡み合い法を用いて,感度の高い属性に高い特徴を抽出した。
次に,群間の繊細な特徴の遷移経路上のモデルを正則化することにより,群の公平性が達成できることを示す。
経路方向の摂動強度を調整することにより,提案手法は制御可能かつ監査可能となる。
公平性制約による精度低下を緩和するために,拡張データのラベルをインデュートする校正モデルについても紹介する。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
実験の結果,fair-cdaは,成人,セレン,映画など,広く使用されているベンチマークにおいて,最先端の手法を一貫して上回っていることがわかった。
特にfair-cdaは、成人データセットの精度を維持しながら、fairnessに対する86.3\%の相対的改善を得る。
さらに,Fair-CDAをオンラインレコメンデーションシステムで評価し,精度と公平性の観点から本手法の有効性を実証する。
関連論文リスト
- Distributionally Generative Augmentation for Fair Facial Attribute
Classification [72.99103392426919]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - To the Fairness Frontier and Beyond: Identifying, Quantifying, and
Optimizing the Fairness-Accuracy Pareto Frontier [1.5293427903448022]
アルゴリズムフェアネスは、機械学習を用いて高い社会的決定を行う際に重要な考慮事項として現れてきた。
しかし、改善された公正さは、しばしばモデルの正確さを犠牲にする。
フェアネス・正確性トレードオフの実証的パレートフロンティアを特定し、定量化し、最適化することを模索する。
論文 参考訳(メタデータ) (2022-05-31T19:35:53Z) - Promoting Fairness through Hyperparameter Optimization [4.479834103607383]
この研究は、現実世界の不正検出アプリケーションの文脈において、従来のMLモデル開発から生じる不公平さを探求する。
本稿では,一般的な3つのhoアルゴリズム,fair random search,fair tpe,fairbandの提案と評価を行う。
我々は、現実の銀行口座の不正使用事例のオープニングと、フェアネス文献からの3つのデータセットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2021-03-23T17:36:22Z) - A Bandit-Based Algorithm for Fairness-Aware Hyperparameter Optimization [5.337302350000984]
本稿では,帯域幅に基づくフェアネス対応ハイパーパラメータ最適化(HO)アルゴリズムであるFairbandを提案する。
HOにフェアネスの概念を導入することで、現実のMLパイプラインへのフェアネス目標のシームレスかつ効率的な統合を可能にします。
この結果から,Fairbandはパラメータ最適化によって効率よくフェアネスと精度のトレードオフをナビゲートできることが示唆された。
論文 参考訳(メタデータ) (2020-10-07T21:35:16Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。