論文の概要: Fair-CDA: Continuous and Directional Augmentation for Group Fairness
- arxiv url: http://arxiv.org/abs/2304.00295v1
- Date: Sat, 1 Apr 2023 11:23:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 18:54:17.631562
- Title: Fair-CDA: Continuous and Directional Augmentation for Group Fairness
- Title(参考訳): Fair-CDA: グループフェアネスのための継続的および方向性拡張
- Authors: Rui Sun, Fengwei Zhou, Zhenhua Dong, Chuanlong Xie, Lanqing Hong,
Jiawei Li, Rui Zhang, Zhen Li, Zhenguo Li
- Abstract要約: 公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
- 参考スコア(独自算出の注目度): 48.84385689186208
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we propose {\it Fair-CDA}, a fine-grained data augmentation
strategy for imposing fairness constraints. We use a feature disentanglement
method to extract the features highly related to the sensitive attributes. Then
we show that group fairness can be achieved by regularizing the models on
transition paths of sensitive features between groups. By adjusting the
perturbation strength in the direction of the paths, our proposed augmentation
is controllable and auditable. To alleviate the accuracy degradation caused by
fairness constraints, we further introduce a calibrated model to impute labels
for the augmented data. Our proposed method does not assume any data generative
model and ensures good generalization for both accuracy and fairness.
Experimental results show that Fair-CDA consistently outperforms
state-of-the-art methods on widely-used benchmarks, e.g., Adult, CelebA and
MovieLens. Especially, Fair-CDA obtains an 86.3\% relative improvement for
fairness while maintaining the accuracy on the Adult dataset. Moreover, we
evaluate Fair-CDA in an online recommendation system to demonstrate the
effectiveness of our method in terms of accuracy and fairness.
- Abstract(参考訳): 本研究では,公平性制約を課すための細粒度データ拡張戦略である「it fair-cda」を提案する。
特徴の絡み合い法を用いて,感度の高い属性に高い特徴を抽出した。
次に,群間の繊細な特徴の遷移経路上のモデルを正則化することにより,群の公平性が達成できることを示す。
経路方向の摂動強度を調整することにより,提案手法は制御可能かつ監査可能となる。
公平性制約による精度低下を緩和するために,拡張データのラベルをインデュートする校正モデルについても紹介する。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
実験の結果,fair-cdaは,成人,セレン,映画など,広く使用されているベンチマークにおいて,最先端の手法を一貫して上回っていることがわかった。
特にfair-cdaは、成人データセットの精度を維持しながら、fairnessに対する86.3\%の相対的改善を得る。
さらに,Fair-CDAをオンラインレコメンデーションシステムで評価し,精度と公平性の観点から本手法の有効性を実証する。
関連論文リスト
- FairDgcl: Fairness-aware Recommendation with Dynamic Graph Contrastive Learning [48.38344934125999]
提案手法は,高品質なデータ拡張を実現し,コメンデーションフェアネスを改善する方法である。
具体的には,動的グラフ対逆学習フレームワークであるFairDgclを提案する。
FairDgclは、公正さと精度の両方を持つ拡張表現を同時に生成できることを示す。
論文 参考訳(メタデータ) (2024-10-23T04:43:03Z) - Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - FADE: Towards Fairness-aware Augmentation for Domain Generalization via Classifier-Guided Score-based Diffusion Models [9.734351986961613]
FairDG(Fairness-Aware Domain Generalization)は、信頼できるAIシステムを展開する上で重要な課題である。
フェアネスに対処する伝統的な手法は、分布シフトに対する考慮の欠如により、領域一般化において失敗している。
フェアネスを意識したスコアガイド拡散モデル(FADE)をFairDG問題に効果的に対処するための新しいアプローチとして提案する。
論文 参考訳(メタデータ) (2024-06-13T17:36:05Z) - Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Promoting Fairness through Hyperparameter Optimization [4.479834103607383]
この研究は、現実世界の不正検出アプリケーションの文脈において、従来のMLモデル開発から生じる不公平さを探求する。
本稿では,一般的な3つのhoアルゴリズム,fair random search,fair tpe,fairbandの提案と評価を行う。
我々は、現実の銀行口座の不正使用事例のオープニングと、フェアネス文献からの3つのデータセットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2021-03-23T17:36:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。