論文の概要: FADE: Towards Fairness-aware Augmentation for Domain Generalization via Classifier-Guided Score-based Diffusion Models
- arxiv url: http://arxiv.org/abs/2406.09495v2
- Date: Wed, 28 Aug 2024 12:46:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-29 20:38:57.909637
- Title: FADE: Towards Fairness-aware Augmentation for Domain Generalization via Classifier-Guided Score-based Diffusion Models
- Title(参考訳): FADE: クラス化誘導スコアベース拡散モデルによるドメイン一般化のための公平性を考慮した拡張
- Authors: Yujie Lin, Dong Li, Chen Zhao, Minglai Shao,
- Abstract要約: FairDG(Fairness-Aware Domain Generalization)は、信頼できるAIシステムを展開する上で重要な課題である。
フェアネスに対処する伝統的な手法は、分布シフトに対する考慮の欠如により、領域一般化において失敗している。
フェアネスを意識したスコアガイド拡散モデル(FADE)をFairDG問題に効果的に対処するための新しいアプローチとして提案する。
- 参考スコア(独自算出の注目度): 9.734351986961613
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness-aware domain generalization (FairDG) has emerged as a critical challenge for deploying trustworthy AI systems, particularly in scenarios involving distribution shifts. Traditional methods for addressing fairness have failed in domain generalization due to their lack of consideration for distribution shifts. Although disentanglement has been used to tackle FairDG, it is limited by its strong assumptions. To overcome these limitations, we propose Fairness-aware Classifier-Guided Score-based Diffusion Models (FADE) as a novel approach to effectively address the FairDG issue. Specifically, we first pre-train a score-based diffusion model (SDM) and two classifiers to equip the model with strong generalization capabilities across different domains. Then, we guide the SDM using these pre-trained classifiers to effectively eliminate sensitive information from the generated data. Finally, the generated fair data is used to train downstream classifiers, ensuring robust performance under new data distributions. Extensive experiments on three real-world datasets demonstrate that FADE not only enhances fairness but also improves accuracy in the presence of distribution shifts. Additionally, FADE outperforms existing methods in achieving the best accuracy-fairness trade-offs.
- Abstract(参考訳): FairDG(Fairness-Aware Domain Generalization)は、信頼できるAIシステムをデプロイする上で、特に分散シフトを含むシナリオにおいて重要な課題として現れている。
フェアネスに対処する伝統的な手法は、分布シフトに対する考慮の欠如により、領域一般化において失敗している。
混乱はFairDGに対処するために使われてきたが、その強い仮定によって制限されている。
このような制約を克服するために,Fairness-aware Classifier-Guided Score-based Diffusion Models (FADE) を提案する。
具体的には、まずスコアベース拡散モデル(SDM)と2つの分類器を事前訓練し、異なる領域にわたって強力な一般化能力を持つモデルに装備する。
そして、これらの事前学習した分類器を用いてSDMを誘導し、生成されたデータから機密情報を効果的に除去する。
最後に、生成された公正データは、下流の分類器をトレーニングするために使用され、新しいデータ分散下での堅牢なパフォーマンスを保証する。
3つの実世界のデータセットに対する大規模な実験は、FADEが公正性を高めるだけでなく、分布シフトの存在下での精度も向上することを示した。
さらに、FADEは、最高の精度-公正トレードオフを達成するために、既存の方法よりも優れています。
関連論文リスト
- FEED: Fairness-Enhanced Meta-Learning for Domain Generalization [13.757379847454372]
モデルフェアネスを認識しながら配布外データに一般化することは、メタラーニングにおいて重要かつ困難な問題である。
本稿では,ドメインの一般化能力を大幅に向上させるフェアネスを考慮したメタラーニング手法を提案する。
論文 参考訳(メタデータ) (2024-11-02T17:34:33Z) - Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Transferring Fairness under Distribution Shifts via Fair Consistency
Regularization [15.40257564187799]
本研究では,分散シフトの下でモデルフェアネスを伝達する方法について検討する。
ドメインシフトの下での転送精度の自己学習の成功に触発されて、グループフェアネスの転送に十分な条件が導出される。
論文 参考訳(メタデータ) (2022-06-26T06:19:56Z) - Certifying Some Distributional Fairness with Subpopulation Decomposition [20.009388617013986]
まず、最適化問題として、与えられたデータ分布に基づいて訓練されたMLモデルの正当性を定式化する。
次に、一般的な公平性認定フレームワークを提案し、センシティブなシフトと一般的なシフトの両方のシナリオでインスタンス化する。
我々のフレームワークは、追加の非スキューネス制約を統合する柔軟性があり、異なる実世界のシナリオ下でさらに厳密な認証を提供することを示す。
論文 参考訳(メタデータ) (2022-05-31T01:17:50Z) - Towards Fair Knowledge Transfer for Imbalanced Domain Adaptation [61.317911756566126]
本研究では,不均衡なドメイン間学習における公平性問題に対処するTowards Fair Knowledge Transferフレームワークを提案する。
具体的には、新規なクロスドメインミックスアップ生成を利用して、ターゲット情報でマイノリティソースセットを増強し、公正性を高める。
本モデルでは,2つのベンチマークで全体の精度を20%以上向上させる。
論文 参考訳(メタデータ) (2020-10-23T06:29:09Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。