論文の概要: FEED: Fairness-Enhanced Meta-Learning for Domain Generalization
- arxiv url: http://arxiv.org/abs/2411.01316v1
- Date: Sat, 02 Nov 2024 17:34:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:42:21.206527
- Title: FEED: Fairness-Enhanced Meta-Learning for Domain Generalization
- Title(参考訳): FEED:Fairness-Enhanced Meta-Learning for Domain Generalization
- Authors: Kai Jiang, Chen Zhao, Haoliang Wang, Feng Chen,
- Abstract要約: モデルフェアネスを認識しながら配布外データに一般化することは、メタラーニングにおいて重要かつ困難な問題である。
本稿では,ドメインの一般化能力を大幅に向上させるフェアネスを考慮したメタラーニング手法を提案する。
- 参考スコア(独自算出の注目度): 13.757379847454372
- License:
- Abstract: Generalizing to out-of-distribution data while being aware of model fairness is a significant and challenging problem in meta-learning. The goal of this problem is to find a set of fairness-aware invariant parameters of classifier that is trained using data drawn from a family of related training domains with distribution shift on non-sensitive features as well as different levels of dependence between model predictions and sensitive features so that the classifier can achieve good generalization performance on unknown but distinct test domains. To tackle this challenge, existing state-of-the-art methods either address the domain generalization problem but completely ignore learning with fairness or solely specify shifted domains with various fairness levels. This paper introduces an approach to fairness-aware meta-learning that significantly enhances domain generalization capabilities. Our framework, Fairness-Enhanced Meta-Learning for Domain Generalization (FEED), disentangles latent data representations into content, style, and sensitive vectors. This disentanglement facilitates the robust generalization of machine learning models across diverse domains while adhering to fairness constraints. Unlike traditional methods that focus primarily on domain invariance or sensitivity to shifts, our model integrates a fairness-aware invariance criterion directly into the meta-learning process. This integration ensures that the learned parameters uphold fairness consistently, even when domain characteristics vary widely. We validate our approach through extensive experiments across multiple benchmarks, demonstrating not only superior performance in maintaining high accuracy and fairness but also significant improvements over existing state-of-the-art methods in domain generalization tasks.
- Abstract(参考訳): モデルフェアネスを認識しながら分布外データに一般化することは、メタラーニングにおいて重要かつ困難な問題である。
本研究の目的は,非感受性特徴に対する分布シフトとモデル予測と感度特徴との依存性の相違を考慮し,関連する訓練領域群から抽出したデータを用いて学習した分類器の公平性を考慮した不変パラメータの集合を求めることである。
この課題に対処するために、既存の最先端の手法はドメインの一般化問題に対処するが、フェアネスによる学習を完全に無視するか、あるいは様々なフェアネスレベルのシフトしたドメインを単に指定する。
本稿では,ドメインの一般化能力を大幅に向上させるフェアネスを考慮したメタラーニング手法を提案する。
我々のフレームワークであるFairness-Enhanced Meta-Learning for Domain Generalization (FEED)は、潜在データ表現をコンテンツ、スタイル、センシティブなベクトルに分解する。
この絡み合いは、公正性の制約に固執しつつ、さまざまな領域にわたる機械学習モデルの堅牢な一般化を促進する。
ドメインの不変性やシフトに対する感受性に主に焦点をあてる従来の方法とは異なり、我々のモデルは、フェアネスを意識した不変性の基準を直接メタ学習プロセスに統合します。
この統合により、学習されたパラメータが、たとえドメインの特性が広く異なるとしても、一貫して公平性を保持することが保証される。
提案手法は,複数のベンチマークにまたがる広範な実験により検証され,精度と公平性を維持する上での優れた性能だけでなく,領域一般化タスクにおける既存の最先端手法よりも大幅に向上したことを示す。
関連論文リスト
- Learning Fair Invariant Representations under Covariate and Correlation Shifts Simultaneously [10.450977234741524]
フェアネスを意識したドメイン不変予測器の学習に焦点をあてた,新しい手法を提案する。
提案手法は, モデル精度だけでなく, グループ的, 個人的公正性についても, 最先端の手法を超越した手法である。
論文 参考訳(メタデータ) (2024-08-18T00:01:04Z) - Causality-inspired Latent Feature Augmentation for Single Domain Generalization [13.735443005394773]
単一ドメインの一般化(Single-DG)は、単一のトレーニングドメインのみを持つ一般化可能なモデルを開発し、他の未知のターゲットドメインでうまく機能させることを目的としている。
ドメイン・ハングリー構成の下で、ソース・ドメインのカバレッジを拡大し、異なる分布にまたがる固有の因果的特徴を見つける方法がモデルの一般化能力を高める鍵となる。
本稿では、因果学習と介入に基づく特徴レベルの変換のメタ知識を学習することで、単一DGの因果性に着想を得た潜在機能拡張手法を提案する。
論文 参考訳(メタデータ) (2024-06-10T02:42:25Z) - Algorithmic Fairness Generalization under Covariate and Dependence Shifts Simultaneously [28.24666589680547]
公平かつ不変な分類器の学習を目的とした,単純かつ効果的な手法を提案する。
モデルを用いて様々な合成データドメインを拡張することにより、ソースドメインの公平かつ不変な分類器を学習する。
この分類器は未知の対象領域に一般化することができ、モデル予測と公平性の懸念の両方を維持できる。
論文 参考訳(メタデータ) (2023-11-23T05:52:00Z) - Towards Counterfactual Fairness-aware Domain Generalization in Changing Environments [30.37748667235682]
逐次オートエンコーダ(CDSAE)を用いたファクトファクトフェアネス対応ドメイン一般化という,革新的なフレームワークを導入する。
このアプローチは, 環境情報やセンシティブな属性を, 分類特徴の組込み表現から効果的に分離する。
公平な規則化を取り入れることで、分類目的のセマンティック情報のみを活用できる。
論文 参考訳(メタデータ) (2023-09-22T17:08:20Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Self-balanced Learning For Domain Generalization [64.99791119112503]
ドメインの一般化は、モデルが未知の統計を持つ対象のドメインに一般化できるように、マルチドメインのソースデータの予測モデルを学ぶことを目的としている。
既存のアプローチのほとんどは、ソースデータがドメインとクラスの両方の観点からバランスよく調整されているという前提の下で開発されている。
本稿では,多領域ソースデータの分布の違いによるバイアスを軽減するために,損失の重み付けを適応的に学習する自己均衡型領域一般化フレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-31T03:17:54Z) - Discriminative Adversarial Domain Generalization with Meta-learning
based Cross-domain Validation [9.265557367859637]
ドメイン一般化(DG)技術は、機械学習モデルのそのような一般化能力を高めることを目的としている。
メタラーニングに基づくクロスドメイン検証により,DADG(Dariminative Adversarial Domain Generalization)を提案する。
その結果、DADGは強力なベースラインであるDeepAllを一貫して上回り、ほとんどの場合、既存のDGアルゴリズムよりも上回ります。
論文 参考訳(メタデータ) (2020-11-01T07:48:16Z) - Towards Fair Knowledge Transfer for Imbalanced Domain Adaptation [61.317911756566126]
本研究では,不均衡なドメイン間学習における公平性問題に対処するTowards Fair Knowledge Transferフレームワークを提案する。
具体的には、新規なクロスドメインミックスアップ生成を利用して、ターゲット情報でマイノリティソースセットを増強し、公正性を高める。
本モデルでは,2つのベンチマークで全体の精度を20%以上向上させる。
論文 参考訳(メタデータ) (2020-10-23T06:29:09Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Adaptively-Accumulated Knowledge Transfer for Partial Domain Adaptation [66.74638960925854]
部分ドメイン適応(PDA)は、ソースドメインラベル空間がターゲットドメインを置き換えるとき、現実的で困難な問題を扱う。
本稿では,2つの領域にまたがる関連カテゴリを整合させる適応的知識伝達フレームワーク(A$2KT)を提案する。
論文 参考訳(メタデータ) (2020-08-27T00:53:43Z) - Learning to Learn with Variational Information Bottleneck for Domain
Generalization [128.90691697063616]
ドメイン一般化モデルは、これまで見つからなかった領域に一般化することを学ぶが、予測の不確実性とドメインシフトに悩まされる。
ドメイン一般化のための確率論的メタラーニングモデルを導入し、ドメイン間で共有されるパラメータを分布としてモデル化する。
ドメインシフトに対処するため、メタ変動情報ボトルネックという提案原則を用いてドメイン不変表現を学習し、メタVIBと呼ぶ。
論文 参考訳(メタデータ) (2020-07-15T12:05:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。