論文の概要: Fairness-Aware Domain Generalization under Covariate and Dependence
Shifts
- arxiv url: http://arxiv.org/abs/2311.13816v1
- Date: Thu, 23 Nov 2023 05:52:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 00:31:45.593262
- Title: Fairness-Aware Domain Generalization under Covariate and Dependence
Shifts
- Title(参考訳): 共変量と依存シフトによるフェアネスアウェアドメインの一般化
- Authors: Chen Zhao, Kai Jiang, Xintao Wu, Haoliang Wang, Latifur Khan, Christan
Grant, Feng Chen
- Abstract要約: ドメインシフトに対処する新しい領域一般化手法を提案する。
我々は、基礎となる変換モデルの存在が、あるドメインから別のドメインへデータを変換できると主張している。
モデルを用いて合成ドメインのデータを生成することにより、公正に認識された不変な分類器が学習される。
- 参考スコア(独自算出の注目度): 29.663115314034126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Achieving the generalization of an invariant classifier from source domains
to shifted target domains while simultaneously considering model fairness is a
substantial and complex challenge in machine learning. Existing domain
generalization research typically attributes domain shifts to concept shift,
which relates to alterations in class labels, and covariate shift, which
pertains to variations in data styles. In this paper, by introducing another
form of distribution shift, known as dependence shift, which involves
variations in fair dependence patterns across domains, we propose a novel
domain generalization approach that addresses domain shifts by considering both
covariate and dependence shifts. We assert the existence of an underlying
transformation model can transform data from one domain to another. By
generating data in synthetic domains through the model, a fairness-aware
invariant classifier is learned that enforces both model accuracy and fairness
in unseen domains. Extensive empirical studies on four benchmark datasets
demonstrate that our approach surpasses state-of-the-art methods.
- Abstract(参考訳): モデルフェアネスを同時に考慮しながら、ソースドメインからシフト対象ドメインへの不変な分類器の一般化を実現することは、機械学習における実質的で複雑な課題である。
既存の領域一般化研究は、典型的には、クラスラベルの変更に関連する概念シフトと、データスタイルのバリエーションに関連する共変量シフトにドメインシフトがある。
本稿では,領域間の公正な依存パターンの変動を伴う依存シフトと呼ばれる別の形態の分布シフトを導入することにより,共変量と依存シフトの両方を考慮し,領域シフトに対処する新しい領域一般化手法を提案する。
基礎となる変換モデルの存在は、データをある領域から別の領域に変換できると断言する。
モデルを用いて合成ドメインのデータを生成することにより、モデル精度と未知領域の公正性の両方を強制するフェアネス対応不変分類器が学習される。
4つのベンチマークデータセットに関する広範な実証研究は、我々のアプローチが最先端の手法を上回っていることを示している。
関連論文リスト
- Enhancing Evolving Domain Generalization through Dynamic Latent
Representations [47.3810472814143]
我々はMultual Information-Based Sequential Autoencoders (MISTS) と呼ばれる新しいフレームワークを提案する。
MISTSは、Mutual Information-Based Sequential Autoencoders (MISTS)と呼ばれる新しいフレームワークを通じて、動的および不変両方の機能を学ぶ
人工と実世界の両方のデータセットに対する実験結果は、MISTSが進化と不変の両方の情報を取得することに成功していることを示している。
論文 参考訳(メタデータ) (2024-01-16T16:16:42Z) - Cross Contrasting Feature Perturbation for Domain Generalization [11.863319505696184]
ドメインの一般化は、目に見えないターゲットドメインをうまく一般化するソースドメインから堅牢なモデルを学ぶことを目的としています。
近年の研究では、ソースドメインに相補的な分布を多様化するための新しいドメインサンプルや特徴の生成に焦点が当てられている。
ドメインシフトをシミュレートするオンラインワンステージクロスコントラスト機能摂動フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-24T03:27:41Z) - Improving Diversity with Adversarially Learned Transformations for
Domain Generalization [81.26960899663601]
本稿では、ニューラルネットワークを用いた逆学習変換(ALT)を用いて、可塑性かつハードな画像変換をモデル化する新しいフレームワークを提案する。
我々は、ALTが既存の多様性モジュールと自然に連携して、ソースドメインの大規模変換によって最先端のパフォーマンスを実現することを示す。
論文 参考訳(メタデータ) (2022-06-15T18:05:24Z) - Instrumental Variable-Driven Domain Generalization with Unobserved
Confounders [53.735614014067394]
ドメイン一般化(Domain Generalization, DG)は、複数のソースドメインから、目に見えないターゲットドメインをうまく一般化できるモデルを学ぶことを目的としている。
観測不能な共同創設者のバイアスを2段階学習で除去し,インストゥルメンタル変数駆動型DG法(IV-DG)を提案する。
第1段階では、あるドメインの入力特徴の条件分布を他のドメインの入力特徴の条件分布として学習する。
第2段階では,ラベルと学習条件分布の関係を推定する。
論文 参考訳(メタデータ) (2021-10-04T13:32:57Z) - Contrastive ACE: Domain Generalization Through Alignment of Causal
Mechanisms [34.99779761100095]
ドメインの一般化は、異なる分布にまたがる知識不変性を学ぶことを目的としている。
ラベルに対する特徴の因果効果の平均的因果効果の因果不変性を考察する。
論文 参考訳(メタデータ) (2021-06-02T04:01:22Z) - A Bit More Bayesian: Domain-Invariant Learning with Uncertainty [111.22588110362705]
ドメインの一般化は、ドメインシフトと、ターゲットドメインデータのアクセス不能に起因する不確実性のために困難である。
本稿では,変分ベイズ推定に基づく確率的枠組みを用いて,両課題に対処する。
2層ベイズ型ニューラルネットワークで共同で確立されたドメイン不変表現と分類器を導出する。
論文 参考訳(メタデータ) (2021-05-09T21:33:27Z) - Domain Invariant Representation Learning with Domain Density
Transformations [30.29600757980369]
ドメインの一般化とは、ソースドメインの集合からデータに基づいてモデルをトレーニングし、対象ドメインの見えない領域にモデルを一般化できるようにする問題を指す。
本稿では,このようなドメイン変換を学習し,本手法を実際に実装する方法を示す。
論文 参考訳(メタデータ) (2021-02-09T19:25:32Z) - Adaptively-Accumulated Knowledge Transfer for Partial Domain Adaptation [66.74638960925854]
部分ドメイン適応(PDA)は、ソースドメインラベル空間がターゲットドメインを置き換えるとき、現実的で困難な問題を扱う。
本稿では,2つの領域にまたがる関連カテゴリを整合させる適応的知識伝達フレームワーク(A$2KT)を提案する。
論文 参考訳(メタデータ) (2020-08-27T00:53:43Z) - Learning to Learn with Variational Information Bottleneck for Domain
Generalization [128.90691697063616]
ドメイン一般化モデルは、これまで見つからなかった領域に一般化することを学ぶが、予測の不確実性とドメインシフトに悩まされる。
ドメイン一般化のための確率論的メタラーニングモデルを導入し、ドメイン間で共有されるパラメータを分布としてモデル化する。
ドメインシフトに対処するため、メタ変動情報ボトルネックという提案原則を用いてドメイン不変表現を学習し、メタVIBと呼ぶ。
論文 参考訳(メタデータ) (2020-07-15T12:05:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。