論文の概要: Fair Classification via Domain Adaptation: A Dual Adversarial Learning
Approach
- arxiv url: http://arxiv.org/abs/2206.03656v2
- Date: Tue, 30 May 2023 20:07:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 04:27:17.667795
- Title: Fair Classification via Domain Adaptation: A Dual Adversarial Learning
Approach
- Title(参考訳): ドメイン適応による公平な分類:双対対学習アプローチ
- Authors: Yueqing Liang, Canyu Chen, Tian Tian, Kai Shu
- Abstract要約: 公平な分類のための領域適応を探求する新しい問題について検討する。
対象ドメインの公平な分類のために、ソースドメインからセンシティブな属性を適応させる新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 14.344142985726853
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern machine learning (ML) models are becoming increasingly popular and are
widely used in decision-making systems. However, studies have shown critical
issues of ML discrimination and unfairness, which hinder their adoption on
high-stake applications. Recent research on fair classifiers has drawn
significant attention to developing effective algorithms to achieve fairness
and good classification performance. Despite the great success of these
fairness-aware machine learning models, most of the existing models require
sensitive attributes to pre-process the data, regularize the model learning or
post-process the prediction to have fair predictions. However, sensitive
attributes are often incomplete or even unavailable due to privacy, legal or
regulation restrictions. Though we lack the sensitive attribute for training a
fair model in the target domain, there might exist a similar domain that has
sensitive attributes. Thus, it is important to exploit auxiliary information
from a similar domain to help improve fair classification in the target domain.
Therefore, in this paper, we study a novel problem of exploring domain
adaptation for fair classification. We propose a new framework that can learn
to adapt the sensitive attributes from a source domain for fair classification
in the target domain. Extensive experiments on real-world datasets illustrate
the effectiveness of the proposed model for fair classification, even when no
sensitive attributes are available in the target domain.
- Abstract(参考訳): 現代の機械学習(ML)モデルはますます普及し、意思決定システムで広く使われている。
しかし、研究はMLの差別と不公平性の重大な問題を示しており、高い評価の応用に採用を妨げている。
公正分類器に関する最近の研究は、公平性と良好な分類性能を達成する効果的なアルゴリズムの開発に多大な注目を集めている。
これらフェアネスを意識した機械学習モデルの成功にもかかわらず、既存のモデルの多くはデータを前処理したり、モデル学習や後処理の予測を適切に予測するために、センシティブな属性を必要とする。
しかし、機密性の高い属性は、しばしば、プライバシー、法律、規制の制約のために不完全または不完全である。
ターゲットドメインで公正なモデルをトレーニングするためのセンシティブな属性はないが、センシティブな属性を持つ同様のドメインが存在するかもしれない。
したがって、類似ドメインからの補助情報を活用して、対象ドメインの公平な分類を改善することが重要である。
そこで本稿では,公平な分類のための領域適応の新たな課題について検討する。
対象領域における公平な分類のために、ソースドメインから機密性の高い属性を適応させることを学ぶための新しいフレームワークを提案する。
実世界のデータセットに対する大規模な実験は、対象領域にセンシティブな属性が存在しない場合でも、フェア分類のためのモデルの有効性を示す。
関連論文リスト
- FEED: Fairness-Enhanced Meta-Learning for Domain Generalization [13.757379847454372]
モデルフェアネスを認識しながら配布外データに一般化することは、メタラーニングにおいて重要かつ困難な問題である。
本稿では,ドメインの一般化能力を大幅に向上させるフェアネスを考慮したメタラーニング手法を提案する。
論文 参考訳(メタデータ) (2024-11-02T17:34:33Z) - Towards Counterfactual Fairness-aware Domain Generalization in Changing Environments [30.37748667235682]
逐次オートエンコーダ(CDSAE)を用いたファクトファクトフェアネス対応ドメイン一般化という,革新的なフレームワークを導入する。
このアプローチは, 環境情報やセンシティブな属性を, 分類特徴の組込み表現から効果的に分離する。
公平な規則化を取り入れることで、分類目的のセマンティック情報のみを活用できる。
論文 参考訳(メタデータ) (2023-09-22T17:08:20Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Deep face recognition with clustering based domain adaptation [57.29464116557734]
そこで本研究では,ターゲットドメインとソースがクラスを共有しない顔認識タスクを対象とした,クラスタリングに基づく新しいドメイン適応手法を提案する。
本手法は,特徴領域をグローバルに整列させ,その一方で,対象クラスタを局所的に識別することで,識別対象特徴を効果的に学習する。
論文 参考訳(メタデータ) (2022-05-27T12:29:11Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - Learning Fair Models without Sensitive Attributes: A Generative Approach [33.196044483534784]
本研究では,関係する特徴を探索することにより,重要属性を含まないフェアモデル学習の新たな課題について検討する。
トレーニングデータから感度特性を効果的に推定する確率的生成フレームワークを提案する。
実世界のデータセットを用いた実験結果から,本フレームワークの有効性が示された。
論文 参考訳(メタデータ) (2022-03-30T15:54:30Z) - You Can Still Achieve Fairness Without Sensitive Attributes: Exploring
Biases in Non-Sensitive Features [29.94644351343916]
本稿では,これらの特徴を同時利用して正確な予測とモデルの正則化を行う新しいフレームワークを提案する。
実世界のデータセットにおける実験結果は,提案モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-04-29T17:52:11Z) - On Universal Black-Box Domain Adaptation [53.7611757926922]
実践的な展開という観点から,ドメイン適応の最小限の制約条件について検討する。
ソースモデルのインターフェースのみがターゲットドメインで利用可能であり、2つのドメイン間のラベル空間関係が異なることや未知であることが許されている。
対象試料の局所近傍における予測の整合性によって正規化された自己訓練フレームワークに統一することを提案する。
論文 参考訳(メタデータ) (2021-04-10T02:21:09Z) - Towards Fair Knowledge Transfer for Imbalanced Domain Adaptation [61.317911756566126]
本研究では,不均衡なドメイン間学習における公平性問題に対処するTowards Fair Knowledge Transferフレームワークを提案する。
具体的には、新規なクロスドメインミックスアップ生成を利用して、ターゲット情報でマイノリティソースセットを増強し、公正性を高める。
本モデルでは,2つのベンチマークで全体の精度を20%以上向上させる。
論文 参考訳(メタデータ) (2020-10-23T06:29:09Z) - Towards Fair Cross-Domain Adaptation via Generative Learning [50.76694500782927]
ドメイン適応(DA)は、よくラベル付けされたソースドメイン上でトレーニングされたモデルを、異なる分散に横たわる未ラベルのターゲットドメインに適応することを目的としています。
本研究では,新規な生成的Few-shot Cross-Domain Adaptation (GFCA) アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-03-04T23:25:09Z) - Fairness-Aware Learning with Prejudice Free Representations [2.398608007786179]
本稿では,潜在性識別特徴を効果的に識別し,治療できる新しいアルゴリズムを提案する。
このアプローチは、モデルパフォーマンスを改善するために差別のない機能を集めるのに役立つ。
論文 参考訳(メタデータ) (2020-02-26T10:06:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。