論文の概要: Joint Adversarial Learning for Cross-domain Fair Classification
- arxiv url: http://arxiv.org/abs/2206.03656v1
- Date: Wed, 8 Jun 2022 02:53:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-10 03:14:20.092411
- Title: Joint Adversarial Learning for Cross-domain Fair Classification
- Title(参考訳): クロスドメインフェア分類のための共同学習
- Authors: Yueqing Liang, Canyu Chen, Tian Tian, Kai Shu
- Abstract要約: 公平な分類のための領域適応を探求する新しい問題について検討する。
対象領域の公平な分類法を学習しながら、感度特性を同時に推定できる新しいフレームワークを提案する。
実世界のデータセットに対する実験は、公正な分類のための提案されたモデルの有効性を示す。
- 参考スコア(独自算出の注目度): 14.344142985726853
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern machine learning (ML) models are becoming increasingly popular and are
widely used in decision-making systems. However, studies have shown critical
issues of ML discrimination and unfairness, which hinder their adoption on
high-stake applications. Recent research on fair classifiers has drawn
significant attention to develop effective algorithms to achieve fairness and
good classification performance. Despite the great success of these
fairness-aware machine learning models, most of the existing models require
sensitive attributes to preprocess the data, regularize the model learning or
postprocess the prediction to have fair predictions. However, sensitive
attributes are often incomplete or even unavailable due to privacy, legal or
regulation restrictions. Though we lack the sensitive attribute for training a
fair model in the target domain, there might exist a similar domain that has
sensitive attributes. Thus, it is important to exploit auxiliary information
from the similar domain to help improve fair classification in the target
domain. Therefore, in this paper, we study a novel problem of exploring domain
adaptation for fair classification. We propose a new framework that can
simultaneously estimate the sensitive attributes while learning a fair
classifier in the target domain. Extensive experiments on real-world datasets
illustrate the effectiveness of the proposed model for fair classification,
even when no sensitive attributes are available in the target domain.
- Abstract(参考訳): 現代の機械学習(ML)モデルはますます普及し、意思決定システムで広く使われている。
しかし、研究はMLの差別と不公平性の重大な問題を示しており、高い評価の応用に採用を妨げている。
公正分類器に関する最近の研究は、公平性と良好な分類性能を達成する効果的なアルゴリズムの開発に多大な注目を集めている。
これらフェアネスを意識した機械学習モデルの大きな成功にもかかわらず、既存のモデルの多くはデータを前処理したり、モデル学習や後処理によって公正な予測を行うために、センシティブな属性を必要とする。
しかし、機密性の高い属性は、しばしば、プライバシー、法律、規制の制約のために不完全または不完全である。
ターゲットドメインで公正なモデルをトレーニングするためのセンシティブな属性はないが、センシティブな属性を持つ同様のドメインが存在するかもしれない。
したがって、類似ドメインからの補助情報を活用して、対象ドメインの公平な分類を改善することが重要である。
そこで本稿では,公平な分類のための領域適応の新たな課題について検討する。
対象領域の公平な分類法を学習しながら、感度特性を同時に推定できる新しいフレームワークを提案する。
実世界のデータセットに対する大規模な実験は、対象領域にセンシティブな属性が存在しない場合でも、フェア分類のためのモデルの有効性を示す。
関連論文リスト
- FEED: Fairness-Enhanced Meta-Learning for Domain Generalization [13.757379847454372]
モデルフェアネスを認識しながら配布外データに一般化することは、メタラーニングにおいて重要かつ困難な問題である。
本稿では,ドメインの一般化能力を大幅に向上させるフェアネスを考慮したメタラーニング手法を提案する。
論文 参考訳(メタデータ) (2024-11-02T17:34:33Z) - Towards Counterfactual Fairness-aware Domain Generalization in Changing Environments [30.37748667235682]
逐次オートエンコーダ(CDSAE)を用いたファクトファクトフェアネス対応ドメイン一般化という,革新的なフレームワークを導入する。
このアプローチは, 環境情報やセンシティブな属性を, 分類特徴の組込み表現から効果的に分離する。
公平な規則化を取り入れることで、分類目的のセマンティック情報のみを活用できる。
論文 参考訳(メタデータ) (2023-09-22T17:08:20Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Deep face recognition with clustering based domain adaptation [57.29464116557734]
そこで本研究では,ターゲットドメインとソースがクラスを共有しない顔認識タスクを対象とした,クラスタリングに基づく新しいドメイン適応手法を提案する。
本手法は,特徴領域をグローバルに整列させ,その一方で,対象クラスタを局所的に識別することで,識別対象特徴を効果的に学習する。
論文 参考訳(メタデータ) (2022-05-27T12:29:11Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - Learning Fair Models without Sensitive Attributes: A Generative Approach [33.196044483534784]
本研究では,関係する特徴を探索することにより,重要属性を含まないフェアモデル学習の新たな課題について検討する。
トレーニングデータから感度特性を効果的に推定する確率的生成フレームワークを提案する。
実世界のデータセットを用いた実験結果から,本フレームワークの有効性が示された。
論文 参考訳(メタデータ) (2022-03-30T15:54:30Z) - You Can Still Achieve Fairness Without Sensitive Attributes: Exploring
Biases in Non-Sensitive Features [29.94644351343916]
本稿では,これらの特徴を同時利用して正確な予測とモデルの正則化を行う新しいフレームワークを提案する。
実世界のデータセットにおける実験結果は,提案モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-04-29T17:52:11Z) - On Universal Black-Box Domain Adaptation [53.7611757926922]
実践的な展開という観点から,ドメイン適応の最小限の制約条件について検討する。
ソースモデルのインターフェースのみがターゲットドメインで利用可能であり、2つのドメイン間のラベル空間関係が異なることや未知であることが許されている。
対象試料の局所近傍における予測の整合性によって正規化された自己訓練フレームワークに統一することを提案する。
論文 参考訳(メタデータ) (2021-04-10T02:21:09Z) - Towards Fair Knowledge Transfer for Imbalanced Domain Adaptation [61.317911756566126]
本研究では,不均衡なドメイン間学習における公平性問題に対処するTowards Fair Knowledge Transferフレームワークを提案する。
具体的には、新規なクロスドメインミックスアップ生成を利用して、ターゲット情報でマイノリティソースセットを増強し、公正性を高める。
本モデルでは,2つのベンチマークで全体の精度を20%以上向上させる。
論文 参考訳(メタデータ) (2020-10-23T06:29:09Z) - Towards Fair Cross-Domain Adaptation via Generative Learning [50.76694500782927]
ドメイン適応(DA)は、よくラベル付けされたソースドメイン上でトレーニングされたモデルを、異なる分散に横たわる未ラベルのターゲットドメインに適応することを目的としています。
本研究では,新規な生成的Few-shot Cross-Domain Adaptation (GFCA) アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-03-04T23:25:09Z) - Fairness-Aware Learning with Prejudice Free Representations [2.398608007786179]
本稿では,潜在性識別特徴を効果的に識別し,治療できる新しいアルゴリズムを提案する。
このアプローチは、モデルパフォーマンスを改善するために差別のない機能を集めるのに役立つ。
論文 参考訳(メタデータ) (2020-02-26T10:06:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。