論文の概要: Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder
- arxiv url: http://arxiv.org/abs/2204.00536v1
- Date: Fri, 1 Apr 2022 15:57:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-04 16:19:03.484210
- Title: Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder
- Title(参考訳): Semi-FairVAE: 逆変分オートエンコーダを用いた半教師付きフェア表現学習
- Authors: Chuhan Wu, Fangzhao Wu, Tao Qi, Yongfeng Huang
- Abstract要約: 逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
- 参考スコア(独自算出の注目度): 92.67156911466397
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial learning is a widely used technique in fair representation
learning to remove the biases on sensitive attributes from data
representations. It usually requires to incorporate the sensitive attribute
labels as prediction targets. However, in many scenarios the sensitive
attribute labels of many samples can be unknown, and it is difficult to train a
strong discriminator based on the scarce data with observed attribute labels,
which may lead to generate unfair representations. In this paper, we propose a
semi-supervised fair representation learning approach based on adversarial
variational autoencoder, which can reduce the dependency of adversarial fair
models on data with labeled sensitive attributes. More specifically, we use a
bias-aware model to capture inherent bias information on sensitive attribute by
accurately predicting sensitive attributes from input data, and we use a
bias-free model to learn debiased fair representations by using adversarial
learning to remove bias information from them. The hidden representations
learned by the two models are regularized to be orthogonal. In addition, the
soft labels predicted by the two models are further integrated into a
semi-supervised variational autoencoder to reconstruct the input data, and we
apply an additional entropy regularization to encourage the attribute labels
inferred from the bias-free model to be high-entropy. In this way, the
bias-aware model can better capture attribute information while the bias-free
model is less discriminative on sensitive attributes if the input data is well
reconstructed. Extensive experiments on two datasets for different tasks
validate that our approach can achieve good representation learning fairness
under limited data with sensitive attribute labels.
- Abstract(参考訳): 敵対的学習(adversarial learning)は、データ表現から繊細な属性のバイアスを取り除くためにフェア表現学習で広く使われるテクニックである。
通常、センシティブな属性ラベルを予測ターゲットとして組み込む必要がある。
しかし、多くの場合において、多くのサンプルのセンシティブな属性ラベルは未知であり、観測された属性ラベルの少ないデータに基づいて強力な識別器を訓練することは困難であり、不公平な表現を生み出す可能性がある。
本稿では,ラベル付きデリケートな属性を持つデータに対する敵意的フェアモデルの依存性を低減できる,逆変分オートエンコーダに基づく半教師付きフェア表現学習手法を提案する。
より具体的には、入力データから感度属性を正確に予測することで、バイアス認識モデルを用いて、感度属性の固有バイアス情報をキャプチャし、バイアスのないモデルを用いて、逆学習を用いてバイアス情報を除去し、バイアスのない公正表現を学習する。
2つのモデルによって学習された隠れ表現は直交的に正規化される。
さらに、2つのモデルによって予測されるソフトラベルを半教師付き変分オートエンコーダに統合して入力データを再構成し、さらにエントロピー正規化を適用し、バイアスフリーモデルから推定される属性ラベルを高エントロピーにする。
このように、バイアスフリーモデルでは、入力データが十分に再構成された場合、機密属性に対する識別性が低い一方で、属性情報をよりよくキャプチャできる。
異なるタスクのための2つのデータセットに関する広範囲な実験は、感度の高い属性ラベルを持つ限られたデータの下で、優れた表現学習フェアネスを達成することができることを検証します。
関連論文リスト
- Leveraging vision-language models for fair facial attribute classification [19.93324644519412]
汎用視覚言語モデル(英: General-purpose Vision-Language Model, VLM)は、共通感性属性のための豊富な知識源である。
我々は,VLM予測値と人間定義属性分布の対応関係を解析した。
複数のベンチマークの顔属性分類データセットの実験は、既存の教師なしベースラインよりもモデルの公平性の向上を示している。
論文 参考訳(メタデータ) (2024-03-15T18:37:15Z) - Practical Bias Mitigation through Proxy Sensitive Attribute Label
Generation [0.0]
本稿では,非教師なし埋め込み生成の2段階的アプローチとクラスタリングによるプロキシ・センシティブなラベルの取得を提案する。
我々の研究の有効性は、バイアスが感度属性と相関する非感度属性を通して伝播するという仮定に依存している。
実験結果から、Fair MixupやAdversarial Debiasingといった既存のアルゴリズムによるバイアス緩和は、導出されたプロキシラベルに匹敵する結果をもたらすことが示された。
論文 参考訳(メタデータ) (2023-12-26T10:54:15Z) - Vision-language Assisted Attribute Learning [53.60196963381315]
大規模な属性ラベリングは通常不完全で部分的である。
既存の属性学習手法は、欠落したラベルを否定的な扱いをすることが多い。
利用可能な視覚言語知識を活用して、モデル学習の強化に欠落しているラベルを明確に明らかにする。
論文 参考訳(メタデータ) (2023-12-12T06:45:19Z) - Towards Assumption-free Bias Mitigation [47.5131072745805]
本稿では,バイアス緩和のための特徴相互作用をモデル化することにより,関連する属性を自動的に検出する仮定フリーフレームワークを提案する。
4つの実世界のデータセットに対する実験結果から,提案手法が不公平な予測行動を著しく軽減できることが示された。
論文 参考訳(メタデータ) (2023-07-09T05:55:25Z) - Hyper-parameter Tuning for Fair Classification without Sensitive Attribute Access [12.447577504758485]
トレーニングデータや検証データの機密属性にアクセスすることなく、公平な分類器を訓練するフレームワークを提案する。
我々は,これらのプロキシラベルが平均精度制約下での公平性を最大化するために利用できることを理論的,実証的に示す。
論文 参考訳(メタデータ) (2023-02-02T19:45:50Z) - Self-supervised debiasing using low rank regularization [59.84695042540525]
純粋な相関は、ディープニューラルネットワークの強いバイアスを引き起こし、一般化能力を損なう可能性がある。
ラベルのないサンプルと互換性のある自己監督型脱バイアスフレームワークを提案する。
注目すべきは,提案フレームワークが自己教師付き学習ベースラインの一般化性能を著しく向上させることである。
論文 参考訳(メタデータ) (2022-10-11T08:26:19Z) - Fairness via Representation Neutralization [60.90373932844308]
フェアネスのための表現中立化(Representation Neutralization for Fairness, RNF)という新たな緩和手法を提案する。
RNFは、DNNモデルのタスク固有の分類ヘッダのみをデバイアスすることで、その公平性を達成する。
複数のベンチマークデータセットに対する実験結果は、DNNモデルの識別を効果的に削減するRNFフレームワークを実証している。
論文 参考訳(メタデータ) (2021-06-23T22:26:29Z) - You Can Still Achieve Fairness Without Sensitive Attributes: Exploring
Biases in Non-Sensitive Features [29.94644351343916]
本稿では,これらの特徴を同時利用して正確な予測とモデルの正則化を行う新しいフレームワークを提案する。
実世界のデータセットにおける実験結果は,提案モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-04-29T17:52:11Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness-Aware Learning with Prejudice Free Representations [2.398608007786179]
本稿では,潜在性識別特徴を効果的に識別し,治療できる新しいアルゴリズムを提案する。
このアプローチは、モデルパフォーマンスを改善するために差別のない機能を集めるのに役立つ。
論文 参考訳(メタデータ) (2020-02-26T10:06:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。