論文の概要: README: REpresentation learning by fairness-Aware Disentangling MEthod
- arxiv url: http://arxiv.org/abs/2007.03775v1
- Date: Tue, 7 Jul 2020 20:16:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 18:29:20.783117
- Title: README: REpresentation learning by fairness-Aware Disentangling MEthod
- Title(参考訳): README: 公平性を考慮した表現学習
- Authors: Sungho Park, Dohyung Kim, Sunhee Hwang, Hyeran Byun
- Abstract要約: フェア表現学習のためのFD-VAE(Fairness-Aware Disentangling Variational AutoEncoder)を設計する。
このネットワークは、遅延空間を3つの部分空間に切り離し、デコレーション損失を発生させ、各部分空間が独立した情報を含むように促す。
表現学習後、保護属性情報を含む部分空間を除外することにより、この不整合表現をより公平な下流分類に活用する。
- 参考スコア(独自算出の注目度): 23.93330434580667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fair representation learning aims to encode invariant representation with
respect to the protected attribute, such as gender or age. In this paper, we
design Fairness-aware Disentangling Variational AutoEncoder (FD-VAE) for fair
representation learning. This network disentangles latent space into three
subspaces with a decorrelation loss that encourages each subspace to contain
independent information: 1) target attribute information, 2) protected
attribute information, 3) mutual attribute information. After the
representation learning, this disentangled representation is leveraged for
fairer downstream classification by excluding the subspace with the protected
attribute information. We demonstrate the effectiveness of our model through
extensive experiments on CelebA and UTK Face datasets. Our method outperforms
the previous state-of-the-art method by large margins in terms of equal
opportunity and equalized odds.
- Abstract(参考訳): フェア表現学習は、性別や年齢といった保護された属性に関して不変表現を符号化することを目的としている。
本稿では,公正表現学習のためのFD-VAE(Fairness-aware Disentangling Variational AutoEncoder)を設計する。
このネットワークは、遅延空間を3つの部分空間に切り離し、各部分空間に独立した情報を含むよう促すデコレーション損失を与える。
1)対象属性情報、
2)保護属性情報
3)相互属性情報。
表現学習後、保護属性情報を含む部分空間を除外することにより、この不整合表現をより公平な下流分類に活用する。
我々は,CelebAおよびUTK Faceデータセットの広範な実験を通じて,モデルの有効性を示す。
提案手法は,従来の最先端手法を,均等な機会と等化確率で大きなマージンで上回る。
関連論文リスト
- Enforcing Conditional Independence for Fair Representation Learning and Causal Image Generation [13.841888171417017]
条件付き独立性(CI)制約は、機械学習における公平性の定義と評価に不可欠である。
エンコーダアーキテクチャに適用可能な,新たなトレーニングパラダイムを導入する。
論文 参考訳(メタデータ) (2024-04-21T23:34:45Z) - Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - Improving Fairness using Vision-Language Driven Image Augmentation [60.428157003498995]
公平性は、特に顔領域において、ディープラーニングの識別モデルを訓練する際に重要である。
モデルは、特定の特性(年齢や肌の色など)と無関係な属性(下流タスク)を関連付ける傾向がある
本稿では,これらの相関を緩和し,公平性を向上する手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T19:51:10Z) - SoFaiR: Single Shot Fair Representation Learning [24.305894478899948]
SoFaiRは、フェアネス情報平面上の多くの点を訓練した1つのモデルで生成する単発フェア表現学習法である。
私たちは、SoFaiRがマルチショットと同じような公正な情報交換を達成している3つのデータセットを見つけました。
論文 参考訳(メタデータ) (2022-04-26T19:31:30Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - Learning Fair Representations via Rate-Distortion Maximization [16.985698188471016]
本稿では,Fairness-Aware Rate Maximization (FaRM) を提案する。このFairness-Aware Rate Maximization (FaRM) は,Fairness-Aware Rate Maximization (FRM) 関数を用いて,同じ保護属性クラスに属するインスタンスの表現を非相関にすることで,人口統計情報を除去する。
FaRMは、複数のデータセット上で最先端のパフォーマンスを実現し、学習された表現は、非線形探索ネットワークによる攻撃に対する保護属性情報のリークを著しく少なくする。
論文 参考訳(メタデータ) (2022-01-31T19:00:52Z) - Adversarial Stacked Auto-Encoders for Fair Representation Learning [1.061960673667643]
そこで本稿では,データ表現のさまざまなレベルを活用して,学習した表現の公平性境界を厳格化するための,新しい公正表現学習手法を提案する。
その結果、異なる自動エンコーダを積み重ね、異なる潜在空間でフェアネスを強制すると、他の既存手法と比較してフェアネスが向上することがわかった。
論文 参考訳(メタデータ) (2021-07-27T13:49:18Z) - Conditional Contrastive Learning: Removing Undesirable Information in
Self-Supervised Representations [108.29288034509305]
我々は,自己指導型表現において望ましくない情報を除去するために,条件付きコントラスト学習を開発する。
提案手法は,下流タスクの自己教師付き表現をうまく学習できることを実証的に実証する。
論文 参考訳(メタデータ) (2021-06-05T10:51:26Z) - Null It Out: Guarding Protected Attributes by Iterative Nullspace
Projection [51.041763676948705]
Iterative Null-space Projection (INLP) は神経表現から情報を取り除く新しい方法である。
提案手法は,単語埋め込みにおけるバイアスを軽減するとともに,複数クラス分類の設定において公平性を高めることができることを示す。
論文 参考訳(メタデータ) (2020-04-16T14:02:50Z) - Fairness by Learning Orthogonal Disentangled Representations [50.82638766862974]
不変表現問題に対する新しい非絡み合い手法を提案する。
エントロピーによりセンシティブな情報に依存しない有意義な表現を強制する。
提案手法は5つの公開データセットで評価される。
論文 参考訳(メタデータ) (2020-03-12T11:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。