論文の概要: FairMixRep : Self-supervised Robust Representation Learning for
Heterogeneous Data with Fairness constraints
- arxiv url: http://arxiv.org/abs/2010.03228v2
- Date: Wed, 14 Oct 2020 06:12:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 21:53:06.963904
- Title: FairMixRep : Self-supervised Robust Representation Learning for
Heterogeneous Data with Fairness constraints
- Title(参考訳): FairMixRep : 不均一データに対する自己教師付きロバスト表現学習
- Authors: Souradip Chakraborty, Ekansh Verma, Saswata Sahoo, Jyotishka Datta
- Abstract要約: 我々は、教師なしの観点から、混合スペースフェア表現学習の課題に対処する。
我々は、タイムリーで独特な普遍的な表現と、新しい研究貢献を学ぶ。
- 参考スコア(独自算出の注目度): 1.1661238776379117
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Representation Learning in a heterogeneous space with mixed variables of
numerical and categorical types has interesting challenges due to its complex
feature manifold. Moreover, feature learning in an unsupervised setup, without
class labels and a suitable learning loss function, adds to the problem
complexity. Further, the learned representation and subsequent predictions
should not reflect discriminatory behavior towards certain sensitive groups or
attributes. The proposed feature map should preserve maximum variations present
in the data and needs to be fair with respect to the sensitive variables. We
propose, in the first phase of our work, an efficient encoder-decoder framework
to capture the mixed-domain information. The second phase of our work focuses
on de-biasing the mixed space representations by adding relevant fairness
constraints. This ensures minimal information loss between the representations
before and after the fairness-preserving projections. Both the information
content and the fairness aspect of the final representation learned has been
validated through several metrics where it shows excellent performance. Our
work (FairMixRep) addresses the problem of Mixed Space Fair Representation
learning from an unsupervised perspective and learns a Universal representation
that is timely, unique, and a novel research contribution.
- Abstract(参考訳): 数値型とカテゴリ型の混合変数を持つ不均質空間における表現学習は、その複素特徴多様体のために興味深い課題がある。
さらに、クラスラベルや適切な学習損失関数のない教師なし設定での機能学習は、問題複雑性を増加させる。
さらに、学習された表現とその後の予測は、特定のセンシティブなグループや属性に対する差別行為を反映してはならない。
提案した特徴マップは、データに存在する最大変動を保ち、敏感な変数に対して公平である必要がある。
本研究の第一段階として,混合ドメイン情報を取得するための効率的なエンコーダデコーダフレームワークを提案する。
我々の研究の第2フェーズは、関連する公平性制約を加えることによって、混合空間表現の非バイアスに焦点をあてている。
これにより、フェアネス保存プロジェクションの前後における表現間の最小情報損失が保証される。
学習した情報内容と最終表現の公平性の両方が、優れたパフォーマンスを示すいくつかの指標を通じて検証されている。
我々の研究(FairMixRep)は、教師なしの観点から学習した混合空間フェア表現の問題に対処し、タイムリーでユニークで新しい研究貢献のユニバーサル表現を学ぶ。
関連論文リスト
- Provable Optimization for Adversarial Fair Self-supervised Contrastive Learning [49.417414031031264]
本稿では,自己教師型学習環境におけるフェアエンコーダの学習について検討する。
すべてのデータはラベル付けされておらず、そのごく一部だけが機密属性で注釈付けされている。
論文 参考訳(メタデータ) (2024-06-09T08:11:12Z) - Leveraging sparse and shared feature activations for disentangled
representation learning [112.22699167017471]
本稿では,教師付きタスクの多種多様な集合から抽出した知識を活用し,共通不整合表現を学習することを提案する。
我々は6つの実世界分布シフトベンチマークと異なるデータモダリティに対するアプローチを検証する。
論文 参考訳(メタデータ) (2023-04-17T01:33:24Z) - Learning Fair Representation via Distributional Contrastive
Disentanglement [9.577369164287813]
公正な表現を学ぶことは、公平性を達成するか、センシティブな情報を悪用するために不可欠である。
本稿では,FarconVAE(Contrastive Variational AutoEncoder)を用いたFAir表現学習手法を提案する。
フェアネス、事前訓練されたモデルデバイアス、および様々なモダリティからの領域一般化タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2022-06-17T12:58:58Z) - Fair Contrastive Learning for Facial Attribute Classification [25.436462696033846]
公正な視覚表現学習のためのFair Supervised Contrastive Loss (FSCL)を提案する。
本稿では,教師付きコントラスト学習による不公平性を初めて分析する。
提案手法はデータバイアスの強度に頑健であり,不完全な教師付き設定で効果的に機能する。
論文 参考訳(メタデータ) (2022-03-30T11:16:18Z) - Adversarial Stacked Auto-Encoders for Fair Representation Learning [1.061960673667643]
そこで本稿では,データ表現のさまざまなレベルを活用して,学習した表現の公平性境界を厳格化するための,新しい公正表現学習手法を提案する。
その結果、異なる自動エンコーダを積み重ね、異なる潜在空間でフェアネスを強制すると、他の既存手法と比較してフェアネスが向上することがわかった。
論文 参考訳(メタデータ) (2021-07-27T13:49:18Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - i-Mix: A Domain-Agnostic Strategy for Contrastive Representation
Learning [117.63815437385321]
対照的な表現学習を改善するために, 単純で効果的なドメインに依存しない正規化戦略i-Mixを提案する。
実験では、i-Mixはドメイン間の学習表現の質を一貫して改善することを示した。
論文 参考訳(メタデータ) (2020-10-17T23:32:26Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness by Learning Orthogonal Disentangled Representations [50.82638766862974]
不変表現問題に対する新しい非絡み合い手法を提案する。
エントロピーによりセンシティブな情報に依存しない有意義な表現を強制する。
提案手法は5つの公開データセットで評価される。
論文 参考訳(メタデータ) (2020-03-12T11:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。