論文の概要: FairNN- Conjoint Learning of Fair Representations for Fair Decisions
- arxiv url: http://arxiv.org/abs/2004.02173v2
- Date: Sat, 11 Apr 2020 20:00:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 12:07:21.902688
- Title: FairNN- Conjoint Learning of Fair Representations for Fair Decisions
- Title(参考訳): FairNN- Conjoint Learning of Fair Representations for Fair Decisions
- Authors: Tongxin Hu, Vasileios Iosifidis, Wentong Liao, Hang Zhang, Michael
YingYang, Eirini Ntoutsi, and Bodo Rosenhahn
- Abstract要約: フェアネス認識学習のための結合特徴表現と分類を行うニューラルネットワークであるFairNNを提案する。
各種データセットに対する実験により,表現学習や教師あり学習における不公平性の分離処理よりも,このような共同アプローチの方が優れていることが示された。
- 参考スコア(独自算出の注目度): 40.05268461544044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose FairNN a neural network that performs joint feature
representation and classification for fairness-aware learning. Our approach
optimizes a multi-objective loss function in which (a) learns a fair
representation by suppressing protected attributes (b) maintains the
information content by minimizing a reconstruction loss and (c) allows for
solving a classification task in a fair manner by minimizing the classification
error and respecting the equalized odds-based fairness regularized. Our
experiments on a variety of datasets demonstrate that such a joint approach is
superior to separate treatment of unfairness in representation learning or
supervised learning. Additionally, our regularizers can be adaptively weighted
to balance the different components of the loss function, thus allowing for a
very general framework for conjoint fair representation learning and decision
making.
- Abstract(参考訳): 本稿では,フェアネス認識学習のための結合特徴表現と分類を行うニューラルネットワークであるFairNNを提案する。
我々のアプローチは多目的損失関数を最適化する
a)保護属性を抑えることにより公正な表現を学ぶ
(b)レコンストラクション損失を最小化し、情報内容を維持すること。
c) 分類誤差を最小化し、等化奇数に基づく正当性を尊重することにより、公平な方法で分類タスクを解くことができる。
各種データセットに対する実験により,表現学習や教師あり学習における不公平性の分離処理よりも,このような共同アプローチの方が優れていることが示された。
さらに、正規化器は損失関数の異なる成分のバランスをとるために適応的に重み付けできるので、公正な表現学習と意思決定を結合するための非常に一般的な枠組みを実現できる。
関連論文リスト
- Relaxed Contrastive Learning for Federated Learning [48.96253206661268]
本稿では,フェデレート学習におけるデータ不均一性の課題に対処する,新しいコントラスト学習フレームワークを提案する。
当社のフレームワークは,既存のフェデレート学習アプローチを,標準ベンチマークにおいて大きなマージンで上回ります。
論文 参考訳(メタデータ) (2024-01-10T04:55:24Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - Conditional Supervised Contrastive Learning for Fair Text Classification [59.813422435604025]
対照的な学習を通してテキスト分類のための等化オッズとして知られる公平性の概念を満たす学習公正表現について研究する。
具体的には、まず、公正性制約のある学習表現と条件付き教師付きコントラスト目的との間の関係を理論的に分析する。
論文 参考訳(メタデータ) (2022-05-23T17:38:30Z) - Fair Contrastive Learning for Facial Attribute Classification [25.436462696033846]
公正な視覚表現学習のためのFair Supervised Contrastive Loss (FSCL)を提案する。
本稿では,教師付きコントラスト学習による不公平性を初めて分析する。
提案手法はデータバイアスの強度に頑健であり,不完全な教師付き設定で効果的に機能する。
論文 参考訳(メタデータ) (2022-03-30T11:16:18Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Spatial Contrastive Learning for Few-Shot Classification [9.66840768820136]
局所的識別性およびクラス非依存性の特徴を学習するための新しい注意に基づく空間コントラスト目標を提案する。
実験により,提案手法は最先端手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-12-26T23:39:41Z) - Adversarial Training Reduces Information and Improves Transferability [81.59364510580738]
近年の研究では, 頑健性に加えて, 可逆性などの望ましい特性が期待できることが示されている。
本稿では,新たなタスクへの線形転送性の向上を図り,表現の伝達可能性とソースタスクの精度の間に新たなトレードオフが生じていることを示す。
論文 参考訳(メタデータ) (2020-07-22T08:30:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。