論文の概要: Learning Fair Representations via Rate-Distortion Maximization
- arxiv url: http://arxiv.org/abs/2202.00035v1
- Date: Mon, 31 Jan 2022 19:00:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-02 13:32:20.105989
- Title: Learning Fair Representations via Rate-Distortion Maximization
- Title(参考訳): レートゆがみ最大化による公平表現の学習
- Authors: Somnath Basu Roy Chowdhury, Snigdha Chaturvedi
- Abstract要約: 本稿では,Fairness-Aware Rate Maximization (FaRM) を提案する。このFairness-Aware Rate Maximization (FaRM) は,Fairness-Aware Rate Maximization (FRM) 関数を用いて,同じ保護属性クラスに属するインスタンスの表現を非相関にすることで,人口統計情報を除去する。
FaRMは、複数のデータセット上で最先端のパフォーマンスを実現し、学習された表現は、非線形探索ネットワークによる攻撃に対する保護属性情報のリークを著しく少なくする。
- 参考スコア(独自算出の注目度): 16.985698188471016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text representations learned by machine learning models often encode
undesirable demographic information of the user. Predictive models based on
these representations can rely on such information resulting in biased
decisions. We present a novel debiasing technique Fairness-aware Rate
Maximization (FaRM), that removes demographic information by making
representations of instances belonging to the same protected attribute class
uncorrelated using the rate-distortion function. FaRM is able to debias
representations with or without a target task at hand. FaRM can also be adapted
to simultaneously remove information about multiple protected attributes.
Empirical evaluations show that FaRM achieves state-of-the-art performance on
several datasets, and learned representations leak significantly less protected
attribute information against an attack by a non-linear probing network.
- Abstract(参考訳): 機械学習モデルによって学習されるテキスト表現は、しばしばユーザの望ましくない人口統計情報をエンコードする。
これらの表現に基づく予測モデルは、バイアスのある決定をもたらすような情報に依存することができる。
本稿では,同じ保護属性クラスに属するインスタンスの表現を,レート・ディストリビューション関数を用いて無関係にすることで,人口統計情報を除去する新しいデバイアス手法であるfairness-aware rate maximization(farm)を提案する。
FaRMは、対象とするタスクの有無に関わらず、表現をデバイアスすることができる。
FaRMはまた、複数の保護属性に関する情報を同時に削除するために適応することもできる。
実験的な評価により、FaRMは複数のデータセット上で最先端のパフォーマンスを達成し、学習された表現は非線形探索ネットワークによる攻撃に対する保護属性情報を著しくリークすることがわかった。
関連論文リスト
- Debiasing Multimodal Models via Causal Information Minimization [65.23982806840182]
我々は、マルチモーダルデータのための因果グラフにおいて、共同創設者から生じるバイアスを研究する。
ロバストな予測機能は、モデルがアウト・オブ・ディストリビューションデータに一般化するのに役立つ多様な情報を含んでいる。
これらの特徴を共同設立者表現として使用し、因果理論によって動機づけられた手法を用いてモデルからバイアスを取り除く。
論文 参考訳(メタデータ) (2023-11-28T16:46:14Z) - Using Positive Matching Contrastive Loss with Facial Action Units to
mitigate bias in Facial Expression Recognition [6.015556590955814]
本稿では、モデルがドメイン知識を用いてタスク関連機能に焦点をあてることによりバイアスを軽減することを提案する。
本手法を用いてタスク関連機能を組み込むことで,最小コストでモデルフェアネスを向上させることができることを示す。
論文 参考訳(メタデータ) (2023-03-08T21:28:02Z) - Disentangling representations in Restricted Boltzmann Machines without
adversaries [0.0]
本稿では, 敵対的差別者を訓練することなく, 簡易かつ効果的に表現を分離する方法を提案する。
当社のフレームワークが,データのログライクな表現によってコストを計算可能にする方法を示す。
論文 参考訳(メタデータ) (2022-06-23T10:24:20Z) - Unlearning Protected User Attributes in Recommendations with Adversarial
Training [10.268369743620159]
協調フィルタリングアルゴリズムは、特定の人口統計やユーザーの保護された情報を含む、基礎となる消費パターンをキャプチャする。
これらの符号化バイアスは、様々な階層のサブグループに提供されるコンテンツのさらなる分離に向けたレコメンデーションシステムの決定に影響を与える可能性がある。
本研究では,RSアルゴリズムの学習的相互作用表現から,ユーザの特定の保護された情報を除去する可能性と課題について検討する。
論文 参考訳(メタデータ) (2022-06-09T13:36:28Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Learning Smooth and Fair Representations [24.305894478899948]
本稿では,特徴量と感性属性との相関関係を,公平な表現空間にマッピングすることで事前に除去する能力について検討する。
実験により,表現分布の平滑化は公平性証明の一般化保証を提供することがわかった。
表現分布の平滑化は、表現学習における最先端手法と比較して下流タスクの精度を低下させるものではない。
論文 参考訳(メタデータ) (2020-06-15T21:51:50Z) - Fairness by Learning Orthogonal Disentangled Representations [50.82638766862974]
不変表現問題に対する新しい非絡み合い手法を提案する。
エントロピーによりセンシティブな情報に依存しない有意義な表現を強制する。
提案手法は5つの公開データセットで評価される。
論文 参考訳(メタデータ) (2020-03-12T11:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。