論文の概要: Learning Smooth and Fair Representations
- arxiv url: http://arxiv.org/abs/2006.08788v1
- Date: Mon, 15 Jun 2020 21:51:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 03:23:11.330029
- Title: Learning Smooth and Fair Representations
- Title(参考訳): 滑らかさと公正表現の学習
- Authors: Xavier Gitiaux, Huzefa Rangwala
- Abstract要約: 本稿では,特徴量と感性属性との相関関係を,公平な表現空間にマッピングすることで事前に除去する能力について検討する。
実験により,表現分布の平滑化は公平性証明の一般化保証を提供することがわかった。
表現分布の平滑化は、表現学習における最先端手法と比較して下流タスクの精度を低下させるものではない。
- 参考スコア(独自算出の注目度): 24.305894478899948
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Organizations that own data face increasing legal liability for its
discriminatory use against protected demographic groups, extending to
contractual transactions involving third parties access and use of the data.
This is problematic, since the original data owner cannot ex-ante anticipate
all its future uses by downstream users. This paper explores the upstream
ability to preemptively remove the correlations between features and sensitive
attributes by mapping features to a fair representation space. Our main result
shows that the fairness measured by the demographic parity of the
representation distribution can be certified from a finite sample if and only
if the chi-squared mutual information between features and representations is
finite. Empirically, we find that smoothing the representation distribution
provides generalization guarantees of fairness certificates, which improves
upon existing fair representation learning approaches. Moreover, we do not
observe that smoothing the representation distribution degrades the accuracy of
downstream tasks compared to state-of-the-art methods in fair representation
learning.
- Abstract(参考訳): データを所有している組織は、保護された集団に対する差別的使用に対する法的責任の増大に直面しており、サードパーティによるデータのアクセスと利用を含む契約上の取引にまで及んでいる。
オリジナルのデータ所有者は、下流ユーザーによる将来の使用を期待できないため、これは問題である。
本稿では,特徴量と感性属性との相関関係を,公平な表現空間にマッピングすることで事前に除去できる上流能力について検討する。
本結果から,表現分布の人口分布パリティによって測定される公平性は,特徴量と表現量の間のカイ二乗相互情報が有限である場合に限り,有限標本から証明できることが示唆された。
実験により,表現分布のスムーズ化は,既存の公正表現学習手法を改良したフェアネス証明の一般化保証を提供することがわかった。
さらに,表現分布の平滑化は,表現学習における最先端手法と比較して下流タスクの精度を低下させるものではない。
関連論文リスト
- Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - Fairness Under Demographic Scarce Regime [7.523105080786704]
フェアネスと精度のトレードオフを改善する属性分類器を構築するためのフレームワークを提案する。
不確実な感度特性を持つ試料に公正性制約を課すことは、公正性-正確性トレードオフに悪影響を及ぼす可能性があることを示す。
我々のフレームワークは、ほとんどのベンチマークで真に敏感な属性に対する公平性制約で訓練されたモデルより優れている。
論文 参考訳(メタデータ) (2023-07-24T19:07:34Z) - Disentangled Representation with Causal Constraints for Counterfactual
Fairness [25.114619307838602]
この研究は、構造化された表現を使用することで、下流の予測モデルが反現実的公正を達成することを理論的に証明している。
本稿では,ドメイン知識に関する構造化表現を得るために,CF-VAE(Counterfactal Fairness Variational AutoEncoder)を提案する。
実験結果から,提案手法はベンチマークフェアネス法よりも高精度で精度が高いことがわかった。
論文 参考訳(メタデータ) (2022-08-19T04:47:58Z) - Balancing Discriminability and Transferability for Source-Free Domain
Adaptation [55.143687986324935]
従来のドメイン適応(DA)技術は、ドメイン不変表現を学習することでドメイン転送性を改善することを目的としている。
ラベル付けされたソースとラベル付けされていないターゲットへの同時アクセス要件は、ソースフリーなDA設定に適さない。
そこで本研究では,原文と翻訳サンプルの混在が識別可能性と伝達可能性のトレードオフを促進することを示す新しい知見を導出する。
論文 参考訳(メタデータ) (2022-06-16T09:06:22Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Adversarial Stacked Auto-Encoders for Fair Representation Learning [1.061960673667643]
そこで本稿では,データ表現のさまざまなレベルを活用して,学習した表現の公平性境界を厳格化するための,新しい公正表現学習手法を提案する。
その結果、異なる自動エンコーダを積み重ね、異なる潜在空間でフェアネスを強制すると、他の既存手法と比較してフェアネスが向上することがわかった。
論文 参考訳(メタデータ) (2021-07-27T13:49:18Z) - Impossibility results for fair representations [12.483260526189447]
我々は、それを用いて訓練された異なるタスクに対して、分類器の公平性を保証できないことを論じる。
Odds Equalityのようなより洗練された公正の概念は、タスク固有のラベル付け規則を考慮していない表現によって保証されない。
論文 参考訳(メタデータ) (2021-07-07T21:12:55Z) - Fair Representations by Compression [19.26754855778295]
そこで本研究では,デコーダに直接提供された場合,擬似表現はセンシティブな属性に関する情報をフィルタリングすべきであることを示す。
表現ビットストリームのエントロピーの明示的な制御により、ユーザはレート歪みとレートフェアネス曲線の両方に沿って、スムーズかつ同時に動くことができる。
論文 参考訳(メタデータ) (2021-05-28T18:22:07Z) - Fair Densities via Boosting the Sufficient Statistics of Exponential
Families [72.34223801798422]
フェアネスのためのデータ前処理にブースティングアルゴリズムを導入する。
私たちのアプローチは、最小限の公平性を確保しながら、より良いデータフィッティングへとシフトします。
実世界のデータに結果の質を示す実験結果が提示される。
論文 参考訳(メタデータ) (2020-12-01T00:49:17Z) - Fairness by Learning Orthogonal Disentangled Representations [50.82638766862974]
不変表現問題に対する新しい非絡み合い手法を提案する。
エントロピーによりセンシティブな情報に依存しない有意義な表現を強制する。
提案手法は5つの公開データセットで評価される。
論文 参考訳(メタデータ) (2020-03-12T11:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。