論文の概要: Fairness without the sensitive attribute via Causal Variational
Autoencoder
- arxiv url: http://arxiv.org/abs/2109.04999v1
- Date: Fri, 10 Sep 2021 17:12:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-13 13:46:20.899086
- Title: Fairness without the sensitive attribute via Causal Variational
Autoencoder
- Title(参考訳): 因果変分オートエンコーダによる感度特性のない公正性
- Authors: Vincent Grari, Sylvain Lamprier, Marcin Detyniecki
- Abstract要約: EUにおけるプライバシーの目的とRGPDのような多彩な規制のため、多くの個人機密属性は収集されないことが多い。
近年の開発成果を近似推論に活用することにより,このギャップを埋めるためのアプローチを提案する。
因果グラフに基づいて、機密情報プロキシを推論するために、SRCVAEと呼ばれる新しい変分自動符号化ベースのフレームワークを利用する。
- 参考スコア(独自算出の注目度): 17.675997789073907
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, most fairness strategies in machine learning models focus on
mitigating unwanted biases by assuming that the sensitive information is
observed. However this is not always possible in practice. Due to privacy
purposes and var-ious regulations such as RGPD in EU, many personal sensitive
attributes are frequently not collected. We notice a lack of approaches for
mitigating bias in such difficult settings, in particular for achieving
classical fairness objectives such as Demographic Parity and Equalized Odds. By
leveraging recent developments for approximate inference, we propose an
approach to fill this gap. Based on a causal graph, we rely on a new
variational auto-encoding based framework named SRCVAE to infer a sensitive
information proxy, that serve for bias mitigation in an adversarial fairness
approach. We empirically demonstrate significant improvements over existing
works in the field. We observe that the generated proxy's latent space recovers
sensitive information and that our approach achieves a higher accuracy while
obtaining the same level of fairness on two real datasets, as measured using
com-mon fairness definitions.
- Abstract(参考訳): 近年、機械学習モデルにおけるフェアネス戦略のほとんどは、センシティブな情報が観測されることを前提として、望ましくないバイアスを緩和することに焦点を当てている。
しかし、実際にはこれは不可能である。
EUにおけるプライバシーの目的とRGPDのような多彩な規制のため、多くの個人機密属性は収集されない。
このような困難な環境下でバイアスを緩和するためのアプローチが欠如していることに気付き、特にデモグラフィックパリティや等化オッドのような古典的公正目標を達成するために注目する。
近年の開発を近似推論に活用し,このギャップを埋める手法を提案する。
因果グラフに基づいて、我々はSRCVAEと呼ばれる新しい変分自動エンコーディングベースのフレームワークを使用して、敵の公正性アプローチにおけるバイアス軽減に役立つセンシティブな情報プロキシを推論する。
この分野における既存の作業に対する大幅な改善を実証的に示す。
我々は,生成したプロキシの潜伏空間が機密情報を回復し,提案手法が2つの実データに対して同等の公平度を確保しつつ高い精度を達成することを観察した。
関連論文リスト
- Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - Enhancing Fairness in Unsupervised Graph Anomaly Detection through Disentanglement [33.565252991113766]
グラフ異常検出(GAD)は、金融詐欺検出から偽ニュース検出まで、さまざまなアプリケーションにおいてますます重要になっている。
現在のGAD法は主に公平性の問題を見落としており、特定の人口集団に対して差別的な決定が下される可能性がある。
DeFENDという属性グラフ上に,DisEntangle-based FairnEss-aware aNomaly Detectionフレームワークを考案した。
実世界のデータセットに対する実証的な評価から、DEFENDはGADにおいて効果的に機能し、最先端のベースラインと比較して公正性を著しく向上することが明らかとなった。
論文 参考訳(メタデータ) (2024-06-03T04:48:45Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Geospatial Disparities: A Case Study on Real Estate Prices in Paris [0.3495246564946556]
地理空間データから生じるバイアスを識別・緩和するためのツールキットを提案する。
空間的属性を持つ順序回帰ケースを2次分類の焦点から逸脱する。
本手法を概説し,本手法の実践的応用を実証し,公正度と校正対策のための地理的集約レベルを選択することの意味を精査する。
論文 参考訳(メタデータ) (2024-01-29T14:53:14Z) - Fairness Under Demographic Scarce Regime [7.523105080786704]
フェアネスと精度のトレードオフを改善する属性分類器を構築するためのフレームワークを提案する。
不確実な感度特性を持つ試料に公正性制約を課すことは、公正性-正確性トレードオフに悪影響を及ぼす可能性があることを示す。
我々のフレームワークは、ほとんどのベンチマークで真に敏感な属性に対する公平性制約で訓練されたモデルより優れている。
論文 参考訳(メタデータ) (2023-07-24T19:07:34Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Model Debiasing via Gradient-based Explanation on Representation [14.673988027271388]
本稿では,デリケートな属性やプロキシな属性に関して,デバイアスを行う新しいフェアネスフレームワークを提案する。
我々のフレームワークは、過去の最先端のアプローチよりも、構造化されていないデータセットと構造化されたデータセットの公平性と正確なトレードオフを達成しています。
論文 参考訳(メタデータ) (2023-05-20T11:57:57Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - Supercharging Imbalanced Data Learning With Energy-based Contrastive
Representation Transfer [72.5190560787569]
コンピュータビジョンにおいて、長い尾のデータセットからの学習は、特に自然画像データセットの繰り返しのテーマである。
本稿では,データ生成機構がラベル条件と特徴分布の間で不変であるメタ分散シナリオを提案する。
これにより、因果データインフレーションの手順を利用してマイノリティクラスの表現を拡大できる。
論文 参考訳(メタデータ) (2020-11-25T00:13:11Z) - Towards Fair Knowledge Transfer for Imbalanced Domain Adaptation [61.317911756566126]
本研究では,不均衡なドメイン間学習における公平性問題に対処するTowards Fair Knowledge Transferフレームワークを提案する。
具体的には、新規なクロスドメインミックスアップ生成を利用して、ターゲット情報でマイノリティソースセットを増強し、公正性を高める。
本モデルでは,2つのベンチマークで全体の精度を20%以上向上させる。
論文 参考訳(メタデータ) (2020-10-23T06:29:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。