論文の概要: Fairness-Aware Learning with Prejudice Free Representations
- arxiv url: http://arxiv.org/abs/2002.12143v1
- Date: Wed, 26 Feb 2020 10:06:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 14:35:31.394067
- Title: Fairness-Aware Learning with Prejudice Free Representations
- Title(参考訳): 偏見自由表現を用いた公正学習
- Authors: Ramanujam Madhavan, Mohit Wadhwa
- Abstract要約: 本稿では,潜在性識別特徴を効果的に識別し,治療できる新しいアルゴリズムを提案する。
このアプローチは、モデルパフォーマンスを改善するために差別のない機能を集めるのに役立つ。
- 参考スコア(独自算出の注目度): 2.398608007786179
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models are extensively being used to make decisions that
have a significant impact on human life. These models are trained over
historical data that may contain information about sensitive attributes such as
race, sex, religion, etc. The presence of such sensitive attributes can impact
certain population subgroups unfairly. It is straightforward to remove
sensitive features from the data; however, a model could pick up prejudice from
latent sensitive attributes that may exist in the training data. This has led
to the growing apprehension about the fairness of the employed models. In this
paper, we propose a novel algorithm that can effectively identify and treat
latent discriminating features. The approach is agnostic of the learning
algorithm and generalizes well for classification as well as regression tasks.
It can also be used as a key aid in proving that the model is free of
discrimination towards regulatory compliance if the need arises. The approach
helps to collect discrimination-free features that would improve the model
performance while ensuring the fairness of the model. The experimental results
from our evaluations on publicly available real-world datasets show a
near-ideal fairness measurement in comparison to other methods.
- Abstract(参考訳): 機械学習モデルは、人間の生活に大きな影響を与える決定を下すために広く使われている。
これらのモデルは、人種、性別、宗教などの繊細な属性に関する情報を含む過去のデータに基づいて訓練される。
このような繊細な属性の存在は、特定の集団に不公平に影響を及ぼす可能性がある。
データからセンシティブな特徴を取り除くのは簡単だが、トレーニングデータに存在する可能性のある潜在性のある属性から偏見を拾うことができる。
これにより、採用モデルの公正性に対する理解が高まりました。
本稿では,潜在識別特徴を効果的に識別し,治療できる新しいアルゴリズムを提案する。
このアプローチは学習アルゴリズムに非依存であり、分類や回帰処理にも適している。
また、必要があれば、モデルが規制遵守に対する差別がないことを証明するための重要な助けとしても使用できる。
このアプローチは、モデルの公平性を確保しつつ、モデルパフォーマンスを改善する識別フリーな特徴の収集に役立つ。
公開されている実世界のデータセットに対する評価実験の結果,他の手法と比較してほぼ理想的フェアネスの測定結果が得られた。
関連論文リスト
- Achieve Fairness without Demographics for Dermatological Disease
Diagnosis [17.792332189055223]
そこで本研究では,テストフェーズにおいて,そのような情報を用いることなく,感度特性の公平な予測を可能にする手法を提案する。
特徴の絡み合いが公正性に与える影響を強調した先行研究から着想を得て,重要属性や対象属性に関連する特徴を捉えることにより,モデルの特徴を高める。
これにより、機密属性に関連する機能に頼ることなく、モデルがターゲット属性に関連する機能に基づいてのみ分類できることが保証される。
論文 参考訳(メタデータ) (2024-01-16T02:49:52Z) - Fairness Under Demographic Scarce Regime [7.523105080786704]
フェアネスと精度のトレードオフを改善する属性分類器を構築するためのフレームワークを提案する。
不確実な感度特性を持つ試料に公正性制約を課すことは、公正性-正確性トレードオフに悪影響を及ぼす可能性があることを示す。
我々のフレームワークは、ほとんどのベンチマークで真に敏感な属性に対する公平性制約で訓練されたモデルより優れている。
論文 参考訳(メタデータ) (2023-07-24T19:07:34Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Hyper-parameter Tuning for Fair Classification without Sensitive Attribute Access [12.447577504758485]
トレーニングデータや検証データの機密属性にアクセスすることなく、公平な分類器を訓練するフレームワークを提案する。
我々は,これらのプロキシラベルが平均精度制約下での公平性を最大化するために利用できることを理論的,実証的に示す。
論文 参考訳(メタデータ) (2023-02-02T19:45:50Z) - Revealing Unfair Models by Mining Interpretable Evidence [50.48264727620845]
機械学習の人気は、不公平なモデルがハイリスクなアプリケーションにデプロイされるリスクを高めている。
本稿では,解釈可能な証拠をマイニングすることで不公平なモデルを明らかにする新しい課題に取り組む。
本手法は,訓練されたモデルの不公平性を効果的に明らかにするために,極めて解釈可能な確固たる証拠を見出す。
論文 参考訳(メタデータ) (2022-07-12T20:03:08Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - Learning Fair Models without Sensitive Attributes: A Generative Approach [33.196044483534784]
本研究では,関係する特徴を探索することにより,重要属性を含まないフェアモデル学習の新たな課題について検討する。
トレーニングデータから感度特性を効果的に推定する確率的生成フレームワークを提案する。
実世界のデータセットを用いた実験結果から,本フレームワークの有効性が示された。
論文 参考訳(メタデータ) (2022-03-30T15:54:30Z) - You Can Still Achieve Fairness Without Sensitive Attributes: Exploring
Biases in Non-Sensitive Features [29.94644351343916]
本稿では,これらの特徴を同時利用して正確な予測とモデルの正則化を行う新しいフレームワークを提案する。
実世界のデータセットにおける実験結果は,提案モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-04-29T17:52:11Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。