論文の概要: Developing a novel fair-loan-predictor through a multi-sensitive
debiasing pipeline: DualFair
- arxiv url: http://arxiv.org/abs/2110.08944v1
- Date: Sun, 17 Oct 2021 23:13:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 15:04:40.528499
- Title: Developing a novel fair-loan-predictor through a multi-sensitive
debiasing pipeline: DualFair
- Title(参考訳): 多感度脱バイアスパイプラインによる新しいフェアローン予測器DualFairの開発
- Authors: Arashdeep Singh, Jashandeep Singh, Ariba Khan, and Amar Gupta
- Abstract要約: 我々は、DualFairと呼ばれる新しいバイアス緩和手法を作成し、MSPSOを扱える新しい公正度指標(すなわち、AWI)を開発する。
我々は、米国住宅ローンの包括的データセットを用いて、新しい緩和手法を検証し、我々の分類器、すなわち公正貸付予測器が、現在の最先端モデルよりも優れた公正度と精度の指標を得ることを示す。
- 参考スコア(独自算出の注目度): 2.149265948858581
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning (ML) models are increasingly used for high-stake
applications that can greatly impact people's lives. Despite their use, these
models have the potential to be biased towards certain social groups on the
basis of race, gender, or ethnicity. Many prior works have attempted to
mitigate this "model discrimination" by updating the training data
(pre-processing), altering the model learning process (in-processing), or
manipulating model output (post-processing). However, these works have not yet
been extended to the realm of multi-sensitive parameters and sensitive options
(MSPSO), where sensitive parameters are attributes that can be discriminated
against (e.g race) and sensitive options are options within sensitive
parameters (e.g black or white), thus giving them limited real-world usability.
Prior work in fairness has also suffered from an accuracy-fairness tradeoff
that prevents both the accuracy and fairness from being high. Moreover,
previous literature has failed to provide holistic fairness metrics that work
with MSPSO. In this paper, we solve all three of these problems by (a) creating
a novel bias mitigation technique called DualFair and (b) developing a new
fairness metric (i.e. AWI) that can handle MSPSO. Lastly, we test our novel
mitigation method using a comprehensive U.S mortgage lending dataset and show
that our classifier, or fair loan predictor, obtains better fairness and
accuracy metrics than current state-of-the-art models.
- Abstract(参考訳): 機械学習(ml)モデルは、人々の生活に大きな影響を与える高リスクアプリケーションのためにますます使われています。
使用にもかかわらず、これらのモデルは人種、性別、民族に基づいて特定の社会集団に偏る可能性がある。
多くの先行研究は、トレーニングデータ(前処理)の更新、モデル学習プロセスの変更(内処理)、モデル出力の操作(後処理)によって、この「モデル識別」を緩和しようと試みている。
しかし、これらの研究はまだマルチセンシティブなパラメータとセンシティブなオプション(MSPSO)の領域にまで拡張されておらず、センシティブなパラメータは(人種など)区別できる属性であり、センシティブなオプションはセンシティブなパラメータ(例えば、黒や白など)のオプションであり、現実のユーザビリティに制限を与えている。
フェアネスにおける以前の作業は、正確さと公正さの両方が高いことを防ぐ正確さのトレードオフにも悩まされてきた。
さらに、過去の文献は、MSPSOで動作する全体的公正度指標を提供しなかった。
本稿では,これら3つの問題をすべて解決する。
(a)デュアルフェアという,新しいバイアス緩和技術の作成
(b)mspsoを扱うことができる新しい公平度指標(すなわちawi)の開発。
最後に,米国の包括的住宅ローン貸付データセットを用いて,新たな緩和手法を検証し,この分類器,すなわち公正貸付予測器が,現在の最先端モデルよりも公平性と精度の指標を得ることを示す。
関連論文リスト
- BMFT: Achieving Fairness via Bias-based Weight Masking Fine-tuning [17.857930204697983]
Bias-based Weight Masking Fine-Tuning (BMFT) は、訓練されたモデルの公平性を大幅に向上させる新しい後処理手法である。
BMFTはモデルパラメータの上にマスクを生成し、偏りのある予測に最も寄与する重みを効率的に識別する。
4つの皮膚科学データセットと2つの感度特性による実験により、BMFTは診断精度と公正度の両方で既存の最先端(SOTA)技術より優れていることが示された。
論文 参考訳(メタデータ) (2024-08-13T13:36:48Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Marginal Debiased Network for Fair Visual Recognition [59.05212866862219]
本稿では,デバイアス表現を学習するための新しい限界脱バイアスネットワーク(MDN)を提案する。
我々のMDNは、表現不足のサンプルに対して顕著な性能を達成できる。
論文 参考訳(メタデータ) (2024-01-04T08:57:09Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - A Differentiable Distance Approximation for Fairer Image Classification [31.471917430653626]
我々は,AIモデルにおいて,偏りや不公平さを測定するために使用できる指標である,人口統計の分散の微分可能な近似を提案する。
我々の近似は、トレーニング中に余分なモデルを必要としない通常のトレーニング目標と共に最適化できる。
提案手法は,タスクやデータセットのさまざまなシナリオにおけるAIモデルの公平性を改善する。
論文 参考訳(メタデータ) (2022-10-09T23:02:18Z) - Fairness Reprogramming [42.65700878967251]
モデル再プログラミング手法を取り入れたFairRe Programと呼ばれる新しい汎用フェアネス学習パラダイムを提案する。
具体的には、FairRe Programはモデルを変更することができず、フェアネストリガと呼ばれる一連の摂動を入力に追加するケースについて検討している。
我々は,固定MLモデルの出力予測において,公平性トリガが効果的に人口統計バイアスを曖昧にすることができることを理論的および実証的に示す。
論文 参考訳(メタデータ) (2022-09-21T09:37:00Z) - Promoting Fairness through Hyperparameter Optimization [4.479834103607383]
この研究は、現実世界の不正検出アプリケーションの文脈において、従来のMLモデル開発から生じる不公平さを探求する。
本稿では,一般的な3つのhoアルゴリズム,fair random search,fair tpe,fairbandの提案と評価を行う。
我々は、現実の銀行口座の不正使用事例のオープニングと、フェアネス文献からの3つのデータセットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2021-03-23T17:36:22Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。