論文の概要: Fair Credit Scorer through Bayesian Approach
- arxiv url: http://arxiv.org/abs/2301.08412v1
- Date: Fri, 20 Jan 2023 03:35:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-23 13:46:46.561822
- Title: Fair Credit Scorer through Bayesian Approach
- Title(参考訳): ベイズ的アプローチによる公正信用スコア
- Authors: Zhuo Zhao
- Abstract要約: 多くの分野で、機械学習モデルは一部のサブ人口に対して不公平な振る舞いをしている。
これらの不公平な行動は、歴史的および社会的要因によるトレーニングデータセットの既往のバイアスを考慮に入れることができる。
本稿では、クレジットスコアリングの現実的な応用に焦点を当て、公正な予測モデルを構築する。
- 参考スコア(独自算出の注目度): 1.044291921757248
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning currently plays an increasingly important role in people's
lives in areas such as credit scoring, auto-driving, disease diagnosing, and
insurance quoting. However, in many of these areas, machine learning models
have performed unfair behaviors against some sub-populations, such as some
particular groups of race, sex, and age. These unfair behaviors can be on
account of the pre-existing bias in the training dataset due to historical and
social factors. In this paper, we focus on a real-world application of credit
scoring and construct a fair prediction model by introducing latent variables
to remove the correlation between protected attributes, such as sex and age,
with the observable feature inputs, including house and job. For detailed
implementation, we apply Bayesian approaches, including the Markov Chain Monte
Carlo simulation, to estimate our proposed fair model.
- Abstract(参考訳): 機械学習は現在、信用スコア、自動運転、疾患診断、保険引用といった分野における人々の生活において、ますます重要な役割を担っている。
しかし、これらの領域の多くでは、機械学習モデルは特定の人種、性別、年齢などのサブ集団に対して不公平な行動を行っている。
これらの不公平な行動は、歴史的および社会的要因によるトレーニングデータセットの既往のバイアスを考慮することができる。
本稿では,信用スコアの現実世界への応用に注目し,性別や年齢などの保護属性と家や仕事などの観察可能な特徴入力との相関を解消するために潜在変数を導入することで,公正な予測モデルを構築する。
詳細な実装のために,マルコフ連鎖モンテカルロシミュレーションを含むベイズ法を適用し,提案するフェアモデルの推定を行う。
関連論文リスト
- Using Backbone Foundation Model for Evaluating Fairness in Chest Radiography Without Demographic Data [2.7436483977171333]
本研究の目的は,基礎モデルのバックボーンを埋め込み抽出器として用いることの有効性を検討することである。
我々は,これらのグループを,前処理,内処理,評価など,様々な段階のバイアス軽減に活用することを提案する。
論文 参考訳(メタデータ) (2024-08-28T20:35:38Z) - Gaussian Mixture Models for Affordance Learning using Bayesian Networks [50.18477618198277]
Affordancesはアクション、オブジェクト、エフェクト間の関係の基本的な記述である。
本稿では,世界を探究し,その感覚経験から自律的にこれらの余裕を学習するエンボディエージェントの問題にアプローチする。
論文 参考訳(メタデータ) (2024-02-08T22:05:45Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Gender Biases in Automatic Evaluation Metrics for Image Captioning [87.15170977240643]
画像キャプションタスクのためのモデルに基づく評価指標において、性別バイアスの体系的研究を行う。
偏りのある世代と偏りのない世代を区別できないことを含む、これらの偏りのあるメトリクスを使用することによる負の結果を実証する。
人間の判断と相関を損なうことなく、測定バイアスを緩和する簡便で効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:27:40Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Fair Inference for Discrete Latent Variable Models [12.558187319452657]
デュエルケアなしでデータに基づいて訓練された機械学習モデルは、特定の人口に対して不公平で差別的な行動を示すことが多い。
本研究では,変動分布に公平なペナルティを含む離散潜伏変数に対して,公平な変分推論手法を開発した。
提案手法の一般化と実世界への影響の可能性を示すため,刑事司法リスク評価のための特別目的グラフィカルモデルを構築した。
論文 参考訳(メタデータ) (2022-09-15T04:54:21Z) - Evaluation Gaps in Machine Learning Practice [13.963766987258161]
実際に、機械学習モデルの評価は、しばしば、非文脈化された予測行動の狭い範囲に焦点を当てる。
評価対象の理想化された幅と実際の評価対象の狭い焦点との間の評価ギャップについて検討した。
これらの特性を研究することで、規範的な影響を持つコミットメントの範囲について、機械学習分野の暗黙の仮定を実証する。
論文 参考訳(メタデータ) (2022-05-11T04:00:44Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Cross-model Fairness: Empirical Study of Fairness and Ethics Under Model Multiplicity [10.144058870887061]
1つの予測器が等しく機能するモデルのグループからアドホックに選択された場合、個人は害を受ける可能性があると我々は主張する。
これらの不公平性は実生活で容易に発見でき、技術的手段だけで緩和することは困難である可能性が示唆された。
論文 参考訳(メタデータ) (2022-03-14T14:33:39Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。