論文の概要: Uncovering the Source of Machine Bias
- arxiv url: http://arxiv.org/abs/2201.03092v1
- Date: Sun, 9 Jan 2022 21:05:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-11 15:36:40.108834
- Title: Uncovering the Source of Machine Bias
- Title(参考訳): マシンバイアスの発生源を明らかにする
- Authors: Xiyang Hu, Yan Huang, Beibei Li, Tian Lu
- Abstract要約: 性別による偏見、嗜好に基づく偏見、信念に基づく偏見は、人間の評価者の判断に現れる。
我々は,ジェンダーバイアスが融資の成果と企業と借主の福祉に与える影響を定量化する。
機械学習アルゴリズムは、好みに基づくバイアスと信念に基づくバイアスの両方を軽減することができる。
- 参考スコア(独自算出の注目度): 9.75150920742607
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop a structural econometric model to capture the decision dynamics of
human evaluators on an online micro-lending platform, and estimate the model
parameters using a real-world dataset. We find two types of biases in gender,
preference-based bias and belief-based bias, are present in human evaluators'
decisions. Both types of biases are in favor of female applicants. Through
counterfactual simulations, we quantify the effect of gender bias on loan
granting outcomes and the welfare of the company and the borrowers. Our results
imply that both the existence of the preference-based bias and that of the
belief-based bias reduce the company's profits. When the preference-based bias
is removed, the company earns more profits. When the belief-based bias is
removed, the company's profits also increase. Both increases result from
raising the approval probability for borrowers, especially male borrowers, who
eventually pay back loans. For borrowers, the elimination of either bias
decreases the gender gap of the true positive rates in the credit risk
evaluation. We also train machine learning algorithms on both the real-world
data and the data from the counterfactual simulations. We compare the decisions
made by those algorithms to see how evaluators' biases are inherited by the
algorithms and reflected in machine-based decisions. We find that machine
learning algorithms can mitigate both the preference-based bias and the
belief-based bias.
- Abstract(参考訳): オンラインマイクロレンディングプラットフォーム上で人間評価者の決定力学を捉える構造的計量モデルを構築し,実世界のデータセットを用いてモデルパラメータを推定する。
ジェンダーにおける2種類のバイアス(選好に基づくバイアスと信念に基づくバイアス)が、人間の評価者の決定に存在している。
どちらの種類の偏見も女性応募者に有利である。
反事実シミュレーションにより,企業や借主の貸付成果や福祉に対するジェンダーバイアスの効果を定量化する。
その結果,選好バイアスの存在と信念バイアスの存在の両方が企業の利益を減少させることが示唆された。
選好に基づくバイアスが取り除かれると、会社はより多くの利益を得る。
信念に基づく偏見が取り除かれると、会社の利益も増加する。
どちらも、最終的にローンを返済する借り手、特に男性借り手に対する承認確率を高める結果である。
借り手にとって、偏見の排除は信用リスク評価における正の正の男女差を減少させる。
また,実世界のデータと反事実シミュレーションのデータの両方で機械学習アルゴリズムをトレーニングする。
これらのアルゴリズムによる決定を比較し、評価者のバイアスがアルゴリズムによってどのように継承され、マシンベースの決定に反映されるかを確認する。
機械学習のアルゴリズムは、好みに基づくバイアスと信念に基づくバイアスの両方を軽減できる。
関連論文リスト
- Less can be more: representational vs. stereotypical gender bias in facial expression recognition [3.9698529891342207]
機械学習モデルは、トレーニングデータからバイアスを継承し、差別的または不正確な予測につながる。
本稿では、データセットから機械学習モデルへの人口統計バイアスの伝播について検討する。
ジェンダーの人口構成に焦点をあて、表現とステレオタイプという2種類の偏見を分析した。
論文 参考訳(メタデータ) (2024-06-25T09:26:49Z) - De-Biasing Models of Biased Decisions: A Comparison of Methods Using Mortgage Application Data [0.0]
本稿では、住宅ローン申請決定の実データに反実的(シミュレートされた)民族バイアスを加える。
このバイアスは、民族が予測変数として使用されていない場合でも、機械学習モデル(XGBoost)によって再現される。
論文 参考訳(メタデータ) (2024-05-01T23:46:44Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Whole Page Unbiased Learning to Rank [59.52040055543542]
アンバイアスド・ラーニング・トゥ・ランク(ULTR)アルゴリズムは、バイアスド・クリックデータを用いたアンバイアスド・ランキングモデルを学ぶために提案される。
本稿では,BALというアルゴリズムをランク付けするバイアス非依存学習を提案する。
実世界のデータセットによる実験結果から,BALの有効性が検証された。
論文 参考訳(メタデータ) (2022-10-19T16:53:08Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - Cross Pairwise Ranking for Unbiased Item Recommendation [57.71258289870123]
我々はCPR(Cross Pairwise Ranking)という新しい学習パラダイムを開発する。
CPRは、露出メカニズムを知らずに不偏の推奨を達成する。
理論的には、この方法が学習に対するユーザ/イテムの適合性の影響を相殺することを証明する。
論文 参考訳(メタデータ) (2022-04-26T09:20:27Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - On the Basis of Sex: A Review of Gender Bias in Machine Learning
Applications [0.0]
まず、機械学習のジェンダーバイアスの実践例をいくつか紹介する。
次に、機械学習モデルをより公平にする方法に対処するために、最も広く使われているフェアネスの形式化を詳述する。
論文 参考訳(メタデータ) (2021-04-06T14:11:16Z) - Fairness Through Robustness: Investigating Robustness Disparity in Deep
Learning [61.93730166203915]
我々は、モデルが敵の攻撃に弱い場合、従来の公平性の概念では不十分であると主張する。
頑健性バイアスを測定することはDNNにとって難しい課題であり,この2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-17T22:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。