論文の概要: Unwarranted Gender Disparity in Online P2P Lending: Evidence of
Affirmative Action
- arxiv url: http://arxiv.org/abs/2210.07864v1
- Date: Fri, 14 Oct 2022 14:38:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 11:41:47.520877
- Title: Unwarranted Gender Disparity in Online P2P Lending: Evidence of
Affirmative Action
- Title(参考訳): オンラインP2P貸出における性差 : 肯定行動の証拠
- Authors: Xudong Shen, Tianhui Tan, Tuan Q. Phan, Jussi Keppo
- Abstract要約: 我々は、不当性格差(UGD)という、より広い差別概念を推定する。
ほぼすべてのリターン率で有意な女性の好意が認められた。
オンラインP2P貸与は、男女格差を埋めるために従来の銀行融資を補完することができる。
- 参考スコア(独自算出の注目度): 1.4731169524644787
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Closing the gender gap in financial access is important. Most research tends
to empirically uncover the direct effect of gender on decisions. Yet, this view
overlooks other indirect channels of gender discrimination, leading to systemic
bias in identifying the overall discrimination effect. In this work, by
collaborating with one of the largest online P2P lending platforms in China, we
estimate a broadened discrimination notion called unwarranted gender disparity
(UGD). UGD recognizes any disparate lending decisions that do not commensurate
with the loan's return rate, encompassing direct, indirect, and proxy
discrimination. We develop a two-stage predictor substitution (2SPS) approach
to estimate UGD. Somewhat surprisingly, we find significant female favoritism
at almost all return rate levels. On average, female borrowers are 3.97% more
likely to be funded than male borrowers with identical return rates. We further
decompose and find at least 37.1% of UGD is indeed indirect or proxy
discrimination. However, we also identify the observed UGD favoring female can
be completely attributed to \emph{accurate statistical distribution}, which is
rationalized by women being less likely to default on their P2P loans. Our
results suggest that online P2P lending can complement traditional bank lending
in closing the gender gap, by providing an alternative credit market where the
affirmative action to support women can arise naturally from the rational
crowd.
- Abstract(参考訳): 金融アクセスにおける男女格差の解消は重要だ。
ほとんどの研究は、決定に対する性の影響を実証的に明らかにする傾向にある。
しかし、この見解は性差別の他の間接的チャネルを見落としており、全体的な差別効果を識別するシステムバイアスに繋がる。
本研究は、中国最大のオンラインp2p融資プラットフォームの一つと協働することで、不当性格差(unwarranted gender disparity,ugd)と呼ばれる幅広い差別概念を推定するものである。
UGDは、直接的、間接的、および代理的差別を含む、ローンの利率と相容れない異なる貸付け決定を認識している。
UGDを推定するための2段階予測器置換 (2SPS) 手法を開発した。
やや意外なことに、女性はほぼすべてのリターン率で好意的な傾向が見られた。
平均すると、女性借主は、同じ利子率の男性借主よりも3.97%高い。
ugdの少なくとも37.1%は間接的または代理的差別である。
しかし,女性に好まれるUGDは,P2Pローンの既定値が低い女性によって合理的に説明される「emph{accurate statistics distribution}」に帰属する可能性がある。
以上の結果から,オンラインp2p融資は,女性を支援するための肯定的な行動が合理的な群衆から自然に生じ得る代替信用市場を提供することにより,男女格差を解消する従来の銀行融資を補完することができることが示唆された。
関連論文リスト
- Shedding light on underrepresentation and Sampling Bias in machine
learning [0.0]
差別を分散、偏見、ノイズに分解する方法を示す。
我々は、未表現グループのサンプルを多く集めることで、識別に対処できるという、広く受け入れられている緩和アプローチに挑戦する。
論文 参考訳(メタデータ) (2023-06-08T09:34:20Z) - FRAMM: Fair Ranking with Missing Modalities for Clinical Trial Site
Selection [55.2629939137135]
本稿では, 試行サイト選択作業に焦点をあて, 公正な試行サイト選択のための深層強化学習フレームワークであるFRAMMを提案する。
我々は、公正なトライアルサイトの選択に影響を与える2つの現実的な課題に対処することに重点を置いている。データモダリティは、多くの潜在的なトライアルサイトでは不十分であり、サイトのセレクションは、入試と多様性の両方を同時に最適化する必要がある。
FRAMMは2016年から2021年までの4,392の臨床試験で評価し,FRAMMが入学のみの設定において最上位のベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2023-05-30T20:44:14Z) - Multi-dimensional discrimination in Law and Machine Learning -- A
comparative overview [14.650860450187793]
公正を意識した機械学習の領域は、AI/MLモデルにおけるバイアスの理解、緩和、説明のための方法とアルゴリズムに焦点を当てている。
実際には、人間のアイデンティティは多次元であり、複数の保護された特徴に基づいて識別を行うことができる。
この方向の最近のアプローチは、主に法域からのいわゆる交叉フェアネスの定義に従う。
論文 参考訳(メタデータ) (2023-02-12T20:41:58Z) - Deep Generative Views to Mitigate Gender Classification Bias Across
Gender-Race Groups [0.8594140167290097]
本稿では,性別・人種グループ間の偏見を低減し,分類精度を向上させるためのバイアス緩和戦略を提案する。
我々は、ジェンダー分類バイアスを軽減するために、生成的視点、構造化学習、そして明らかな学習の力を利用する。
論文 参考訳(メタデータ) (2022-08-17T16:23:35Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Marrying Fairness and Explainability in Supervised Learning [0.0]
我々は、保護属性の直接的な因果効果として直接識別を定式化する。
我々は、最先端のフェアラーニング手法は、関連性や逆の差別によって差別を誘発することができることを発見した。
本稿では,保護された属性がシステムの出力に与える影響を無効にするとともに,残りの特徴の影響を保存することを提案する。
論文 参考訳(メタデータ) (2022-04-06T17:26:58Z) - A Deep Dive into Dataset Imbalance and Bias in Face Identification [49.210042420757894]
メディアの描写は、自動顔認識システムにおけるバイアスの主な原因として、しばしば不均衡を浮き彫りにする。
FRにおけるデータ不均衡に関するこれまでの研究は、顔認証の設定にのみ焦点をあててきた。
この研究は、顔の識別における各種類の不均衡の影響を徹底的に調査し、この設定におけるバイアスに影響を与える他の要因について議論する。
論文 参考訳(メタデータ) (2022-03-15T20:23:13Z) - Context-Aware Discrimination Detection in Job Vacancies using
Computational Language Models [0.0]
差別的な職種は世界中で認められていないが、今も継続している。
差別的な職種は、直接候補者の人口構成に言及することで明確にすることができる。
暗黙の差別形態も存在し、必ずしも違法であるとは限らないが、それでも応募者の多様性に影響を与える可能性がある。
論文 参考訳(メタデータ) (2022-02-02T09:25:08Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Auditing for Discrimination in Algorithms Delivering Job Ads [70.02478301291264]
我々は,求人広告配信における識別アルゴリズムのブラックボックス監査のための新しい手法を開発した。
最初のコントリビューションは、性別や人種などの保護されたカテゴリーによる、広告配信における歪の区別です。
第2に,他の要因と資格の違いによって説明可能なスクリューを区別する監査手法を開発する。
第3に、提案手法を求人広告のための2つの主要なターゲット広告プラットフォーム、FacebookとLinkedInに適用する。
論文 参考訳(メタデータ) (2021-04-09T17:38:36Z) - Discrimination of POVMs with rank-one effects [62.997667081978825]
この研究は、ランクワン効果を持つ正の作用素値測度を識別する問題に関する洞察を与える。
パラレルとアダプティブの2つの予測手法を比較した。
この適応型スキームを見つけるための明示的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-02-13T11:34:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。