論文の概要: Unwarranted Gender Disparity in Online P2P Lending: Evidence of
Affirmative Action
- arxiv url: http://arxiv.org/abs/2210.07864v1
- Date: Fri, 14 Oct 2022 14:38:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 11:41:47.520877
- Title: Unwarranted Gender Disparity in Online P2P Lending: Evidence of
Affirmative Action
- Title(参考訳): オンラインP2P貸出における性差 : 肯定行動の証拠
- Authors: Xudong Shen, Tianhui Tan, Tuan Q. Phan, Jussi Keppo
- Abstract要約: 我々は、不当性格差(UGD)という、より広い差別概念を推定する。
ほぼすべてのリターン率で有意な女性の好意が認められた。
オンラインP2P貸与は、男女格差を埋めるために従来の銀行融資を補完することができる。
- 参考スコア(独自算出の注目度): 1.4731169524644787
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Closing the gender gap in financial access is important. Most research tends
to empirically uncover the direct effect of gender on decisions. Yet, this view
overlooks other indirect channels of gender discrimination, leading to systemic
bias in identifying the overall discrimination effect. In this work, by
collaborating with one of the largest online P2P lending platforms in China, we
estimate a broadened discrimination notion called unwarranted gender disparity
(UGD). UGD recognizes any disparate lending decisions that do not commensurate
with the loan's return rate, encompassing direct, indirect, and proxy
discrimination. We develop a two-stage predictor substitution (2SPS) approach
to estimate UGD. Somewhat surprisingly, we find significant female favoritism
at almost all return rate levels. On average, female borrowers are 3.97% more
likely to be funded than male borrowers with identical return rates. We further
decompose and find at least 37.1% of UGD is indeed indirect or proxy
discrimination. However, we also identify the observed UGD favoring female can
be completely attributed to \emph{accurate statistical distribution}, which is
rationalized by women being less likely to default on their P2P loans. Our
results suggest that online P2P lending can complement traditional bank lending
in closing the gender gap, by providing an alternative credit market where the
affirmative action to support women can arise naturally from the rational
crowd.
- Abstract(参考訳): 金融アクセスにおける男女格差の解消は重要だ。
ほとんどの研究は、決定に対する性の影響を実証的に明らかにする傾向にある。
しかし、この見解は性差別の他の間接的チャネルを見落としており、全体的な差別効果を識別するシステムバイアスに繋がる。
本研究は、中国最大のオンラインp2p融資プラットフォームの一つと協働することで、不当性格差(unwarranted gender disparity,ugd)と呼ばれる幅広い差別概念を推定するものである。
UGDは、直接的、間接的、および代理的差別を含む、ローンの利率と相容れない異なる貸付け決定を認識している。
UGDを推定するための2段階予測器置換 (2SPS) 手法を開発した。
やや意外なことに、女性はほぼすべてのリターン率で好意的な傾向が見られた。
平均すると、女性借主は、同じ利子率の男性借主よりも3.97%高い。
ugdの少なくとも37.1%は間接的または代理的差別である。
しかし,女性に好まれるUGDは,P2Pローンの既定値が低い女性によって合理的に説明される「emph{accurate statistics distribution}」に帰属する可能性がある。
以上の結果から,オンラインp2p融資は,女性を支援するための肯定的な行動が合理的な群衆から自然に生じ得る代替信用市場を提供することにより,男女格差を解消する従来の銀行融資を補完することができることが示唆された。
関連論文リスト
- The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [58.130894823145205]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - Evaluating Gender, Racial, and Age Biases in Large Language Models: A Comparative Analysis of Occupational and Crime Scenarios [0.0]
本稿では,Large Language Models(LLMs)におけるバイアスについて検討する。
LLMは、様々な職業において、男性よりも頻繁に女性キャラクターを描いていることが判明した。
性別と人種の偏見を減らそうとする努力は、しばしば1つのサブクラスを超越する結果をもたらす。
論文 参考訳(メタデータ) (2024-09-22T20:21:20Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - Multi-dimensional discrimination in Law and Machine Learning -- A
comparative overview [14.650860450187793]
公正を意識した機械学習の領域は、AI/MLモデルにおけるバイアスの理解、緩和、説明のための方法とアルゴリズムに焦点を当てている。
実際には、人間のアイデンティティは多次元であり、複数の保護された特徴に基づいて識別を行うことができる。
この方向の最近のアプローチは、主に法域からのいわゆる交叉フェアネスの定義に従う。
論文 参考訳(メタデータ) (2023-02-12T20:41:58Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Marrying Fairness and Explainability in Supervised Learning [0.0]
我々は、保護属性の直接的な因果効果として直接識別を定式化する。
我々は、最先端のフェアラーニング手法は、関連性や逆の差別によって差別を誘発することができることを発見した。
本稿では,保護された属性がシステムの出力に与える影響を無効にするとともに,残りの特徴の影響を保存することを提案する。
論文 参考訳(メタデータ) (2022-04-06T17:26:58Z) - Context-Aware Discrimination Detection in Job Vacancies using
Computational Language Models [0.0]
差別的な職種は世界中で認められていないが、今も継続している。
差別的な職種は、直接候補者の人口構成に言及することで明確にすることができる。
暗黙の差別形態も存在し、必ずしも違法であるとは限らないが、それでも応募者の多様性に影響を与える可能性がある。
論文 参考訳(メタデータ) (2022-02-02T09:25:08Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Discrimination of POVMs with rank-one effects [62.997667081978825]
この研究は、ランクワン効果を持つ正の作用素値測度を識別する問題に関する洞察を与える。
パラレルとアダプティブの2つの予測手法を比較した。
この適応型スキームを見つけるための明示的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-02-13T11:34:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。