論文の概要: The Gendered Algorithm: Navigating Financial Inclusion & Equity in AI-facilitated Access to Credit
- arxiv url: http://arxiv.org/abs/2504.07312v2
- Date: Fri, 11 Apr 2025 21:16:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 10:02:51.382073
- Title: The Gendered Algorithm: Navigating Financial Inclusion & Equity in AI-facilitated Access to Credit
- Title(参考訳): ジェンダード・アルゴリズム:AIに精通したクレデンシャル・アクセスにおける金銭的包摂と平等をナビゲートする
- Authors: Genevieve Smith,
- Abstract要約: 金融技術(フィンテック)のトレンドは、信用スコアを提供するために携帯電話データと機械学習(ML)を使用することである。
本稿では、MLベースの代替融資アプリを開発する企業におけるリーダー、投資家、データサイエンティストとのインタビューデータに基づく。
開発者による基盤となるロジック、設計選択、管理上の決定が、どのように性別バイアスを埋め込んだり、挑戦したかを調べます。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: A growing trend in financial technology (fintech) is the use of mobile phone data and machine learning (ML) to provide credit scores- and subsequently, opportunities to access loans- to groups left out of traditional banking. This paper draws on interview data with leaders, investors, and data scientists at fintech companies developing ML-based alternative lending apps in low- and middle-income countries to explore financial inclusion and gender implications. More specifically, it examines how the underlying logics, design choices, and management decisions of ML-based alternative lending tools by fintechs embed or challenge gender biases, and consequently influence gender equity in access to finance. Findings reveal developers follow 'gender blind' approaches, grounded in beliefs that ML is objective and data reflects the truth. This leads to a lack of grappling with the ways data, features for creditworthiness, and access to apps are gendered. Overall, tools increase access to finance, but not gender equitably: Interviewees report less women access loans and receive lower amounts than men, despite being better repayers. Fintechs identify demand- and supply-side reasons for gender differences, but frame them as outside their responsibility. However, that women are observed as better repayers reveals a market inefficiency and potential discriminatory effect, further linked to profit optimization objectives. This research introduces the concept of encoded gender norms, whereby without explicit attention to the gendered nature of data and algorithmic design, AI tools reproduce existing inequalities. In doing so, they reinforce gender norms as self-fulfilling prophecies. The idea that AI is inherently objective and, when left alone, 'fair', is seductive and misleading. In reality, algorithms reflect the perspectives, priorities, and values of the people and institutions that design them.
- Abstract(参考訳): 金融技術(フィンテック)のトレンドは、携帯電話のデータと機械学習(ML)を使用して信用スコアを提供し、そしてその後、従来の銀行から離れたグループにローンにアクセスする機会を提供することである。
本稿では、低所得国と中所得国でMLベースの代替融資アプリを開発しているフィンテック企業のリーダー、投資家、データサイエンティストとのインタビューデータをもとに、財務的包摂とジェンダーの影響について検討する。
より具体的には、フィンテックによるMLベースの代替融資ツールの基本的なロジック、設計選択、管理決定がジェンダーバイアスを埋め込んだり、挑戦したりし、その結果、金融へのアクセスにおけるジェンダーエクイティに影響を及ぼすかを検討する。
発見は、MLが客観的でデータが真実を反映しているという信念に基づいて、開発者が'ジェンダーブラインド'アプローチに従うことを示している。
これにより、データ、信用力のための機能、アプリへのアクセスがジェンダー化される方法に不満を抱くことになる。
インタビュアーは、女性がローンにアクセスし、男性は男性よりも少ない金額を受け取ると報告している。
フィンテック企業は、性別の違いに対する需要とサプライサイドの理由を識別するが、それらを彼らの責任の外とみなす。
しかし、返済率の向上が市場不効率と潜在的な差別効果を浮き彫りにしており、さらに利益最適化の目的と結びついている。
本研究は、データとアルゴリズム設計の性別特性に明確な注意を払わずに、AIツールが既存の不平等を再現する、エンコードされたジェンダー規範の概念を紹介する。
そうすることで、彼らは自給自足の予言として性規範を強化します。
AIは本質的に客観的であり、単独で「フェア」であるという考えは誘惑的で誤解を招く。
実際、アルゴリズムはそれらを設計する人々や機関の視点、優先順位、価値を反映しています。
関連論文リスト
- The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [58.130894823145205]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - Revealing and Reducing Gender Biases in Vision and Language Assistants (VLAs) [82.57490175399693]
画像・テキスト・ビジョン言語アシスタント(VLA)22種における性別バイアスの検討
以上の結果から,VLAは実世界の作業不均衡など,データ中の人間のバイアスを再現する可能性が示唆された。
これらのモデルにおける性別バイアスを排除するため、微調整に基づくデバイアス法は、デバイアス化と性能維持の最良のトレードオフを実現する。
論文 参考訳(メタデータ) (2024-10-25T05:59:44Z) - Gender Bias of LLM in Economics: An Existentialism Perspective [1.024113475677323]
本稿では,大言語モデル(LLM)における性別バイアスについて検討する。
LLMは、明示的なジェンダーマーカーなしでもジェンダーステレオタイプを補強する。
LLMのバイアスは意図しない欠陥ではなく、合理的な処理の体系的な結果であると主張する。
論文 参考訳(メタデータ) (2024-10-14T01:42:01Z) - Gender Biases in LLMs: Higher intelligence in LLM does not necessarily solve gender bias and stereotyping [0.0]
大規模言語モデル(LLM)は、生命のあらゆる面で応用されているが、偏見、特にジェンダーのステレオタイピングに対する感受性は、倫理的懸念を引き起こす。
本研究では,新しい方法論,ペルソナに基づく枠組み,および高知能LLMがそのようなバイアスを低減させるか否かを調査するためのユニセックス名手法を紹介する。
論文 参考訳(メタデータ) (2024-09-30T05:22:54Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - Fair Models in Credit: Intersectional Discrimination and the
Amplification of Inequity [5.333582981327497]
筆者らはマイクロファイナンス・コンテキストにおけるそのようなアルゴリズムバイアスの影響を実証した。
法的に保護された特徴に加えて、単一親状態や子供の数などの敏感な属性は、不均衡な害をもたらすことが判明した。
論文 参考訳(メタデータ) (2023-08-01T10:34:26Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Crowd, Lending, Machine, and Bias [10.440847890315293]
機械学習アルゴリズムは, 一般投資家よりも, 既定確率の提示を正確に予測する。
機械予測がローンの選択に使用されると、投資家へのリターン率が高くなり、借り手への資金調達機会が増える。
本稿では,予測に焦点を絞ったMLアプリケーションに適用可能な,汎用的で効果的なデベーシング手法を提案する。
論文 参考訳(メタデータ) (2020-07-20T01:26:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。