論文の概要: Fair Models in Credit: Intersectional Discrimination and the
Amplification of Inequity
- arxiv url: http://arxiv.org/abs/2308.02680v1
- Date: Tue, 1 Aug 2023 10:34:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 00:49:23.073400
- Title: Fair Models in Credit: Intersectional Discrimination and the
Amplification of Inequity
- Title(参考訳): 信用の公正なモデル--相互差別と不平等の増幅
- Authors: Savina Kim and Stefan Lessmann and Galina Andreeva and Michael
Rovatsos
- Abstract要約: 筆者らはマイクロファイナンス・コンテキストにおけるそのようなアルゴリズムバイアスの影響を実証した。
法的に保護された特徴に加えて、単一親状態や子供の数などの敏感な属性は、不均衡な害をもたらすことが判明した。
- 参考スコア(独自算出の注目度): 5.333582981327497
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing usage of new data sources and machine learning (ML) technology
in credit modeling raises concerns with regards to potentially unfair
decision-making that rely on protected characteristics (e.g., race, sex, age)
or other socio-economic and demographic data. The authors demonstrate the
impact of such algorithmic bias in the microfinance context. Difficulties in
assessing credit are disproportionately experienced among vulnerable groups,
however, very little is known about inequities in credit allocation between
groups defined, not only by single, but by multiple and intersecting social
categories. Drawing from the intersectionality paradigm, the study examines
intersectional horizontal inequities in credit access by gender, age, marital
status, single parent status and number of children. This paper utilizes data
from the Spanish microfinance market as its context to demonstrate how
pluralistic realities and intersectional identities can shape patterns of
credit allocation when using automated decision-making systems. With ML
technology being oblivious to societal good or bad, we find that a more
thorough examination of intersectionality can enhance the algorithmic fairness
lens to more authentically empower action for equitable outcomes and present a
fairer path forward. We demonstrate that while on a high-level, fairness may
exist superficially, unfairness can exacerbate at lower levels given
combinatorial effects; in other words, the core fairness problem may be more
complicated than current literature demonstrates. We find that in addition to
legally protected characteristics, sensitive attributes such as single parent
status and number of children can result in imbalanced harm. We discuss the
implications of these findings for the financial services industry.
- Abstract(参考訳): 信用モデリングにおける新しいデータソースと機械学習(ML)技術の利用の増加は、保護された特徴(人種、性別、年齢など)や社会経済的、人口統計学的データに依存する潜在的に不公平な意思決定に関する懸念を提起する。
著者らは、マイクロファイナンス文脈におけるそのようなアルゴリズムバイアスの影響を実証する。
信用評価の困難さは、脆弱なグループの間で不均等に経験されているが、単一のグループだけでなく、複数の社会的カテゴリによって定義されたグループ間の信用配分の不平等についてはほとんど知られていない。
交差性のパラダイムから、性別、年齢、婚姻状況、シングル親の地位、子供の数による信用アクセスにおける交差水平不等式について検討した。
本稿では,スペインのマイクロファイナンス市場からのデータをコンテキストとして利用し,自動意思決定システムを用いて複数現実性や交差点IDが信用配分のパターンを形成できることを示す。
ML技術は社会的善悪に難渋しているため、交叉性をより徹底的に検証することで、アルゴリズム的公正性レンズを強化し、公平な結果に対するアクションをより誠実に強化し、より公平な道を示すことができる。
高いレベルの公正性は表面的には存在するかもしれないが、組合せ効果によって低いレベルで不公平性は悪化し、言い換えれば、中核の公平性問題は現在の文献より複雑である。
法的に保護された特徴に加えて、単一親状態や子供の数などの敏感な属性は、不均衡な害をもたらす可能性がある。
金融サービス業界におけるこれらの発見の意義について論じる。
関連論文リスト
- GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - Group fairness without demographics using social networks [29.073125057536014]
グループフェアネス(英: Group Fairness)は、人種、性別、障害などのセンシティブな属性に基づいて、個人の好ましくない扱いを防止するための一般的なアプローチである。
そこで本稿では, センシティブな属性に依存しないフェアネスの「グループフリー」尺度を提案する。
論文 参考訳(メタデータ) (2023-05-19T00:45:55Z) - Equalizing Credit Opportunity in Algorithms: Aligning Algorithmic
Fairness Research with U.S. Fair Lending Regulation [27.517669481719388]
信用は、アメリカにおける財政の健全化に欠かせない要素である。
機械学習アルゴリズムは、クレジットへのアクセスを決定するためにますます使われている。
機械学習が「不公平」の様々なバージョンをエンコードできることが研究で示されている
論文 参考訳(メタデータ) (2022-10-05T19:23:29Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Towards A Holistic View of Bias in Machine Learning: Bridging
Algorithmic Fairness and Imbalanced Learning [8.602734307457387]
保護されたグループに対するアルゴリズムの公正性を達成する上で重要な要素は、基礎となるトレーニングデータにおいて、クラスと保護されたグループの不均衡を同時に減少させることである。
本稿では、スキュークラス分布と保護された特徴の両方に対処する新しいオーバーサンプリングアルゴリズム、Fair Oversamplingを提案する。
論文 参考訳(メタデータ) (2022-07-13T09:48:52Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Characterizing Intersectional Group Fairness with Worst-Case Comparisons [0.0]
我々は、公平度指標が交差性のレンズの下で検討される必要がある理由について議論する。
既存のグループ公平度指標の定義を拡張するための単純な最悪のケース比較方法を提案する。
現代の文脈における交差点の公平性を扱うための社会的、法的、政治的枠組みで締めくくります。
論文 参考訳(メタデータ) (2021-01-05T17:44:33Z) - Causal Multi-Level Fairness [4.937180141196767]
因果推論からツールを用いてマルチレベルフェアネスの問題を定式化する。
マクロレベルの微妙な属性が考慮されない場合、不公平な不公平さを示すことによって問題の重要性を示す。
論文 参考訳(メタデータ) (2020-10-14T18:26:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。