論文の概要: Fairness in Credit Scoring: Assessment, Implementation and Profit
Implications
- arxiv url: http://arxiv.org/abs/2103.01907v1
- Date: Tue, 2 Mar 2021 18:06:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 16:57:12.132583
- Title: Fairness in Credit Scoring: Assessment, Implementation and Profit
Implications
- Title(参考訳): 信用スコアリングにおける公平性:アセスメント、実施、利益インプリケーション
- Authors: Nikita Kozodoi, Johannes Jacob, Stefan Lessmann
- Abstract要約: アルゴリズムによる識別は,比較的低コストで合理的なレベルまで低減できることを示す。
複数のフェアネス基準をほぼ同時に満たすことができ、スコアカードのフェアネスを測定するための適切な基準として分離を識別できる。
- 参考スコア(独自算出の注目度): 4.19608893667939
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rise of algorithmic decision-making has spawned much research on fair
machine learning (ML). Financial institutions use ML for building risk
scorecards that support a range of credit-related decisions. Yet, the
literature on fair ML in credit scoring is scarce. The paper makes two
contributions. First, we provide a systematic overview of algorithmic options
for incorporating fairness goals in the ML model development pipeline. In this
scope, we also consolidate the space of statistical fairness criteria and
examine their adequacy for credit scoring. Second, we perform an empirical
study of different fairness processors in a profit-oriented credit scoring
setup using seven real-world data sets. The empirical results substantiate the
evaluation of fairness measures, identify more and less suitable options to
implement fair credit scoring, and clarify the profit-fairness trade-off in
lending decisions. Specifically, we find that multiple fairness criteria can be
approximately satisfied at once and identify separation as a proper criterion
for measuring the fairness of a scorecard. We also find fair in-processors to
deliver a good balance between profit and fairness. More generally, we show
that algorithmic discrimination can be reduced to a reasonable level at a
relatively low cost.
- Abstract(参考訳): アルゴリズムによる意思決定の台頭は、公正機械学習(ML)に関する多くの研究を生み出した。
金融機関は、さまざまな信用関連の決定をサポートするリスクスコアカードを構築するためにMLを使用します。
しかし、信用スコアリングにおける公正MLに関する文献は乏しい。
論文には2つの貢献がある。
まず、MLモデル開発パイプラインに公平性目標を組み込むためのアルゴリズムオプションの体系的な概要を提供する。
この範囲では、統計的公平性基準の空間を集約し、信用スコアの妥当性を検討します。
第2に,7つの実世界のデータセットを用いて,利益指向の信用スコア設定において,異なる公平性プロセッサについて実証研究を行う。
実証的な結果は、公平性措置の評価を実証し、公正な信用スコアリングを実行するためのますます適切なオプションを特定し、貸付決定における利益公平性トレードオフを明確にします。
具体的には、複数のフェアネス基準をほぼ同時に満たし、スコアカードのフェアネスを測定するための適切な基準として分離を識別する。
また、公正なプロセッサは利益と公平さのバランスを良好に保ちます。
より一般的には、比較的低コストでアルゴリズムの識別を合理的なレベルに還元できることを示す。
関連論文リスト
- Intrinsic Fairness-Accuracy Tradeoffs under Equalized Odds [8.471466670802817]
等化確率の統計的概念の下で、公正性と精度のトレードオフについて検討する。
フェアネス予算の関数として, 精度の新たな上限を提示する。
以上の結果から,低バイアス群に対する高い精度の達成は,グループ間の統計的格差に基づいて根本的に制限される可能性が示唆された。
論文 参考訳(メタデータ) (2024-05-12T23:15:21Z) - A Distributionally Robust Optimisation Approach to Fair Credit Scoring [2.8851756275902467]
クレジットスコアリングは、欧州委員会と米国大統領の執行部によって、リスクの高い分類タスクとしてカタログ化されている。
この懸念に対処するため、近年の信用スコアリング研究は、公平性向上技術の範囲を検討した。
論文 参考訳(メタデータ) (2024-02-02T11:43:59Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Empowering Many, Biasing a Few: Generalist Credit Scoring through Large
Language Models [53.620827459684094]
大規模言語モデル(LLM)は、複数のタスクにまたがる強力な一般化能力を持つ信用スコアリングタスクにおいて大きな可能性を秘めている。
クレジットスコアリングのための LLM を探索する,初のオープンソース包括的フレームワークを提案する。
そこで我々は,各種金融リスク評価タスクの煩雑な要求に合わせて,指導チューニングによる最初の信用・リスク評価大言語モデル(CALM)を提案する。
論文 参考訳(メタデータ) (2023-10-01T03:50:34Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - FaiREE: Fair Classification with Finite-Sample and Distribution-Free
Guarantee [40.10641140860374]
FaiREE は群フェアネス制約を有限サンプルと分布自由な理論保証で満たす公平な分類アルゴリズムである。
FaiREEは最先端のアルゴリズムよりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-11-28T05:16:20Z) - Algorithmic Fairness and Vertical Equity: Income Fairness with IRS Tax
Audit Models [73.24381010980606]
本研究は、IRSによる税務監査選択を通知するシステムの文脈におけるアルゴリズムフェアネスの問題について検討する。
監査を選択するための柔軟な機械学習手法が、垂直エクイティにどのように影響するかを示す。
この結果は,公共セクター全体でのアルゴリズムツールの設計に影響を及ぼす。
論文 参考訳(メタデータ) (2022-06-20T16:27:06Z) - The Fairness of Credit Scoring Models [0.0]
信用市場において、スクリーニングアルゴリズムは、良いタイプの借主と悪いタイプの借主を区別することを目的としている。
これは意図せず、トレーニングデータセットから、あるいはモデル自体から生まれます。
評価モデルのアルゴリズムフェアネスの形式的検証方法と,フェアネスの欠如の原因となる変数の同定方法を示す。
論文 参考訳(メタデータ) (2022-05-20T14:20:40Z) - Making ML models fairer through explanations: the case of LimeOut [7.952582509792971]
アルゴリズムによる決定は今では日常的に使われており、複雑でバイアスのかかる機械学習(ML)プロセスに基づいている。
これは、偏見のある決定が個人や社会全体に与える影響を考えると、いくつかの懸念を提起する。
モデルフェアネスを改善するために,「フィーチャードロップアウト」というシンプルなアイデアと「アンサンブルアプローチ」を併用する方法について述べる。
論文 参考訳(メタデータ) (2020-11-01T19:07:11Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。