論文の概要: A Distributionally Robust Optimisation Approach to Fair Credit Scoring
- arxiv url: http://arxiv.org/abs/2402.01811v1
- Date: Fri, 2 Feb 2024 11:43:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 01:55:12.334836
- Title: A Distributionally Robust Optimisation Approach to Fair Credit Scoring
- Title(参考訳): 公正信用評価のための分布ロバスト最適化手法
- Authors: Pablo Casas, Christophe Mues, Huan Yu
- Abstract要約: クレジットスコアリングは、欧州委員会と米国大統領の執行部によって、リスクの高い分類タスクとしてカタログ化されている。
この懸念に対処するため、近年の信用スコアリング研究は、公平性向上技術の範囲を検討した。
- 参考スコア(独自算出の注目度): 2.8851756275902467
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Credit scoring has been catalogued by the European Commission and the
Executive Office of the US President as a high-risk classification task, a key
concern being the potential harms of making loan approval decisions based on
models that would be biased against certain groups. To address this concern,
recent credit scoring research has considered a range of fairness-enhancing
techniques put forward by the machine learning community to reduce bias and
unfair treatment in classification systems. While the definition of fairness or
the approach they follow to impose it may vary, most of these techniques,
however, disregard the robustness of the results. This can create situations
where unfair treatment is effectively corrected in the training set, but when
producing out-of-sample classifications, unfair treatment is incurred again.
Instead, in this paper, we will investigate how to apply Distributionally
Robust Optimisation (DRO) methods to credit scoring, thereby empirically
evaluating how they perform in terms of fairness, ability to classify
correctly, and the robustness of the solution against changes in the marginal
proportions. In so doing, we find DRO methods to provide a substantial
improvement in terms of fairness, with almost no loss in performance. These
results thus indicate that DRO can improve fairness in credit scoring, provided
that further advances are made in efficiently implementing these systems. In
addition, our analysis suggests that many of the commonly used fairness metrics
are unsuitable for a credit scoring setting, as they depend on the choice of
classification threshold.
- Abstract(参考訳): 信用スコアリングは欧州委員会と米大統領の執行部がハイリスクな分類タスクとして分類しており、特定のグループに偏見を抱くモデルに基づいてローン承認決定を下すことの潜在的危険が懸念されている。
この懸念に対処するため、近年の信用スコアリング研究は、分類システムにおけるバイアスと不公平な扱いを減らすために、機械学習コミュニティが進める公平性向上技術の範囲を検討した。
公平性の定義やそれらが課すアプローチは様々であるが、これらの手法のほとんどは結果の堅牢性を無視している。
これにより、トレーニングセット内で不公平な扱いが効果的に修正される状況が生まれるが、サンプル外の分類を作成する場合、不公平な扱いが再び発生する。
そこで本論文では,分散ロバスト最適化(DRO)法をクレジットスコアリングに適用する方法について検討し,公平性,正しく分類する能力,限界割合の変化に対する解の堅牢性について実証的に評価する。
このようにして、DRO法はフェアネスの面で大幅に改善され、性能がほとんど損なわれない。
これらの結果から,DROはクレジットスコアリングの公平性を向上し,これらのシステムを効率的に実装するためのさらなる進歩が期待できる。
さらに,本分析では,分類基準の選択に依存するため,一般的なフェアネス指標の多くは信用スコア設定には適さないことが示唆された。
関連論文リスト
- Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Learning Fair Ranking Policies via Differentiable Optimization of
Ordered Weighted Averages [55.04219793298687]
本稿では,学習からランクへの学習ループに,効率よく解ける公正ランキングモデルを組み込む方法について述べる。
特に,本論文は,OWA目標の制約された最適化を通じてバックプロパゲーションを行う方法を示す最初のものである。
論文 参考訳(メタデータ) (2024-02-07T20:53:53Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Fairness in Ranking under Disparate Uncertainty [24.401219403555814]
我々は、基礎となる関連モデルの不確実性がオプション群間で異なる場合、ランク付けは不公平をもたらす可能性があると論じる。
ランク付けのための新しい公正基準として平等ランク付け(EOR)を提案する。
異なる不確実性が存在する場合でも、EORは関連する選択肢の中でグループワイドフェア・宝くじに対応していることを示す。
論文 参考訳(メタデータ) (2023-09-04T13:49:48Z) - Inference-time Stochastic Ranking with Risk Control [19.20938164194589]
ランク付け方法の学習はオンライン経済において不可欠であり、ユーザやアイテムプロバイダに影響を与える。
本稿では,事前学習されたスコアリング関数に対して,保証されたユーティリティや公平さで推論時にランク付けを行う新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-12T15:44:58Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - RAGUEL: Recourse-Aware Group Unfairness Elimination [2.720659230102122]
「algorithmic recourse」は、望ましくない結果を変えるための実行可能な回復行動を提供する。
ランク付けされたグループレベルのリコースフェアネスの概念を導入する。
我々は、ランク付けされたrecourse Fairness制約を満たす'recourse-aware ranking'ソリューションを開発する。
論文 参考訳(メタデータ) (2022-08-30T11:53:38Z) - The Fairness of Credit Scoring Models [0.0]
信用市場において、スクリーニングアルゴリズムは、良いタイプの借主と悪いタイプの借主を区別することを目的としている。
これは意図せず、トレーニングデータセットから、あるいはモデル自体から生まれます。
評価モデルのアルゴリズムフェアネスの形式的検証方法と,フェアネスの欠如の原因となる変数の同定方法を示す。
論文 参考訳(メタデータ) (2022-05-20T14:20:40Z) - Fairness in Credit Scoring: Assessment, Implementation and Profit
Implications [4.19608893667939]
アルゴリズムによる識別は,比較的低コストで合理的なレベルまで低減できることを示す。
複数のフェアネス基準をほぼ同時に満たすことができ、スコアカードのフェアネスを測定するための適切な基準として分離を識別できる。
論文 参考訳(メタデータ) (2021-03-02T18:06:44Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - On Positive-Unlabeled Classification in GAN [130.43248168149432]
本稿では,標準GANに対する肯定的かつ未ラベルの分類問題を定義する。
その後、GANにおける差別者の訓練を安定させる新しい手法が導かれる。
論文 参考訳(メタデータ) (2020-02-04T05:59:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。