論文の概要: Less Discriminatory Alternative and Interpretable XGBoost Framework for Binary Classification
- arxiv url: http://arxiv.org/abs/2410.19067v1
- Date: Thu, 24 Oct 2024 18:20:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-28 13:37:53.751573
- Title: Less Discriminatory Alternative and Interpretable XGBoost Framework for Binary Classification
- Title(参考訳): バイナリ分類のための差別的代替と解釈可能なXGBoostフレームワーク
- Authors: Andrew Pangia, Agus Sudjianto, Aijun Zhang, Taufiquar Khan,
- Abstract要約: LDA-XGB1は、公平で解釈可能なバイナリ分類のための、識別の少ない代替(LDA)機械学習モデルである。
シミュレーションされた信用承認データセットであるSimuCreditと、実世界のレシビズム予測データセットであるCompASの2つのデータセット上でLDA-XGB1を評価する。
- 参考スコア(独自算出の注目度): 3.599866690398791
- License:
- Abstract: Fair lending practices and model interpretability are crucial concerns in the financial industry, especially given the increasing use of complex machine learning models. In response to the Consumer Financial Protection Bureau's (CFPB) requirement to protect consumers against unlawful discrimination, we introduce LDA-XGB1, a novel less discriminatory alternative (LDA) machine learning model for fair and interpretable binary classification. LDA-XGB1 is developed through biobjective optimization that balances accuracy and fairness, with both objectives formulated using binning and information value. It leverages the predictive power and computational efficiency of XGBoost while ensuring inherent model interpretability, including the enforcement of monotonic constraints. We evaluate LDA-XGB1 on two datasets: SimuCredit, a simulated credit approval dataset, and COMPAS, a real-world recidivism prediction dataset. Our results demonstrate that LDA-XGB1 achieves an effective balance between predictive accuracy, fairness, and interpretability, often outperforming traditional fair lending models. This approach equips financial institutions with a powerful tool to meet regulatory requirements for fair lending while maintaining the advantages of advanced machine learning techniques.
- Abstract(参考訳): 公正な融資慣行とモデル解釈可能性は、特に複雑な機械学習モデルの利用の増加を考えると、金融業界において重要な関心事である。
消費者金融保護局(CFPB)が消費者を不正な差別から保護する要件に応えて、公正かつ解釈可能な二項分類のための新しい差別的代替(LDA)機械学習モデルであるLDA-XGB1を導入する。
LDA-XGB1は、精度と公平性を両立させるバイオオブジェクト最適化によって開発され、両方の目的が結合と情報値を用いて定式化されている。
XGBoostの予測力と計算効率を活用し、モノトニック制約の実施を含む固有のモデルの解釈可能性を確保する。
シミュレーションされた信用承認データセットであるSimuCreditと、実世界のレシビズム予測データセットであるCompASの2つのデータセット上でLDA-XGB1を評価する。
その結果, LDA-XGB1は予測精度, 公平性, 解釈可能性のバランスを保ち, 従来のフェアレンディングモデルよりも優れていることがわかった。
このアプローチは、先進的な機械学習技術の利点を維持しつつ、公正融資の規制要件を満たす強力なツールを金融機関に提供する。
関連論文リスト
- Fair Bilevel Neural Network (FairBiNN): On Balancing fairness and accuracy via Stackelberg Equilibrium [0.3350491650545292]
バイアスを緩和する現在の方法は、情報損失と精度と公平性のバランスが不十分であることが多い。
本稿では,二段階最適化の原理に基づく新しい手法を提案する。
私たちのディープラーニングベースのアプローチは、正確性と公平性の両方を同時に最適化します。
論文 参考訳(メタデータ) (2024-10-21T18:53:39Z) - An Innovative Attention-based Ensemble System for Credit Card Fraud Detection [5.486205584465161]
本稿では,クレジットカード不正検出のためのユニークな注意に基づくアンサンブルモデルを提案する。
アンサンブルモデルの精度は 99.95% であり、曲線 (AUC) の下の面積は 1 である。
論文 参考訳(メタデータ) (2024-10-01T09:56:23Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Improving Fairness in Credit Lending Models using Subgroup Threshold Optimization [0.0]
textitSubgroup Threshold(textitSTO)と呼ばれる新しいフェアネス手法を導入する。
STOは、個々のサブグループの分類閾値を最適化して、それらの間の全体的な識別スコアを最小化する。
実世界の信用貸付データセットを用いた実験により、STOは性別差別を90%以上削減できることが示された。
論文 参考訳(メタデータ) (2024-03-15T19:36:56Z) - Can ChatGPT Forecast Stock Price Movements? Return Predictability and Large Language Models [51.3422222472898]
ニュース見出しを用いて,ChatGPTのような大規模言語モデル(LLM)の株価変動を予測する能力について述べる。
我々は,情報容量制約,過小反応,制限対アビタージュ,LLMを組み込んだ理論モデルを構築した。
論文 参考訳(メタデータ) (2023-04-15T19:22:37Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Fairness Reprogramming [42.65700878967251]
モデル再プログラミング手法を取り入れたFairRe Programと呼ばれる新しい汎用フェアネス学習パラダイムを提案する。
具体的には、FairRe Programはモデルを変更することができず、フェアネストリガと呼ばれる一連の摂動を入力に追加するケースについて検討している。
我々は,固定MLモデルの出力予測において,公平性トリガが効果的に人口統計バイアスを曖昧にすることができることを理論的および実証的に示す。
論文 参考訳(メタデータ) (2022-09-21T09:37:00Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - Towards Fair Knowledge Transfer for Imbalanced Domain Adaptation [61.317911756566126]
本研究では,不均衡なドメイン間学習における公平性問題に対処するTowards Fair Knowledge Transferフレームワークを提案する。
具体的には、新規なクロスドメインミックスアップ生成を利用して、ターゲット情報でマイノリティソースセットを増強し、公正性を高める。
本モデルでは,2つのベンチマークで全体の精度を20%以上向上させる。
論文 参考訳(メタデータ) (2020-10-23T06:29:09Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness by Explicability and Adversarial SHAP Learning [0.0]
本稿では,外部監査役の役割とモデル説明可能性を強調するフェアネスの新たな定義を提案する。
逆代理モデルのSHAP値から構築した正規化を用いてモデルバイアスを緩和するフレームワークを開発する。
合成データセット、UCIアダルト(国勢調査)データセット、実世界の信用評価データセットである。
論文 参考訳(メタデータ) (2020-03-11T14:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。