論文の概要: Structural Gender Bias in Credit Scoring: Proxy Leakage
- arxiv url: http://arxiv.org/abs/2601.18342v1
- Date: Mon, 26 Jan 2026 10:29:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.779046
- Title: Structural Gender Bias in Credit Scoring: Proxy Leakage
- Title(参考訳): クレディ・スコーリングの「ジェンダー・バイアス」、プロクシー・リークで
- Authors: Navya SD, Sreekanth D, SS Uma Sankari,
- Abstract要約: 本研究は台湾信用デフォルトデータセットにおける構造性バイアスの包括的監査を提供する。
明示的な保護属性の除去にもかかわらず, 性別予測信号が非感受性特徴に深く埋め込まれていることが本研究で実証された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As financial institutions increasingly adopt machine learning for credit risk assessment, the persistence of algorithmic bias remains a critical barrier to equitable financial inclusion. This study provides a comprehensive audit of structural gender bias within the Taiwan Credit Default dataset, specifically challenging the prevailing doctrine of "fairness through blindness." Despite the removal of explicit protected attributes and the application of industry standard fairness interventions, our results demonstrate that gendered predictive signals remain deeply embedded within non-sensitive features. Utilizing SHAP (SHapley Additive exPlanations), we identify that variables such as Marital Status, Age, and Credit Limit function as potent proxies for gender, allowing models to maintain discriminatory pathways while appearing statistically fair. To mathematically quantify this leakage, we employ an adversarial inverse modeling framework. Our findings reveal that the protected gender attribute can be reconstructed from purely non-sensitive financial features with an ROC AUC score of 0.65, demonstrating that traditional fairness audits are insufficient for detecting implicit structural bias. These results advocate for a shift from surface-level statistical parity toward causal-aware modeling and structural accountability in financial AI.
- Abstract(参考訳): 金融機関が信用リスク評価に機械学習を採用する度合いが高まる中、アルゴリズムバイアスの持続性は、公平な金融インクルージョンにとって重要な障壁である。
本研究は、台湾信用デフォルトデータセットにおける構造性バイアスの包括的監査を行い、特に「盲目による公正性」の原則に挑戦する。
明示的な保護属性の除去と業界標準公正介入の適用にもかかわらず,性別予測信号が非感受性特徴に深く埋め込まれていることが本研究で実証された。
SHAP (SHapley Additive exPlanations) を用いて, 婚姻状況, 年齢, クレディ・リミットなどの変数が, 性別の強力なプロキシとして機能し, 統計的に公正に識別経路を維持できることを示した。
このリークを数学的に定量化するために、逆逆モデリングフレームワークを用いる。
ROC AUCスコア0.65の純粋に非感受性な財務特徴から保護性属性を再構成できることが判明し、従来の公正度監査は暗黙的な構造バイアスを検出するのに不十分であることが判明した。
これらの結果は、金融AIにおける表面レベルの統計パリティから因果認識モデリングと構造的アカウンタビリティへのシフトを提唱している。
関連論文リスト
- Reliable and Reproducible Demographic Inference for Fairness in Face Analysis [63.46525489354455]
本稿では、従来のエンドツーエンドトレーニングをモジュラートランスファー学習アプローチで置き換える、完全に再現可能なDAIパイプラインを提案する。
このパイプラインは、正確性、公正性、そしてアイデンティティ内整合性によって定義される、新たに導入された堅牢性の概念の3つの次元にわたって監査する。
以上の結果から,提案手法は特に民族性において,強い基準線を上回り,その特性はより困難であることが示唆された。
論文 参考訳(メタデータ) (2025-10-23T12:22:02Z) - Enhancing Credit Risk Prediction: A Meta-Learning Framework Integrating Baseline Models, LASSO, and ECOC for Superior Accuracy [7.254744067646655]
本研究では,複数の相補的モデルを合成する包括的メタラーニングフレームワークを提案する。
我々は,全ての構成モデルにまたがる予測クラスに対して,置換特徴重要度分析を実装した。
その結果,我々の枠組みは,財務組織分類の精度を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2025-09-26T14:09:04Z) - Mitigating Bias in Facial Recognition Systems: Centroid Fairness Loss Optimization [9.537960917804993]
公正なAIシステムの社会的需要は、新しい公正性基準を満たす予測モデルを開発する研究コミュニティに圧力を与えている。
特に、特定の人口セグメントにまたがる特定の顔認識(FR)システムによる誤差の変動は、後者の展開を損なう。
本稿では,Centroid-based scores に作用する回帰損失を最適化することにより,事前学習されたFRモデルの公平性を改善するための新しいポストプロセッシング手法を提案する。
論文 参考訳(メタデータ) (2025-04-27T22:17:44Z) - KACDP: A Highly Interpretable Credit Default Prediction Model [2.776411854233918]
本稿では,KAN(Kolmogorov-Arnold Networks)に基づく手法を提案する。
Kansは学習可能なアクティベーション機能を持ち、線形重みを持たない新しいタイプのニューラルネットワークアーキテクチャである。
実験により、KACDPモデルは、パフォーマンス指標において、メインストリームの信用デフォルト予測モデルより優れていることが示された。
論文 参考訳(メタデータ) (2024-11-26T12:58:03Z) - The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [91.86718720024825]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - The Fairness of Credit Scoring Models [0.0]
信用市場において、スクリーニングアルゴリズムは、良いタイプの借主と悪いタイプの借主を区別することを目的としている。
これは意図せず、トレーニングデータセットから、あるいはモデル自体から生まれます。
評価モデルのアルゴリズムフェアネスの形式的検証方法と,フェアネスの欠如の原因となる変数の同定方法を示す。
論文 参考訳(メタデータ) (2022-05-20T14:20:40Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。