論文の概要: A benchmark study on methods to ensure fair algorithmic decisions for
credit scoring
- arxiv url: http://arxiv.org/abs/2209.07912v1
- Date: Fri, 16 Sep 2022 13:24:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 12:14:58.909857
- Title: A benchmark study on methods to ensure fair algorithmic decisions for
credit scoring
- Title(参考訳): 信用スコアの公平なアルゴリズム決定のための方法に関するベンチマーク研究
- Authors: Darie Moldovan
- Abstract要約: 本稿は,5つのフェアネス指標に基づいて,評価を議論する上位12のバイアス緩和手法をベンチマークする。
それは、最高のパフォーマーと最悪のパフォーマーのいくつかを強調し、実験的な機械学習と工業的応用のギャップを埋めるのに役立つ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The utility of machine learning in evaluating the creditworthiness of loan
applicants has been proofed since decades ago. However, automatic decisions may
lead to different treatments over groups or individuals, potentially causing
discrimination. This paper benchmarks 12 top bias mitigation methods discussing
their performance based on 5 different fairness metrics, accuracy achieved and
potential profits for the financial institutions. Our findings show the
difficulties in achieving fairness while preserving accuracy and profits.
Additionally, it highlights some of the best and worst performers and helps
bridging the gap between experimental machine learning and its industrial
application.
- Abstract(参考訳): ローン申請者の信用度を評価する機械学習の有用性は、数十年前から証明されている。
しかし、自動的な決定はグループや個人に対して異なる扱いをし、差別を引き起こす可能性がある。
本論文は,5つの評価基準,正確性,金融機関の潜在的利益に基づいて,そのパフォーマンスを議論する上位12のバイアス緩和手法をベンチマークする。
本研究は,正確性と利益を保ちながら公平性を達成することの難しさを示す。
さらには、最高のパフォーマンスと最悪のパフォーマンスをいくつか強調し、実験的な機械学習と、その産業アプリケーションとのギャップを埋めるのに役立ちます。
関連論文リスト
- Fairness in Reinforcement Learning with Bisimulation Metrics [45.674943127750595]
公平さを考慮せずに報酬を最大化することにより、AIエージェントはグループや個人の扱いに格差を導入することができる。
そこで本研究では,バイシミュレーションのメトリクスを利用して報酬関数と観測ダイナミクスを学習する手法を提案する。
論文 参考訳(メタデータ) (2024-12-22T18:23:06Z) - Best Practices for Responsible Machine Learning in Credit Scoring [0.03984353141309896]
本チュートリアルでは、クレジットスコアリングにおいて、責任ある機械学習モデルを開発するためのベストプラクティスを導くために、非体系的な文献レビューを行った。
我々は、偏見を緩和し、異なるグループ間で公平な結果を確保するための定義、メトリクス、技術について議論する。
これらのベストプラクティスを採用することで、金融機関は倫理的かつ責任ある融資プラクティスを維持しながら、機械学習の力を利用することができる。
論文 参考訳(メタデータ) (2024-09-30T17:39:38Z) - Ensuring Equitable Financial Decisions: Leveraging Counterfactual Fairness and Deep Learning for Bias [0.0]
本研究では,データ拡張に伴う対実的公正性に着目した高度なバイアス緩和手法について検討する。
この研究は、これらの統合アプローチが金融業界、特にローン承認手続きにおけるジェンダーバイアスを緩和する方法について考察している。
論文 参考訳(メタデータ) (2024-08-27T14:28:06Z) - Are we making progress in unlearning? Findings from the first NeurIPS unlearning competition [70.60872754129832]
アンラーニングに関する最初のNeurIPSコンペティションは、新しいアルゴリズムの開発を刺激しようとした。
世界中から約1200チームが参加した。
トップソリューションを分析し、アンラーニングのベンチマークに関する議論を掘り下げます。
論文 参考訳(メタデータ) (2024-06-13T12:58:00Z) - A Distributionally Robust Optimisation Approach to Fair Credit Scoring [2.8851756275902467]
クレジットスコアリングは、欧州委員会と米国大統領の執行部によって、リスクの高い分類タスクとしてカタログ化されている。
この懸念に対処するため、近年の信用スコアリング研究は、公平性向上技術の範囲を検討した。
論文 参考訳(メタデータ) (2024-02-02T11:43:59Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Inclusive FinTech Lending via Contrastive Learning and Domain Adaptation [9.75150920742607]
フィンテックの貸与は、財政的包摂の促進に重要な役割を果たしてきた。
ローン審査中にアルゴリズムによる意思決定にバイアスがかかる可能性があるという懸念がある。
自己教師付きコントラスト学習とドメイン適応を用いたトランスフォーマーに基づくシーケンシャルローンスクリーニングモデルを提案する。
論文 参考訳(メタデータ) (2023-05-10T01:11:35Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - How fair can we go in machine learning? Assessing the boundaries of
fairness in decision trees [0.12891210250935145]
本稿では,バイアス緩和介入の統計的限界を探索するための最初の方法論を提案する。
機械学習において広く受け入れられている決定木分類器に焦点をあてる。
本手法は, 分類誤差の少ない精度で, 決定木モデルの最適化が可能であることを実験的に結論付けた。
論文 参考訳(メタデータ) (2020-06-22T16:28:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。