論文の概要: Debiasing Credit Scoring using Evolutionary Algorithms
- arxiv url: http://arxiv.org/abs/2110.12838v1
- Date: Mon, 25 Oct 2021 12:09:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 23:25:29.002879
- Title: Debiasing Credit Scoring using Evolutionary Algorithms
- Title(参考訳): 進化的アルゴリズムによるクレジット・スコーリングの悪用
- Authors: Nigel Kingsman
- Abstract要約: 本稿では,リアルタイムな公開データを用いた信用決定モデルのトレーニングにおける機械学習の適用について検討する。
我々は、訓練されたモデルが与えられた個人のグループに対して差別的偏見を示すという要求を表現するために「バイアス客観的」という用語を用いる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper investigates the application of machine learning when training a
credit decision model over real, publicly available data whilst accounting for
"bias objectives". We use the term "bias objective" to describe the requirement
that a trained model displays discriminatory bias against a given groups of
individuals that doesn't exceed a prescribed level, where such level can be
zero. This research presents an empirical study examining the tension between
competing model training objectives which in all cases include one or more bias
objectives.
This work is motivated by the observation that the parties associated with
creditworthiness models have requirements that can not certainly be fully met
simultaneously. The research herein seeks to highlight the impracticality of
satisfying all parties' objectives, demonstrating the need for "trade-offs" to
be made. The results and conclusions presented by this paper are of particular
importance for all stakeholders within the credit scoring industry that rely
upon artificial intelligence (AI) models as part of the decision-making process
when determining the creditworthiness of individuals. This paper provides an
exposition of the difficulty of training AI models that are able to
simultaneously satisfy multiple bias objectives whilst maintaining acceptable
levels of accuracy. Stakeholders should be aware of this difficulty and should
acknowledge that some degree of discriminatory bias, across a number of
protected characteristics and formulations of bias, cannot be avoided.
- Abstract(参考訳): 本稿では,「バイアス目標」を考慮しつつ,現実のデータよりも信用決定モデルを訓練する際の機械学習の適用について検討する。
我々は、訓練されたモデルが所定のレベルを超えない個人集団に対して差別バイアスを示すという要求を記述するために「バイアス客観的」という用語を用いる。
本研究は,1つ以上のバイアス対象を含む競合モデルトレーニング目標間の緊張関係について,実証的研究を行った。
この研究は、信用力モデルに関連する当事者が同時に満たせない要件を持っているという観察に動機づけられている。
この研究は、すべての当事者の目的を満たすことの非現実性を強調し、「トレードオフ」を行う必要性を実証することを目的としている。
この論文で提示された結果と結論は、個人の信用能力を決定する意思決定プロセスの一部として人工知能(ai)モデルに依存するクレジットスコアリング業界内のすべての利害関係者にとって、特に重要である。
本稿では,複数のバイアス目標を同時に満たし,精度の許容レベルを維持しつつ,AIモデルを訓練することの難しさを解説する。
利害関係者は、この困難に気付き、多くの保護された特徴とバイアスの定式化を通じて、ある程度の差別バイアスは避けられないことを認めるべきである。
関連論文リスト
- Investigating Implicit Bias in Large Language Models: A Large-Scale Study of Over 50 LLMs [0.0]
大規模言語モデル(LLM)は幅広いタスクで採用されている。
最近の研究では、LLMは明示的な偏見評価をパスしても暗黙の偏見を抑えることができることが示されている。
この研究は、新しい言語モデルやより大きな言語モデルが自動的にバイアスを減らさないことを強調している。
論文 参考訳(メタデータ) (2024-10-13T03:43:18Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - In Search of Insights, Not Magic Bullets: Towards Demystification of the
Model Selection Dilemma in Heterogeneous Treatment Effect Estimation [92.51773744318119]
本稿では,異なるモデル選択基準の長所と短所を実験的に検討する。
選択戦略,候補推定器,比較に用いるデータの間には,複雑な相互作用があることを強調した。
論文 参考訳(メタデータ) (2023-02-06T16:55:37Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Distraction is All You Need for Fairness [0.0]
本稿では,Distractionモジュールと呼ばれる深層学習モデルの学習戦略を提案する。
この方法は、分類結果に影響を与えるバイアスを制御するのに有効であることが理論的に証明できる。
UCIアダルトおよびヘリテージヘルスデータセットを用いて,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2022-03-15T01:46:55Z) - Cross-model Fairness: Empirical Study of Fairness and Ethics Under Model Multiplicity [10.144058870887061]
1つの予測器が等しく機能するモデルのグループからアドホックに選択された場合、個人は害を受ける可能性があると我々は主張する。
これらの不公平性は実生活で容易に発見でき、技術的手段だけで緩和することは困難である可能性が示唆された。
論文 参考訳(メタデータ) (2022-03-14T14:33:39Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Beyond Individualized Recourse: Interpretable and Interactive Summaries
of Actionable Recourses [14.626432428431594]
本稿では,Actionable Recourse Agnostic (AReS) と呼ばれる新しいモデルフレームワークを提案する。
説明文の正当性と解釈可能性の両面を同時に最適化する新たな目的を定式化する。
当社のフレームワークは,ブラックボックスモデルに対応するリコースの包括的概要を意思決定者に提供する。
論文 参考訳(メタデータ) (2020-09-15T15:14:08Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。