論文の概要: Insights into Fairness through Trust: Multi-scale Trust Quantification
for Financial Deep Learning
- arxiv url: http://arxiv.org/abs/2011.01961v1
- Date: Tue, 3 Nov 2020 19:05:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 04:27:25.336441
- Title: Insights into Fairness through Trust: Multi-scale Trust Quantification
for Financial Deep Learning
- Title(参考訳): 信頼による公正への洞察:金融深層学習のためのマルチスケール信頼定量化
- Authors: Alexander Wong, Andrew Hryniowski, and Xiao Yu Wang
- Abstract要約: 金融深層学習において探求されていない公平性の基本的な側面は、信頼の概念である。
クレジットカードのデフォルト予測のために,ディープニューラルネットワーク上でマルチスケール信頼度定量化を行う。
- 参考スコア(独自算出の注目度): 94.65749466106664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The success of deep learning in recent years have led to a significant
increase in interest and prevalence for its adoption to tackle financial
services tasks. One particular question that often arises as a barrier to
adopting deep learning for financial services is whether the developed
financial deep learning models are fair in their predictions, particularly in
light of strong governance and regulatory compliance requirements in the
financial services industry. A fundamental aspect of fairness that has not been
explored in financial deep learning is the concept of trust, whose variations
may point to an egocentric view of fairness and thus provide insights into the
fairness of models. In this study we explore the feasibility and utility of a
multi-scale trust quantification strategy to gain insights into the fairness of
a financial deep learning model, particularly under different scenarios at
different scales. More specifically, we conduct multi-scale trust
quantification on a deep neural network for the purpose of credit card default
prediction to study: 1) the overall trustworthiness of the model 2) the trust
level under all possible prediction-truth relationships, 3) the trust level
across the spectrum of possible predictions, 4) the trust level across
different demographic groups (e.g., age, gender, and education), and 5)
distribution of overall trust for an individual prediction scenario. The
insights for this proof-of-concept study demonstrate that such a multi-scale
trust quantification strategy may be helpful for data scientists and regulators
in financial services as part of the verification and certification of
financial deep learning solutions to gain insights into fairness and trust of
these solutions.
- Abstract(参考訳): 近年のディープラーニングの成功は、金融サービスの課題に取り組むための採用への関心と普及の著しい増加につながった。
金融サービスへのディープラーニング導入の障壁としてしばしば発生する問題のひとつは、先進的な金融深層学習モデルが、特に金融サービス業界における強力なガバナンスと規制遵守要件に照らして、彼らの予測において公平であるかどうかである。
金融深層学習において研究されていない公平性の基本的な側面は信頼の概念であり、その変動は公正性の自我中心的な見方を指し、したがってモデルの公正性に関する洞察を与える。
本研究では、金融深層学習モデルの公平性、特に異なるスケールのシナリオにおいて、マルチスケール信頼度定量化戦略の実現可能性と有用性について考察する。
具体的には、クレジットカードのデフォルト予測を目的とし、深層ニューラルネットワーク上でマルチスケール信頼度定量化を行う。
1)モデル全体の信頼性
2)すべての可能な予測と真実の関係における信頼レベル。
3)可能な予測の範囲をまたがる信頼レベル。
4)異なる人口集団(年齢、性別、教育など)の信頼度、及び
5)個々の予測シナリオに対する総合信頼の分布。
この概念実証研究の洞察は、こうしたマルチスケールの信頼定量化戦略が、金融深層学習ソリューションの検証と認定の一環として、金融サービスのデータサイエンティストや規制当局にとって、これらのソリューションの公正性と信頼に関する洞察を得るのに役立つことを実証している。
関連論文リスト
- Benchmarking Trustworthiness of Multimodal Large Language Models: A Comprehensive Study [51.19622266249408]
MultiTrustはMLLMの信頼性に関する最初の総合的で統一されたベンチマークである。
我々のベンチマークでは、マルチモーダルリスクとクロスモーダルインパクトの両方に対処する厳格な評価戦略を採用している。
21の近代MLLMによる大規模な実験は、これまで調査されなかった信頼性の問題とリスクを明らかにしている。
論文 参考訳(メタデータ) (2024-06-11T08:38:13Z) - U-Trustworthy Models.Reliability, Competence, and Confidence in
Decision-Making [0.21756081703275998]
信頼性の正確な数学的定義を$mathcalU$-trustworthinessと呼ぶ。
$mathcalU$-trustworthinessの文脈において、適切にランク付けされたモデルは本質的に$mathcalU$-trustworthyであることが証明される。
我々は、信頼度を優先する尺度として、AUCメートル法の採用を提唱する。
論文 参考訳(メタデータ) (2024-01-04T04:58:02Z) - Calibrating Multimodal Learning [94.65232214643436]
本稿では,従来の手法の予測信頼性を校正するために,新たな正規化手法であるCML(Callibrating Multimodal Learning)正則化を提案する。
この技術は、既存のモデルによって柔軟に装備され、信頼性校正、分類精度、モデルロバスト性の観点から性能を向上させることができる。
論文 参考訳(メタデータ) (2023-06-02T04:29:57Z) - Trustworthy Federated Learning: A Survey [0.5089078998562185]
人工知能(AI)分野において、フェデレートラーニング(FL)が大きな進歩を遂げている。
我々は、Trustworthy FLの現状を概観し、既存のソリューションとTrustworthyに関連する明確に定義された柱を探求する。
本稿では,解釈可能性,公正性,セキュリティとプライバシの3つの柱を含む分類法を提案する。
論文 参考訳(メタデータ) (2023-05-19T09:11:26Z) - Measuring Consistency in Text-based Financial Forecasting Models [10.339586273664725]
FinTrustは財務文書の論理的一貫性を評価する評価ツールである。
金融予測のための最先端NLPモデルの整合性は乏しいことを示す。
意味保存による性能劣化の分析は,現在のテキストベースの手法が市場情報の堅牢な予測に適していないことを示唆している。
論文 参考訳(メタデータ) (2023-05-15T10:32:26Z) - Factor Investing with a Deep Multi-Factor Model [123.52358449455231]
我々は、業界中立化と市場中立化モジュールを明確な財務見識をもって取り入れた、新しい深層多要素モデルを開発する。
実世界の株式市場データによるテストは、我々の深層多要素モデルの有効性を示している。
論文 参考訳(メタデータ) (2022-10-22T14:47:11Z) - MACEst: The reliable and trustworthy Model Agnostic Confidence Estimator [0.17188280334580192]
我々は、標準的な機械学習ポイント予測アルゴリズムに基づく信頼度推定は、基本的に欠陥があると主張している。
MACEstは信頼性と信頼性の高い信頼度推定を提供するモデル非依存信頼度推定器である。
論文 参考訳(メタデータ) (2021-09-02T14:34:06Z) - Where Does Trust Break Down? A Quantitative Trust Analysis of Deep
Neural Networks via Trust Matrix and Conditional Trust Densities [94.65749466106664]
本稿では,新しい信頼量化戦略である信頼行列の概念を紹介する。
信頼行列は、所定のアクター・オークル回答シナリオに対して期待される質問・回答信頼を定義する。
我々は、条件付き信頼密度の概念により、信頼密度の概念をさらに拡張する。
論文 参考訳(メタデータ) (2020-09-30T14:33:43Z) - How Much Can We Really Trust You? Towards Simple, Interpretable Trust
Quantification Metrics for Deep Neural Networks [94.65749466106664]
我々は思考実験を行い、信頼と信頼に関する2つの重要な疑問を探求する。
我々は、一連の質問に答える際の行動に基づいて、ディープニューラルネットワークの全体的な信頼性を評価するための一連のメトリクスを紹介します。
提案されたメトリクスは必ずしも完璧ではありませんが、よりよいメトリクスに向かって会話を推し進めることが望まれています。
論文 参考訳(メタデータ) (2020-09-12T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。