論文の概要: Explainable Enterprise Credit Rating via Deep Feature Crossing Network
- arxiv url: http://arxiv.org/abs/2105.13843v1
- Date: Sat, 22 May 2021 02:41:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-06 08:52:16.356107
- Title: Explainable Enterprise Credit Rating via Deep Feature Crossing Network
- Title(参考訳): Deep Feature Crossing Networkによる説明可能なエンタープライズクレジットレーティング
- Authors: Weiyu Guo, Zhijiang Yang, Shu Wu, Fu Chen
- Abstract要約: 本稿では、ディープニューラルネットワーク(DNN)とアテンションメカニズムを用いて、企業信用格付け問題を明示的にモデル化する新しいネットワークを提案する。
提案手法が従来の手法よりも高い性能を達成できることを実世界の企業データセットで実証した実験結果が得られた。
- 参考スコア(独自算出の注目度): 8.867320666267956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the powerful learning ability on high-rank and non-linear features,
deep neural networks (DNNs) are being applied to data mining and machine
learning in various fields, and exhibit higher discrimination performance than
conventional methods. However, the applications based on DNNs are rare in
enterprise credit rating tasks because most of DNNs employ the "end-to-end"
learning paradigm, which outputs the high-rank representations of objects and
predictive results without any explanations. Thus, users in the financial
industry cannot understand how these high-rank representations are generated,
what do they mean and what relations exist with the raw inputs. Then users
cannot determine whether the predictions provided by DNNs are reliable, and not
trust the predictions providing by such "black box" models. Therefore, in this
paper, we propose a novel network to explicitly model the enterprise credit
rating problem using DNNs and attention mechanisms. The proposed model realizes
explainable enterprise credit ratings. Experimental results obtained on
real-world enterprise datasets verify that the proposed approach achieves
higher performance than conventional methods, and provides insights into
individual rating results and the reliability of model training.
- Abstract(参考訳): 高階および非線形特徴に対する強力な学習能力のため、ディープニューラルネットワーク(DNN)は様々な分野のデータマイニングや機械学習に適用されており、従来の手法よりも高い識別性能を示している。
しかし、DNNに基づくアプリケーションは、ほとんどのDNNが「エンドツーエンド」学習パラダイムを採用しており、説明なしにオブジェクトの高階表現と予測結果を出力しているため、企業の信用格付けタスクではまれである。
したがって、金融業界のユーザは、これらのハイランクな表現がどのように生成されるのか、その意味や生の入力とどのような関係があるのかを理解できない。
するとユーザは、DNNが提供する予測が信頼できるかどうかを判断できず、そのような「ブラックボックス」モデルによって提供される予測を信頼できない。
そこで本稿では,DNNとアテンション機構を用いて,企業信用格付け問題を明確にモデル化するネットワークを提案する。
提案モデルは、説明可能な企業信用格付けを実現する。
実世界の企業データセットで得られた実験結果は,提案手法が従来の手法よりも高い性能を達成し,個々の評価結果とモデルトレーニングの信頼性に関する洞察を提供する。
関連論文リスト
- Bayesian Entropy Neural Networks for Physics-Aware Prediction [14.705526856205454]
本稿では,ベイズニューラルネットワーク(BNN)の予測に制約を加えるためのフレームワークであるBENNを紹介する。
ベンは予測値だけでなく、その微分や分散を制約し、より堅牢で信頼性の高いモデル出力を保証できる。
その結果、従来のBNNよりも大幅に改善され、現代の制約されたディープラーニング手法と比較して競争性能が向上した。
論文 参考訳(メタデータ) (2024-07-01T07:00:44Z) - Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Batch-Ensemble Stochastic Neural Networks for Out-of-Distribution
Detection [55.028065567756066]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイすることの重要性から、マシンラーニングコミュニティから注目を集めている。
本稿では,特徴量の分布をモデル化した不確実な定量化手法を提案する。
バッチアンサンブルニューラルネットワーク(BE-SNN)の構築と機能崩壊問題の克服を目的として,効率的なアンサンブル機構,すなわちバッチアンサンブルを組み込んだ。
We show that BE-SNNs yield superior performance on the Two-Moons dataset, the FashionMNIST vs MNIST dataset, FashionM。
論文 参考訳(メタデータ) (2022-06-26T16:00:22Z) - AED: An black-box NLP classifier model attacker [8.15167980163668]
Deep Neural Networks(DNN)は、コネクテッドおよび自動化された車両、疾患、雇用といった領域における現実世界のタスクの解決に成功している。
これらのDNNモデルの潜在的なバイアスと堅牢性に関する懸念が高まっている。
本稿では,単語レベルのNLP分類器攻撃モデル"AED"を提案する。
論文 参考訳(メタデータ) (2021-12-22T04:25:23Z) - Mixture of Linear Models Co-supervised by Deep Neural Networks [14.831346286039151]
本稿では,比較的単純な説明可能なモデルとディープニューラルネットワーク(DNN)モデルとのギャップを埋めるためのアプローチを提案する。
私たちの主なアイデアは、DNNからのガイダンスでトレーニングされた差別モデルの組み合わせです。
論文 参考訳(メタデータ) (2021-08-05T02:08:35Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - A Simple Framework to Quantify Different Types of Uncertainty in Deep
Neural Networks for Image Classification [0.0]
モデルの予測の不確実性を定量化することは、AIシステムの安全性を高めるために重要である。
これは、自動運転車の制御、医療画像分析、財務推定、法的分野など、エラーのコストが高いアプリケーションにとって極めて重要である。
本稿では,画像分類の課題に対して,Deep Neural Networksにおいて既知の3種類の不確実性を捕捉し,定量化するための完全なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-17T15:36:42Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。