論文の概要: Look Who's Talking: Interpretable Machine Learning for Assessing Italian
SMEs Credit Default
- arxiv url: http://arxiv.org/abs/2108.13914v2
- Date: Wed, 1 Sep 2021 07:29:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-02 11:54:08.021599
- Title: Look Who's Talking: Interpretable Machine Learning for Assessing Italian
SMEs Credit Default
- Title(参考訳): イタリアの中小企業の信用デフォルトを評価するための解釈可能な機械学習
- Authors: Lisa Crosato, Caterina Liberati and Marco Repetto
- Abstract要約: 本稿では、モデル企業のデフォルト予測に対するモデルに依存しないアプローチに依存する。
2つの機械学習アルゴリズム(eXtreme Gradient BoostingとFeedForward Neural Network)を3つの標準判別モデルと比較する。
以上の結果から, イタリアの中小企業製造業は, eXtreme Gradient Boosting アルゴリズムにより, 総合的な分類能力の恩恵を受けていることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Academic research and the financial industry have recently paid great
attention to Machine Learning algorithms due to their power to solve complex
learning tasks. In the field of firms' default prediction, however, the lack of
interpretability has prevented the extensive adoption of the black-box type of
models. To overcome this drawback and maintain the high performances of
black-boxes, this paper relies on a model-agnostic approach. Accumulated Local
Effects and Shapley values are used to shape the predictors' impact on the
likelihood of default and rank them according to their contribution to the
model outcome. Prediction is achieved by two Machine Learning algorithms
(eXtreme Gradient Boosting and FeedForward Neural Network) compared with three
standard discriminant models. Results show that our analysis of the Italian
Small and Medium Enterprises manufacturing industry benefits from the overall
highest classification power by the eXtreme Gradient Boosting algorithm without
giving up a rich interpretation framework.
- Abstract(参考訳): 学術研究と金融業界は最近、複雑な学習タスクを解く能力のために機械学習アルゴリズムに大きな注目を集めている。
しかし、企業のデフォルト予測の分野において、解釈可能性の欠如はブラックボックスタイプのモデルが広く採用されるのを妨げている。
この欠点を克服し、ブラックボックスの高性能性を維持するため、本論文はモデルに依存しないアプローチを採用している。
蓄積された局所効果とシェープの値は、予測者のデフォルトの確率への影響を形作り、モデル結果への貢献に応じてランク付けするために使用される。
予測は、2つの機械学習アルゴリズム(extreme gradient boostingとfeedforward neural network)によって達成される。
その結果, イタリアの中小企業生産産業の分析は, リッチな解釈枠組みを諦めることなく, 極度勾配ブースティングアルゴリズムにより, 分類力の最高値から利益を得られることがわかった。
関連論文リスト
- Cliqueformer: Model-Based Optimization with Structured Transformers [102.55764949282906]
我々は、MBOタスクの構造を学習し、経験的に改良された設計につながるモデルを開発する。
我々はCliqueformerを、高次元のブラックボックス機能から、化学・遺伝設計の現実的なタスクまで、様々なタスクで評価する。
論文 参考訳(メタデータ) (2024-10-17T00:35:47Z) - Ecosystem-level Analysis of Deployed Machine Learning Reveals Homogeneous Outcomes [72.13373216644021]
本研究では,機械学習の社会的影響を,特定の文脈に展開されるモデルの集合を考慮し検討する。
デプロイされた機械学習はシステム障害を起こしやすいため、利用可能なすべてのモデルに排他的に誤分類されているユーザもいます。
これらの例は、エコシステムレベルの分析が、機械学習の社会的影響を特徴づける独自の強みを持っていることを示している。
論文 参考訳(メタデータ) (2023-07-12T01:11:52Z) - Designing Inherently Interpretable Machine Learning Models [0.0]
本質的には、MLモデルは透明性と説明可能性のために採用されるべきである。
モデルに依存しない説明性を持つブラックボックスモデルは、規制の精査の下ではより防御が難しい。
論文 参考訳(メタデータ) (2021-11-02T17:06:02Z) - Beyond Average Performance -- exploring regions of deviating performance
for black box classification models [0.0]
ブラックボックス分類モデルの予測性能を解釈可能な記述に利用できる2つのアプローチについて述べる。
これらのアプローチは、モデルが平均的な振る舞いから著しく逸脱するパフォーマンスを期待する、解釈可能な方法で発見し、記述する手段を提供するため、非常に実践的な関連性がある。
論文 参考訳(メタデータ) (2021-09-16T20:46:52Z) - Hessian-based toolbox for reliable and interpretable machine learning in
physics [58.720142291102135]
本稿では,モデルアーキテクチャの解釈可能性と信頼性,外挿を行うためのツールボックスを提案する。
与えられたテストポイントでの予測に対する入力データの影響、モデル予測の不確実性の推定、およびモデル予測の不可知スコアを提供する。
我々の研究は、物理学やより一般的には科学に適用されたMLにおける解釈可能性と信頼性の方法の体系的利用への道を開く。
論文 参考訳(メタデータ) (2021-08-04T16:32:59Z) - Enabling Machine Learning Algorithms for Credit Scoring -- Explainable
Artificial Intelligence (XAI) methods for clear understanding complex
predictive models [2.1723750239223034]
本稿では,様々な予測モデル(論理回帰,ロジスティック回帰,エビデンス変換の重み付け,現代の人工知能アルゴリズム)を比較し,先進木モデルがクライアントデフォルトの予測に最適であることを示す。
また,信用リスク実践者に対して,それらを解釈し,よりアクセスしやすいものにするための手法を用いて,高度なモデルを強化する方法を示す。
論文 参考訳(メタデータ) (2021-04-14T09:44:04Z) - Transparency, Auditability and eXplainability of Machine Learning Models
in Credit Scoring [4.370097023410272]
本稿では,信用スコアリングモデルを理解しやすくするために考慮すべきさまざまな次元について検討する。
本稿では,クレジットスコアにどのように適用できるか,そしてスコアカードの解釈可能性と比較する方法について概説する。
論文 参考訳(メタデータ) (2020-09-28T15:00:13Z) - Machine Learning approach for Credit Scoring [0.0]
我々は、最先端の信用格付けとデフォルト予測システムを構築することを目的とした、機械学習モデルのスタックを構築します。
私たちのアプローチは、最新のML/AI概念を駆使したものです。
論文 参考訳(メタデータ) (2020-07-20T21:29:06Z) - Interpretable Learning-to-Rank with Generalized Additive Models [78.42800966500374]
ラーニング・ツー・ランクのモデルの解釈可能性は、非常に重要でありながら、比較的過小評価されている研究分野である。
解釈可能なランキングモデルの最近の進歩は、主に既存のブラックボックスランキングモデルに対するポストホックな説明の生成に焦点を当てている。
一般化加法モデル(GAM)をランキングタスクに導入することにより,本質的に解釈可能な学習 to ランクの基盤を築いた。
論文 参考訳(メタデータ) (2020-05-06T01:51:30Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z) - Rethinking Generalization of Neural Models: A Named Entity Recognition
Case Study [81.11161697133095]
NERタスクをテストベッドとして、異なる視点から既存モデルの一般化挙動を分析する。
詳細な分析による実験は、既存のニューラルNERモデルのボトルネックを診断する。
本論文の副産物として,最近のNER論文の包括的要約を含むプロジェクトをオープンソース化した。
論文 参考訳(メタデータ) (2020-01-12T04:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。