論文の概要: Deep Learning vs. Gradient Boosting: Benchmarking state-of-the-art
machine learning algorithms for credit scoring
- arxiv url: http://arxiv.org/abs/2205.10535v1
- Date: Sat, 21 May 2022 08:27:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 16:26:37.507370
- Title: Deep Learning vs. Gradient Boosting: Benchmarking state-of-the-art
machine learning algorithms for credit scoring
- Title(参考訳): deep learning vs. gradient boosting: クレジットスコアリングのための最先端機械学習アルゴリズムのベンチマーク
- Authors: Marc Schmitt
- Abstract要約: 現在、信用リスク管理におけるポールポジションを競う2つのモデルとして、ディープラーニング(DL)と勾配促進機(GBM)がある。
本稿では、3つの異なる特徴を持つデータセットを用いて、これらの2つのアルゴリズムをクレジットスコアリングの文脈でベンチマークした。
実験の結果、GBMはDLよりも強力であり、計算要求の低さによる速度の優位性も示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Artificial intelligence (AI) and machine learning (ML) have become vital to
remain competitive for financial services companies around the globe. The two
models currently competing for the pole position in credit risk management are
deep learning (DL) and gradient boosting machines (GBM). This paper benchmarked
those two algorithms in the context of credit scoring using three distinct
datasets with different features to account for the reality that model
choice/power is often dependent on the underlying characteristics of the
dataset. The experiment has shown that GBM tends to be more powerful than DL
and has also the advantage of speed due to lower computational requirements.
This makes GBM the winner and choice for credit scoring. However, it was also
shown that the outperformance of GBM is not always guaranteed and ultimately
the concrete problem scenario or dataset will determine the final model choice.
Overall, based on this study both algorithms can be considered state-of-the-art
for binary classification tasks on structured datasets, while GBM should be the
go-to solution for most problem scenarios due to easier use, significantly
faster training time, and superior accuracy.
- Abstract(参考訳): 人工知能(AI)と機械学習(ML)は、世界中の金融サービス企業にとって競争力を維持するために不可欠である。
現在、信用リスク管理におけるポールポジションを競う2つのモデルは、ディープラーニング(DL)と勾配促進機(GBM)である。
本稿では、これらの2つのアルゴリズムを、異なる特徴を持つ3つの異なるデータセットを用いて、クレジットスコアの文脈でベンチマークし、モデル選択/パワーがデータセットの根底にある特性に依存することが多いことを実感した。
実験の結果、GBMはDLよりも強力であり、計算要求の低さによる速度の優位性も示している。
これにより、GBMはクレジットスコアリングの勝者と選択肢となる。
しかし、GBMの性能は必ずしも保証されておらず、最終的に具体的な問題シナリオやデータセットが最終的なモデル選択を決定することも示されている。
総じて、この研究に基づいて、両方のアルゴリズムは構造化データセット上のバイナリ分類タスクの最先端と見なすことができるが、gbmは、使いやすさ、トレーニング時間が大幅に速く、正確性が優れているため、ほとんどの問題シナリオにおいて、go-toソリューションであるべきである。
関連論文リスト
- A robust three-way classifier with shadowed granular-balls based on justifiable granularity [53.39844791923145]
我々は、不確実なデータのために、影付きGBの頑健な3方向分類器を構築した。
本モデルでは,不確実なデータ管理を実証し,分類リスクを効果的に軽減する。
論文 参考訳(メタデータ) (2024-07-03T08:54:45Z) - MindStar: Enhancing Math Reasoning in Pre-trained LLMs at Inference Time [51.5039731721706]
MindStarは、大言語モデルの純粋に推論に基づく探索手法である。
推論タスクを探索問題として定式化し、最適な推論経路を特定するための2つの探索アイデアを提案する。
Llama-2-13BやMistral-7Bのようなオープンソースモデルの推論能力を大幅に向上させ、GPT-3.5やGrok-1に匹敵する性能を実現している。
論文 参考訳(メタデータ) (2024-05-25T15:07:33Z) - Investigating Automatic Scoring and Feedback using Large Language Models [46.1232919707345]
本稿では,PEFTに基づく量子化モデルの有効性について検討する。
その結果, 微調整LDMによる評価は精度が高く, 平均的に3%未満の誤差が得られた。
論文 参考訳(メタデータ) (2024-05-01T16:13:54Z) - GBM-based Bregman Proximal Algorithms for Constrained Learning [3.667453772837954]
我々はBregman近位アルゴリズムのフレームワーク内で制約付き学習タスクにGBMを適用する。
本稿では,学習対象関数が凸である場合に,大域的最適性を保証する新しいブレグマン法を提案する。
本稿では,Bregmanアルゴリズムフレームワークの有効性を示すための実験的な証拠を提供する。
論文 参考訳(メタデータ) (2023-08-21T14:56:51Z) - Machine Learning Capability: A standardized metric using case difficulty
with applications to individualized deployment of supervised machine learning [2.2060666847121864]
モデル評価は教師付き機械学習分類解析において重要な要素である。
アイテム応答理論(IRT)と機械学習を用いたコンピュータ適応テスト(CAT)は、最終分類結果とは無関係にデータセットをベンチマークすることができる。
論文 参考訳(メタデータ) (2023-02-09T00:38:42Z) - Incremental Online Learning Algorithms Comparison for Gesture and Visual
Smart Sensors [68.8204255655161]
本稿では,加速度センサデータに基づくジェスチャー認識と画像分類の2つの実例として,最先端の4つのアルゴリズムを比較した。
以上の結果から,これらのシステムの信頼性と小型メモリMCUへのデプロイの可能性が確認された。
論文 参考訳(メタデータ) (2022-09-01T17:05:20Z) - Open-Set Semi-Supervised Learning for 3D Point Cloud Understanding [62.17020485045456]
半教師付き学習(SSL)では、ラベル付きデータと同じ分布からラベル付きデータが引き出されることが一般的である。
サンプル重み付けによりラベルなしデータを選択的に活用することを提案する。
論文 参考訳(メタデータ) (2022-05-02T16:09:17Z) - Tightly Coupled Learning Strategy for Weakly Supervised Hierarchical
Place Recognition [0.09558392439655011]
本稿では,三重項モデルを学習するための密結合学習(TCL)戦略を提案する。
グローバルデクリプタとローカルデクリプタを組み合わせて、共同最適化を行う。
我々の軽量統一モデルは、いくつかの最先端手法よりも優れている。
論文 参考訳(メタデータ) (2022-02-14T03:20:39Z) - Meta Clustering Learning for Large-scale Unsupervised Person
Re-identification [124.54749810371986]
メタクラスタリング学習(MCL)と呼ばれる「大規模タスクのための小さなデータ」パラダイムを提案する。
MCLは、第1フェーズのトレーニングのためにコンピューティングを節約するためにクラスタリングを介して、未ラベルデータのサブセットを擬似ラベル付けするのみである。
提案手法は計算コストを大幅に削減すると同時に,従来よりも優れた性能を実現している。
論文 参考訳(メタデータ) (2021-11-19T04:10:18Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。