論文の概要: Developing and Improving Risk Models using Machine-learning Based
Algorithms
- arxiv url: http://arxiv.org/abs/2009.04559v1
- Date: Wed, 9 Sep 2020 20:38:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 08:56:30.790226
- Title: Developing and Improving Risk Models using Machine-learning Based
Algorithms
- Title(参考訳): 機械学習を用いたリスクモデルの開発と改善
- Authors: Yan Wang, Xuelei Sherry Ni
- Abstract要約: 本研究の目的は,ビジネスの欠陥を分類する優れたリスクモデルを開発することである。
この解析の理論的根拠は、まず正則化により良質な基底二項分類器を得ることである。
優れたベース分類器上で、バッジやブーストを含む2つのモデルアンサンブルアルゴリズムを実行し、さらなるモデル改善を行う。
- 参考スコア(独自算出の注目度): 6.245537312562826
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The objective of this study is to develop a good risk model for classifying
business delinquency by simultaneously exploring several machine learning based
methods including regularization, hyper-parameter optimization, and model
ensembling algorithms. The rationale under the analyses is firstly to obtain
good base binary classifiers (include Logistic Regression ($LR$), K-Nearest
Neighbors ($KNN$), Decision Tree ($DT$), and Artificial Neural Networks
($ANN$)) via regularization and appropriate settings of hyper-parameters. Then
two model ensembling algorithms including bagging and boosting are performed on
the good base classifiers for further model improvement. The models are
evaluated using accuracy, Area Under the Receiver Operating Characteristic
Curve (AUC of ROC), recall, and F1 score via repeating 10-fold cross-validation
10 times. The results show the optimal base classifiers along with the
hyper-parameter settings are $LR$ without regularization, $KNN$ by using 9
nearest neighbors, $DT$ by setting the maximum level of the tree to be 7, and
$ANN$ with three hidden layers. Bagging on $KNN$ with $K$ valued 9 is the
optimal model we can get for risk classification as it reaches the average
accuracy, AUC, recall, and F1 score valued 0.90, 0.93, 0.82, and 0.89,
respectively.
- Abstract(参考訳): 本研究の目的は、正規化、ハイパーパラメータ最適化、モデルアンサンブルアルゴリズムを含む機械学習に基づく複数の手法を同時に探索することにより、ビジネスの欠陥を分類するための優れたリスクモデルを開発することである。
この分析の理論的根拠は、まず、正規化とハイパーパラメータの適切な設定により、良質なベースバイナリ分類器(ロジスティック回帰(LR$)、K-Nearest Neighbors(KNN$)、決定木(DT$)、ニューラルネットワーク(ANN$)を取得することである。
そして、良質なベース分類器上で、バッキングとブースティングを含む2つのモデルセンシングアルゴリズムを実行し、さらなるモデル改善を行う。
モデルの精度は、受信者動作特性曲線(AUC of ROC)、リコール、F1スコアを10倍のクロスバリデーションを10回繰り返して評価する。
その結果、最適ベース分類器とハイパーパラメータの設定は、正規化なしの$lr$、最寄りの9つを用いて$knn$、ツリーの最大レベルを7に設定して$dt$、3つの隠れレイヤで$ann$である。
knn$ with $k$ valued 9 のバッキングは、平均精度、auc、recall、f1スコアがそれぞれ 0.90, 0.93, 0.82, 0.89 に達すると、リスク分類のために得られる最適なモデルである。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Zeroth-Order Adaptive Neuron Alignment Based Pruning without Re-Training [3.195234044113248]
我々は、高密度事前学習モデルの関数情報を利用して、アクティベーションのアライメントw.r.tを最大化するスパースモデルを得る。
我々は,アクティベーション間のニューロンアライメントを最大化するために,ブロックワイドと行ワイドの間隔比を変更するエンフェップアップアルゴリズムであるtextscNeuroAlを提案する。
提案手法は,4つの異なるLLMファミリーと3つの異なる空間比で検証し,最新の最先端技術よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2024-11-11T15:30:16Z) - Monte Carlo Tree Search Boosts Reasoning via Iterative Preference Learning [55.96599486604344]
本稿では,Large Language Models (LLMs) の推論能力向上を目的とした,反復的な選好学習プロセスによるアプローチを提案する。
我々は、MCTS(Monte Carlo Tree Search)を用いて好みデータを反復的に収集し、そのルックアヘッド機能を利用して、インスタンスレベルの報酬をよりきめ細かいステップレベルの信号に分解する。
提案アルゴリズムはDPO(Direct Preference Optimization)を用いて,新たに生成されたステップレベルの優先度データを用いてLCMポリシーを更新する。
論文 参考訳(メタデータ) (2024-05-01T11:10:24Z) - A model for multi-attack classification to improve intrusion detection
performance using deep learning approaches [0.0]
ここでの目的は、悪意のある攻撃を識別するための信頼性の高い侵入検知メカニズムを作ることである。
ディープラーニングベースのソリューションフレームワークは、3つのアプローチから成り立っている。
最初のアプローチは、adamax、SGD、adagrad、adam、RMSprop、nadam、adadeltaといった7つの機能を持つLong-Short Term Memory Recurrent Neural Network (LSTM-RNN)である。
モデルは特徴を自己学習し、攻撃クラスをマルチアタック分類として分類する。
論文 参考訳(メタデータ) (2023-10-25T05:38:44Z) - An Evaluation of Machine Learning Approaches for Early Diagnosis of
Autism Spectrum Disorder [0.0]
自閉症スペクトラム障害(Autistic Spectrum disorder、ASD)は、社会的相互作用、コミュニケーション、反復活動の困難を特徴とする神経疾患である。
本研究は,診断プロセスの強化と自動化を目的として,多様な機械学習手法を用いて重要なASD特性を同定する。
論文 参考訳(メタデータ) (2023-09-20T21:23:37Z) - Improving Sample Efficiency of Model-Free Algorithms for Zero-Sum Markov Games [66.2085181793014]
モデルフリーのステージベースQ-ラーニングアルゴリズムはモデルベースアルゴリズムと同じ$H$依存の最適性を享受できることを示す。
本アルゴリズムは,楽観的値関数と悲観的値関数のペアとして参照値関数を更新するキーとなる新しい設計を特徴とする。
論文 参考訳(メタデータ) (2023-08-17T08:34:58Z) - PL-$k$NN: A Parameterless Nearest Neighbors Classifier [0.24499092754102875]
k$-Nearest Neighborsは、多くの問題で使われている最も効果的で簡単なモデルの1つである。
本稿では、$k$の値を定義する必要性を回避した$k$-Nearest Neighbors分類器を提案する。
論文 参考訳(メタデータ) (2022-09-26T12:52:45Z) - Towards Alternative Techniques for Improving Adversarial Robustness:
Analysis of Adversarial Training at a Spectrum of Perturbations [5.18694590238069]
逆行訓練(AT)とその変種は、逆行性摂動に対するニューラルネットワークの堅牢性を改善する進歩を先導している。
私たちは、$epsilon$の値のスペクトルに基づいてトレーニングされたモデルに焦点を当てています。
ATの代替改善は、そうでなければ1ドル(約1万2000円)も出なかったでしょう。
論文 参考訳(メタデータ) (2022-06-13T22:01:21Z) - Human-in-the-loop: Provably Efficient Preference-based Reinforcement
Learning with General Function Approximation [107.54516740713969]
本研究は,RL(Human-in-the-loop reinforcement learning)を軌道的嗜好で検討する。
各ステップで数値的な報酬を受ける代わりに、エージェントは人間の監督者から軌道上のペアよりも優先される。
一般関数近似を用いたPbRLの楽観的モデルベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-23T09:03:24Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Provable Model-based Nonlinear Bandit and Reinforcement Learning: Shelve
Optimism, Embrace Virtual Curvature [61.22680308681648]
決定論的報酬を有する1層ニューラルネットバンディットにおいても,グローバル収束は統計的に難解であることを示す。
非線形バンディットとRLの両方に対して,オンラインモデル学習者による仮想アセンジ(Virtual Ascent with Online Model Learner)というモデルベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-08T12:41:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。