論文の概要: From Point to probabilistic gradient boosting for claim frequency and severity prediction
- arxiv url: http://arxiv.org/abs/2412.14916v1
- Date: Thu, 19 Dec 2024 14:50:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-20 13:33:09.987272
- Title: From Point to probabilistic gradient boosting for claim frequency and severity prediction
- Title(参考訳): クレーム頻度と重大性予測のための点から確率的勾配向上へ
- Authors: Dominik Chevalier, Marie-Pier Côté,
- Abstract要約: 我々は、決定木アルゴリズムの既存の点と確率的勾配を全て向上させる統一的な表記法と対照的に提示する。
クレーム頻度と重大度を5つの公開データセットで比較した。
- 参考スコア(独自算出の注目度): 1.3812010983144802
- License:
- Abstract: Gradient boosting for decision tree algorithms are increasingly used in actuarial applications as they show superior predictive performance over traditional generalized linear models. Many improvements and sophistications to the first gradient boosting machine algorithm exist. We present in a unified notation, and contrast, all the existing point and probabilistic gradient boosting for decision tree algorithms: GBM, XGBoost, DART, LightGBM, CatBoost, EGBM, PGBM, XGBoostLSS, cyclic GBM, and NGBoost. In this comprehensive numerical study, we compare their performance on five publicly available datasets for claim frequency and severity, of various size and comprising different number of (high cardinality) categorical variables. We explain how varying exposure-to-risk can be handled with boosting in frequency models. We compare the algorithms on the basis of computational efficiency, predictive performance, and model adequacy. LightGBM and XGBoostLSS win in terms of computational efficiency. The fully interpretable EGBM achieves competitive predictive performance compared to the black box algorithms considered. We find that there is no trade-off between model adequacy and predictive accuracy: both are achievable simultaneously.
- Abstract(参考訳): 決定木アルゴリズムのグラディエント向上は、従来の一般化線形モデルよりも優れた予測性能を示すため、アクチュエータ応用においてますます利用されている。
第1勾配ブースティングマシンアルゴリズムに対する多くの改良と洗練が存在する。
GBM, XGBoost, DART, LightGBM, CatBoost, EGBM, PGBM, XGBoostLSS, サイクリックGBM, NGBoost など,決定木アルゴリズムの既存の点と確率的勾配がすべて向上している。
本研究は, クレーム頻度と重大度に関する5つの公開データセットの性能を比較し, 異なる数の(高い濃度)カテゴリー変数からなる。
本稿では、周波数モデルの改善により、各種の露光リスクを扱えるかを説明する。
計算効率、予測性能、モデル精度に基づいてアルゴリズムを比較した。
LightGBM と XGBoostLSS は計算効率の点で勝っている。
完全に解釈可能なEGBMは、考慮されたブラックボックスアルゴリズムと比較して、競合する予測性能を達成する。
モデル精度と予測精度の間にトレードオフがないことが分かりました。
関連論文リスト
- Supervised Score-Based Modeling by Gradient Boosting [49.556736252628745]
本稿では,スコアマッチングを組み合わせた勾配向上アルゴリズムとして,SSM(Supervised Score-based Model)を提案する。
推測時間と予測精度のバランスをとるため,SSMの学習とサンプリングに関する理論的解析を行った。
我々のモデルは、精度と推測時間の両方で既存のモデルより優れています。
論文 参考訳(メタデータ) (2024-11-02T07:06:53Z) - Benchmarking state-of-the-art gradient boosting algorithms for
classification [0.0]
この研究は、分類の文脈における勾配増強の利用について考察する。
オリジナルのGBMアルゴリズムや選択された最先端の勾配向上フレームワークを含む4つの一般的な実装を比較した。
有効性、信頼性、使いやすさの適切なバランスを示す勾配促進変種を示す試みが行われた。
論文 参考訳(メタデータ) (2023-05-26T17:06:15Z) - Quantile Extreme Gradient Boosting for Uncertainty Quantification [1.7685947618629572]
Extreme Gradient Boosting (XGBoost)は、最も人気のある機械学習(ML)手法の1つである。
本稿では,不確実性(QXGBoost)を推定する目的関数として,修正量子回帰を用いたXGBoostの拡張を提案する。
提案手法は, 正規および量子的光勾配向上のために生成した不確実性推定値と同等あるいは優れた性能を示した。
論文 参考訳(メタデータ) (2023-04-23T19:46:19Z) - A Stable, Fast, and Fully Automatic Learning Algorithm for Predictive
Coding Networks [65.34977803841007]
予測符号化ネットワークは、ベイズ統計学と神経科学の両方にルーツを持つ神経科学にインスパイアされたモデルである。
シナプス重みに対する更新規則の時間的スケジュールを変更するだけで、元の規則よりもずっと効率的で安定したアルゴリズムが得られることを示す。
論文 参考訳(メタデータ) (2022-11-16T00:11:04Z) - Performance and Interpretability Comparisons of Supervised Machine
Learning Algorithms: An Empirical Study [3.7881729884531805]
論文は発見に基づく方法で整理され、各セクションが一般的な結論を提供する。
全体として、XGBとFFNNは競争力があり、FFNNはスムーズなモデルでより良いパフォーマンスを示した。
RFは一般には良好に機能せず,文献で確認された。
論文 参考訳(メタデータ) (2022-04-27T12:04:33Z) - Provably Faster Algorithms for Bilevel Optimization [54.83583213812667]
バイレベル最適化は多くの重要な機械学習アプリケーションに広く適用されている。
両レベル最適化のための2つの新しいアルゴリズムを提案する。
両アルゴリズムが$mathcalO(epsilon-1.5)$の複雑さを達成し,既存のアルゴリズムを桁違いに上回っていることを示す。
論文 参考訳(メタデータ) (2021-06-08T21:05:30Z) - Light Gradient Boosting Machine as a Regression Method for Quantitative
Structure-Activity Relationships [0.0]
私たちは、Light Gradient Boosting Machine(LightGBM)とランダムフォレスト、シングルタスクディープニューラルネットワーク、および30の社内データセット上のExtreme Gradient Boosting(XGBoost)を比較します。
LightGBMは、シングルタスクのディープニューラルネットワークと同じくらい正確な予測を行いますが、ランダムフォレストよりも1000倍速く、XGBoostよりも4倍速い要因です。
論文 参考訳(メタデータ) (2021-04-28T20:19:44Z) - Efficient Computation of Expectations under Spanning Tree Distributions [67.71280539312536]
本稿では,エッジファクター,非プロジェクティブ・スパンニングツリーモデルにおいて,一階期待と二階期待の重要なケースに対する統一アルゴリズムを提案する。
我々のアルゴリズムは勾配と期待の基本的な関係を利用しており、効率的なアルゴリズムを導出することができる。
論文 参考訳(メタデータ) (2020-08-29T14:58:26Z) - Variance Reduction with Sparse Gradients [82.41780420431205]
SVRGやSpiderBoostのような分散還元法では、大きなバッチ勾配と小さなバッチ勾配が混在している。
我々は、新しい空間演算子:ランダムトップk演算子を導入する。
我々のアルゴリズムは、画像分類、自然言語処理、スパース行列分解など様々なタスクにおいて、一貫してSpiderBoostより優れています。
論文 参考訳(メタデータ) (2020-01-27T08:23:58Z) - On the Dual Formulation of Boosting Algorithms [92.74617630106559]
AdaBoost,LogitBoost,Soft-marginBoostのラグランジュ問題は、すべて一般化されたヒンジ損失エントロピーの双対問題であることを示す。
これらのブースティングアルゴリズムの2つの問題を見て、より良いマージン分布を維持するという観点から、ブースティングの成功を理解することができることを示す。
論文 参考訳(メタデータ) (2009-01-23T02:14:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。