論文の概要: Explainable Boosting Machine for Predicting Claim Severity and Frequency in Car Insurance
- arxiv url: http://arxiv.org/abs/2503.21321v1
- Date: Thu, 27 Mar 2025 09:59:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 12:53:52.316009
- Title: Explainable Boosting Machine for Predicting Claim Severity and Frequency in Car Insurance
- Title(参考訳): 自動車保険におけるクレームの深刻度と頻度を予測するための説明可能なブースティングマシン
- Authors: Markéta Krùpovà, Nabil Rachdi, Quentin Guibert,
- Abstract要約: 本稿では、本質的に解釈可能な特性と高い予測性能を組み合わせた説明可能なブースティングマシン(EBM)モデルを提案する。
本手法は,自動車保険頻度と重大度データに基づいて実装し,従来の競合相手と比較した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In a context of constant increase in competition and heightened regulatory pressure, accuracy, actuarial precision, as well as transparency and understanding of the tariff, are key issues in non-life insurance. Traditionally used generalized linear models (GLM) result in a multiplicative tariff that favors interpretability. With the rapid development of machine learning and deep learning techniques, actuaries and the rest of the insurance industry have adopted these techniques widely. However, there is a need to associate them with interpretability techniques. In this paper, our study focuses on introducing an Explainable Boosting Machine (EBM) model that combines intrinsically interpretable characteristics and high prediction performance. This approach is described as a glass-box model and relies on the use of a Generalized Additive Model (GAM) and a cyclic gradient boosting algorithm. It accounts for univariate and pairwise interaction effects between features and provides naturally explanations on them. We implement this approach on car insurance frequency and severity data and extensively compare the performance of this approach with classical competitors: a GLM, a GAM, a CART model and an Extreme Gradient Boosting (XGB) algorithm. Finally, we examine the interpretability of these models to capture the main determinants of claim costs.
- Abstract(参考訳): 競争の絶え間ない増加と規制圧力の増大、正確性、アクチュアリダルの精度、および関税の透明性と理解の文脈において、非生命保険は重要な問題である。
従来の一般化線形モデル(GLM)は、解釈可能性を好む乗法的関税をもたらす。
機械学習とディープラーニング技術の急速な発展に伴い、アクチュアリーや他の保険会社はこれらの手法を広く採用してきた。
しかし、それらと解釈可能性のテクニックを関連付ける必要がある。
本稿では,本質的に解釈可能な特性と高い予測性能を組み合わせた説明可能なブースティングマシン(EBM)モデルを提案する。
このアプローチはガラスボックスモデルとして説明され、GAM(Generalized Additive Model)とサイクリック勾配促進アルゴリズムの利用に依存している。
特徴間の一変量とペアの相互作用効果を考慮し、それらについて自然な説明を提供する。
本手法は,自動車保険頻度と重大度データに基づいて実装され,GLM,GAM,CARTモデル,エクストリームグラディエントブースティング(XGB)アルゴリズムなど,従来の競合製品と比較する。
最後に,これらのモデルの解釈可能性について検討し,請求コストの主決定要因を抽出する。
関連論文リスト
- Latenrgy: Model Agnostic Latency and Energy Consumption Prediction for Binary Classifiers [0.0]
機械学習システムは、科学分野や産業のイノベーションをますます加速させる。
しかし、特に推論の間、計算オーバーヘッドにおける課題はスケーラビリティと持続可能性を制限する。
この研究は、主に遅延とエネルギー消費に関する一般化予測技術が欠如していることから、文学における重要なギャップに対処する。
論文 参考訳(メタデータ) (2024-12-26T14:51:24Z) - GenFollower: Enhancing Car-Following Prediction with Large Language Models [11.847589952558566]
我々は、これらの課題に対処するために、大規模言語モデル(LLM)を活用する新しいゼロショットプロンプトアプローチであるGenFollowerを提案する。
我々は,車追従動作を言語モデリング問題として再編成し,不均一な入力をLLMのための構造化プロンプトに統合する。
オープンデータセットの実験は、GenFollowerの優れたパフォーマンスと解釈可能な洞察を提供する能力を示している。
論文 参考訳(メタデータ) (2024-07-08T04:54:42Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - LoRA-Ensemble: Efficient Uncertainty Modelling for Self-attention Networks [52.46420522934253]
本稿では,自己注意ネットワークのためのパラメータ効率の高いディープアンサンブル手法であるLoRA-Ensembleを紹介する。
全メンバー間で重みを共有できる1つの事前学習型自己注意ネットワークを利用することで、注意投影のために、メンバー固有の低ランク行列を訓練する。
提案手法は明示的なアンサンブルよりも優れたキャリブレーションを示し,様々な予測タスクやデータセットに対して類似あるいは良好な精度を実現する。
論文 参考訳(メタデータ) (2024-05-23T11:10:32Z) - Model-based Causal Bayesian Optimization [74.78486244786083]
乗算重み付き因果ベイズ最適化のための最初のアルゴリズム(CBO-MW)を提案する。
グラフ関連の量に自然に依存するCBO-MWに対する後悔の限界を導出する。
我々の実験は、共有モビリティシステムにおいて、ユーザの需要パターンを学習するためにCBO-MWをどのように使用できるかの現実的なデモを含む。
論文 参考訳(メタデータ) (2023-07-31T13:02:36Z) - Enhanced Gradient Boosting for Zero-Inflated Insurance Claims and Comparative Analysis of CatBoost, XGBoost, and LightGBM [0.0]
CatBoostは、予測性能に基づいた自動クレーム頻度モデルを開発するための最良のライブラリである。
そこで我々は, インフレ確率$p$と分布平均$mu$の関係を仮定した, ゼロ膨張ポアソン強化木モデルを提案する。
論文 参考訳(メタデータ) (2023-07-15T10:54:46Z) - Towards Better Certified Segmentation via Diffusion Models [62.21617614504225]
セグメンテーションモデルは敵の摂動に弱いため、医療や自動運転といった重要な意思決定システムでの使用を妨げます。
近年,理論的保証を得るためにガウス雑音を入力に加えることにより,セグメント化予測のランダム化が提案されている。
本稿では,ランダムな平滑化と拡散モデルを組み合わせたセグメンテーション予測の問題に対処する。
論文 参考訳(メタデータ) (2023-06-16T16:30:39Z) - Model Transparency and Interpretability : Survey and Application to the
Insurance Industry [1.6058099298620423]
本稿では、モデルタックルの解釈の重要性とモデルの透明性の概念を紹介する。
保険のコンテキスト内では、アクチュアリアルモデルの制御を強制するために、いくつかのツールがどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-09-01T16:12:54Z) - ER: Equivariance Regularizer for Knowledge Graph Completion [107.51609402963072]
我々は、新しい正規化器、すなわち等分散正規化器(ER)を提案する。
ERは、頭と尾のエンティティ間の意味的等価性を利用することで、モデルの一般化能力を高めることができる。
実験結果から,最先端関係予測法よりも明確かつ実質的な改善が示された。
論文 参考訳(メタデータ) (2022-06-24T08:18:05Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - When stakes are high: balancing accuracy and transparency with
Model-Agnostic Interpretable Data-driven suRRogates [0.0]
銀行や保険のような高度に規制された産業は、透明性のある意思決定アルゴリズムを求めている。
モデル非依存型解釈型データ駆動型SuRRogate(maidrr)の開発手順を提案する。
知識は部分依存効果によってブラックボックスから抽出される。
これにより、自動変数選択による特徴空間のセグメンテーションが実現される。
論文 参考訳(メタデータ) (2020-07-14T08:10:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。