論文の概要: An Interpretable Deep Learning Model for General Insurance Pricing
- arxiv url: http://arxiv.org/abs/2509.08467v1
- Date: Wed, 10 Sep 2025 10:15:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.38392
- Title: An Interpretable Deep Learning Model for General Insurance Pricing
- Title(参考訳): 一般保険価格の解釈可能なディープラーニングモデル
- Authors: Patrick J. Laub, Tu Pho, Bernard Wong,
- Abstract要約: 本稿では,一般保険価格に対する本質的に解釈可能なディープラーニングモデルを提案する。
ニューラルネットワークの強い予測力を保ちながら、完全に透明で解釈可能な結果を提供する。
- 参考スコア(独自算出の注目度): 1.478364697333309
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces the Actuarial Neural Additive Model, an inherently interpretable deep learning model for general insurance pricing that offers fully transparent and interpretable results while retaining the strong predictive power of neural networks. This model assigns a dedicated neural network (or subnetwork) to each individual covariate and pairwise interaction term to independently learn its impact on the modeled output while implementing various architectural constraints to allow for essential interpretability (e.g. sparsity) and practical requirements (e.g. smoothness, monotonicity) in insurance applications. The development of our model is grounded in a solid foundation, where we establish a concrete definition of interpretability within the insurance context, complemented by a rigorous mathematical framework. Comparisons in terms of prediction accuracy are made with traditional actuarial and state-of-the-art machine learning methods using both synthetic and real insurance datasets. The results show that the proposed model outperforms other methods in most cases while offering complete transparency in its internal logic, underscoring the strong interpretability and predictive capability.
- Abstract(参考訳): 本稿では,Actuarial Neural Additive Modelを紹介し,ニューラルネットワークの強い予測力を保ちながら,完全に透明で解釈可能な結果を提供する一般保険価格のディープラーニングモデルについて紹介する。
このモデルは、個別の共変量とペアの相互作用項に専用ニューラルネットワーク(またはサブネットワーク)を割り当て、モデル化された出力への影響を独立して学習すると同時に、本質的な解釈可能性(疎性など)と保険業務における実践的要件(滑らか性、単調性など)を許容する様々なアーキテクチャ的制約を実装する。
本モデルの開発は, 厳密な数学的枠組みによって補完された, 保険状況内での解釈可能性の定義を具体的に確立する, しっかりとした基礎に根ざしている。
予測精度の比較は、従来のアクチュアリと最先端の機械学習手法で、合成と実際の保険データセットの両方を用いて行われる。
その結果,提案手法は内部論理に完全透過性を持たせながら他の手法よりも優れており,高い解釈可能性や予測能力を示していることがわかった。
関連論文リスト
- Conformalized Exceptional Model Mining: Telling Where Your Model Performs (Not) Well [31.013018198280506]
本稿では,新しいフレームワークであるConformalized Exceptional Model Miningを紹介する。
コンフォーマル予測の厳密さと例外モデルマイニングの説明力を組み合わせる。
我々は、共形予測の厳密なカバレッジ保証を通じて不確実性を定量化する新しいモデルクラスmSMoPEを開発する。
論文 参考訳(メタデータ) (2025-08-21T13:43:14Z) - Regularized Neural Ensemblers [55.15643209328513]
本研究では,正規化ニューラルネットワークをアンサンブル手法として活用することを検討する。
低多様性のアンサンブルを学習するリスクを動機として,ランダムにベースモデル予測をドロップすることで,アンサンブルモデルの正規化を提案する。
このアプローチはアンサンブル内の多様性の低い境界を提供し、過度な適合を減らし、一般化能力を向上させる。
論文 参考訳(メタデータ) (2024-10-06T15:25:39Z) - Distributional Refinement Network: Distributional Forecasting via Deep Learning [0.8142555609235358]
アクチュエータモデリングにおける重要なタスクは、損失の分布特性をモデル化することである。
本稿では,本質的に解釈可能なベースラインモデルとフレキシブルニューラルネットワークを組み合わせた分散リファインメントネットワーク(DRN)を提案する。
DRNは、全ての量子化の様々な効果を捉え、適切な解釈性を維持しながら予測性能を向上させる。
論文 参考訳(メタデータ) (2024-06-03T05:14:32Z) - Deep Grey-Box Modeling With Adaptive Data-Driven Models Toward
Trustworthy Estimation of Theory-Driven Models [88.63781315038824]
本稿では,ニューラルネットワークのアーキテクチャとトレーニング目標にわずかな変化を伴って,レギュレータの動作を経験的に分析することのできるフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-24T10:42:26Z) - Model Transparency and Interpretability : Survey and Application to the
Insurance Industry [1.6058099298620423]
本稿では、モデルタックルの解釈の重要性とモデルの透明性の概念を紹介する。
保険のコンテキスト内では、アクチュアリアルモデルの制御を強制するために、いくつかのツールがどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-09-01T16:12:54Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Generative Temporal Difference Learning for Infinite-Horizon Prediction [101.59882753763888]
我々は、無限確率的地平線を持つ環境力学の予測モデルである$gamma$-modelを導入する。
トレーニングタイムとテストタイムの複合的なエラーの間には、そのトレーニングが避けられないトレードオフを反映しているかについて議論する。
論文 参考訳(メタデータ) (2020-10-27T17:54:12Z) - A Framework to Learn with Interpretation [2.3741312212138896]
本稿では,予測モデルとその関連解釈モデルを共同で学習する新しい枠組みを提案する。
我々は,選択した隠れ層の出力を入力として取り込む,高レベル属性関数の小型辞書を求める。
学習した機能を視覚化する詳細なパイプラインも開発されている。
論文 参考訳(メタデータ) (2020-10-19T09:26:28Z) - A general framework for defining and optimizing robustness [74.67016173858497]
分類器の様々な種類の堅牢性を定義するための厳密でフレキシブルなフレームワークを提案する。
我々の概念は、分類器の堅牢性は正確性とは無関係な性質と考えるべきであるという仮定に基づいている。
我々は,任意の分類モデルに適用可能な,非常に一般的なロバスト性フレームワークを開発する。
論文 参考訳(メタデータ) (2020-06-19T13:24:20Z) - Semi-Structured Distributional Regression -- Extending Structured
Additive Models by Arbitrary Deep Neural Networks and Data Modalities [0.0]
本稿では、構造化回帰モデルとディープニューラルネットワークを統合ネットワークアーキテクチャに結合する一般的なフレームワークを提案する。
数値実験において,本フレームワークの有効性を実証し,ベンチマークや実世界の応用において,そのメリットを実証する。
論文 参考訳(メタデータ) (2020-02-13T21:01:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。