論文の概要: Micro-level Reserving for General Insurance Claims using a Long
Short-Term Memory Network
- arxiv url: http://arxiv.org/abs/2201.13267v1
- Date: Thu, 27 Jan 2022 02:49:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 19:57:13.686685
- Title: Micro-level Reserving for General Insurance Claims using a Long
Short-Term Memory Network
- Title(参考訳): 長期記憶ネットワークを用いた保険請求項のマイクロレベル保存
- Authors: Ihsan Chaoubi, Camille Besse, H\'el\`ene Cossette, Marie-Pier C\^ot\'e
- Abstract要約: 本稿では,Long Short-Term Memory(LSTM)ニューラルネットワークと呼ばれるディープラーニングアプローチにおいて,粒度情報を組み込んだ離散時間個別保存フレームワークを提案する。
ネットワークには2つのタスクがある: 1つは支払いか回復かを分類し、もう1つは対応するゼロでない金額を予測する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detailed information about individual claims are completely ignored when
insurance claims data are aggregated and structured in development triangles
for loss reserving. In the hope of extracting predictive power from the
individual claims characteristics, researchers have recently proposed to move
away from these macro-level methods in favor of micro-level loss reserving
approaches. We introduce a discrete-time individual reserving framework
incorporating granular information in a deep learning approach named Long
Short-Term Memory (LSTM) neural network. At each time period, the network has
two tasks: first, classifying whether there is a payment or a recovery, and
second, predicting the corresponding non-zero amount, if any. We illustrate the
estimation procedure on a simulated and a real general insurance dataset. We
compare our approach with the chain-ladder aggregate method using the
predictive outstanding loss estimates and their actual values. Based on a
generalized Pareto model for excess payments over a threshold, we adjust the
LSTM reserve prediction to account for extreme payments.
- Abstract(参考訳): 個々のクレームに関する詳細な情報は、保険請求データが集約され、損失保存のための開発トライアングルに構造化されると、完全に無視される。
個々のクレーム特性から予測パワーを抽出する目的で,近年,マイクロレベルの損失保存手法を優先して,これらのマクロレベルの手法から離れることが提案されている。
本稿では,Long Short-Term Memory(LSTM)ニューラルネットワークと呼ばれるディープラーニングアプローチにおいて,粒度情報を組み込んだ離散時間個別保存フレームワークを提案する。
各期間において、ネットワークには2つのタスクがある:1つは支払いがあるか回復があるかの分類、もう1つは対応する非ゼロの金額を予測する。
シミュレーションおよび実際の一般保険データセットにおける推定手順について述べる。
予測的損失推定値と実際の値を用いて,本手法とチェーンラダー集約法を比較した。
しきい値を超える過払いに対する一般化されたParetoモデルに基づいて、LSTM予約予測を極端支払いを考慮したものに調整する。
関連論文リスト
- Temporal Performance Prediction for Deep Convolutional Long Short-Term
Memory Networks [0.0]
本稿では,畳み込み型長期記憶ネットワークの予測性能を推定する時間後処理手法を提案する。
この目的のために,セグメントごとの時間セル状態に基づく入力メトリクスを作成し,予測品質を推定するための異なるモデルについて検討する。
論文 参考訳(メタデータ) (2023-11-13T17:11:35Z) - Large-scale Fully-Unsupervised Re-Identification [78.47108158030213]
大規模未ラベルデータから学ぶための2つの戦略を提案する。
第1の戦略は、近傍関係に違反することなく、それぞれのデータセットサイズを減らすために、局所的な近傍サンプリングを行う。
第2の戦略は、低時間上限の複雑さを持ち、メモリの複雑さを O(n2) から O(kn) に k n で還元する新しい再帰的手法を利用する。
論文 参考訳(メタデータ) (2023-07-26T16:19:19Z) - Differentially Private Statistical Inference through $\beta$-Divergence
One Posterior Sampling [2.8544822698499255]
本稿では,モデルとデータ生成プロセス間の$beta$-divergenceの最小化を目標とした,一般化後部からの後部サンプリング手法を提案する。
これにより、基礎となるモデルの変更を必要とせずに、一般的に適用可能なプライベートな推定が可能になる。
我々は、$beta$D-Bayesが同一のプライバシー保証に対してより正確な推測を行うことを示す。
論文 参考訳(メタデータ) (2023-07-11T12:00:15Z) - ZigZag: Universal Sampling-free Uncertainty Estimation Through Two-Step Inference [54.17205151960878]
汎用的でデプロイが容易なサンプリング不要のアプローチを導入します。
我々は,最先端手法と同等の信頼性のある不確実性推定を,計算コストを著しく低減した形で生成する。
論文 参考訳(メタデータ) (2022-11-21T13:23:09Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - Universal Off-Policy Evaluation [64.02853483874334]
ユニバーサルオフ政治推定器(UnO)への第一歩を踏み出す
我々は, 平均, 分散, 分位数/中間数, 分位数範囲, cvar, および累積分布全体の推定と同時結合に uno を用いる。
論文 参考訳(メタデータ) (2021-04-26T18:54:31Z) - Overcoming Catastrophic Forgetting with Gaussian Mixture Replay [79.0660895390689]
ガウス混合モデル(GMM)に基づく連続学習(CL)のためのリハーサルベースアプローチを提案する。
過去のタスクからサンプルを生成し,現在のトレーニングデータと統合することで,破滅的忘れ(cf)を緩和する。
複数の画像データセットでGMRを評価し,クラス別サブタスクに分割する。
論文 参考訳(メタデータ) (2021-04-19T11:41:34Z) - Rapid Risk Minimization with Bayesian Models Through Deep Learning
Approximation [9.93116974480156]
本稿では,ベイズモデル (BM) とニューラルネットワーク (NN) を組み合わせて,予測を最小限のリスクで行う手法を提案する。
私たちのアプローチは、BMのデータ効率と解釈可能性とNNの速度を組み合わせます。
テストデータセットに無視できる損失がある標準手法よりも、リスク最小限の予測をはるかに高速に達成する。
論文 参考訳(メタデータ) (2021-03-29T15:08:25Z) - Dimensionality reduction, regularization, and generalization in
overparameterized regressions [8.615625517708324]
主成分回帰(主成分回帰)としても知られるPCA-OLSは次元の減少によって回避できることを示す。
OLSは任意に敵の攻撃を受けやすいが,次元性低下はロバスト性を向上させることを示す。
その結果,プロジェクションがトレーニングデータに依存する手法は,トレーニングデータとは独立にプロジェクションが選択される手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-11-23T15:38:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。