論文の概要: From Chain-Ladder to Individual Claims Reserving
- arxiv url: http://arxiv.org/abs/2602.15385v1
- Date: Tue, 17 Feb 2026 06:46:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:18.001088
- Title: From Chain-Ladder to Individual Claims Reserving
- Title(参考訳): チェーンラダーから個別クレーム保存へ
- Authors: Ronald Richman, Mario V. Wüthrich,
- Abstract要約: チェーンラダー法(CL法)は、非生命保険において最も広く用いられているクレーム保存法である。
本論文では,CL予測手順におけるデータ利用の根本的な再構成に基づく,CL予約の計算方法を紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The chain-ladder (CL) method is the most widely used claims reserving technique in non-life insurance. This manuscript introduces a novel approach to computing the CL reserves based on a fundamental restructuring of the data utilization for the CL prediction procedure. Instead of rolling forward the cumulative claims with estimated CL factors, we estimate multi-period factors that project the latest observations directly to the ultimate claims. This alternative perspective on CL reserving creates a natural pathway for the application of machine learning techniques to individual claims reserving. As a proof of concept, we present a small-scale real data application employing neural networks for individual claims reserving.
- Abstract(参考訳): チェーンラダー法(CL法)は、非生命保険において最も広く用いられているクレーム保存法である。
本論文では,CL予測手順におけるデータ利用の根本的な再構成に基づく,CL予約の計算方法を紹介する。
CL因子を推定した累積的クレームを前進させる代わりに、最終クレームに直接最新の観測を投影する多周期因子を推定する。
CL保存に関するこの別の視点は、個々のクレーム保存に機械学習技術を適用するための自然な経路を生み出します。
概念実証として,個別のクレーム保存のためのニューラルネットワークを用いた小規模な実データアプリケーションを提案する。
関連論文リスト
- Reinforcement Learning for Micro-Level Claims Reserving [1.2613956492162683]
我々は、クレームレベルのマルコフ決定プロセスとして保存する個々のクレームを定式化する。
私たちは、バリュエーションにおいてオープンなクレームを含む、観察されたすべてのクレームトラジェクトリから学びます。
CASとSPLICEの総合保険データセットでは、提案されたSoft Actor-Critic実装は競合するクレームレベルの精度を提供する。
論文 参考訳(メタデータ) (2026-01-12T15:17:18Z) - Continual learning via probabilistic exchangeable sequence modelling [6.269118318460723]
継続的な学習 (CL) は、過去の経験から有用な情報を保持しながら、継続的に学習し、新しい知識を蓄積する能力である。
本稿では,スケーラブルでトラクタブルなベイズ更新と予測を行う確率的ニューラルプロセスに基づくCLモデルであるCL-Brunoを提案する。
論文 参考訳(メタデータ) (2025-03-26T17:08:20Z) - CLAP4CLIP: Continual Learning with Probabilistic Finetuning for Vision-Language Models [23.398619576886375]
継続学習(CL)は、ディープラーニングが学習したものを保持しながら、新しい知識を学ぶのを支援することを目的としている。
タスクごとの視覚誘導テキスト機能に対する確率的モデリングフレームワークであるCLAP(Continuous LeArning with Probabilistic Finetuning)を提案する。
論文 参考訳(メタデータ) (2024-03-28T04:15:58Z) - Mitigating Catastrophic Forgetting in Task-Incremental Continual
Learning with Adaptive Classification Criterion [50.03041373044267]
本稿では,継続的学習のための適応型分類基準を用いた教師付きコントラスト学習フレームワークを提案する。
実験により, CFLは最先端の性能を達成し, 分類基準に比べて克服する能力が強いことが示された。
論文 参考訳(メタデータ) (2023-05-20T19:22:40Z) - Real-Time Evaluation in Online Continual Learning: A New Hope [104.53052316526546]
計算コストに関して,現在の継続学習(CL)手法を評価した。
簡単なベースラインは、この評価の下で最先端のCL法より優れている。
これは、既存のCL文献の大部分は、実用的でない特定の種類のストリームに適合していることを驚くほど示唆している。
論文 参考訳(メタデータ) (2023-02-02T12:21:10Z) - A Study of Continual Learning Methods for Q-Learning [78.6363825307044]
本稿では、強化学習(RL)シナリオにおける継続学習(CL)手法の使用に関する実証的研究について述べる。
この結果から,専用CL法は「経験的再生」のベースライン手法と比較して学習を著しく改善できることがわかった。
論文 参考訳(メタデータ) (2022-06-08T14:51:52Z) - Micro-level Reserving for General Insurance Claims using a Long
Short-Term Memory Network [0.0]
本稿では,Long Short-Term Memory(LSTM)ニューラルネットワークと呼ばれるディープラーニングアプローチにおいて,粒度情報を組み込んだ離散時間個別保存フレームワークを提案する。
ネットワークには2つのタスクがある: 1つは支払いか回復かを分類し、もう1つは対応するゼロでない金額を予測する。
論文 参考訳(メタデータ) (2022-01-27T02:49:42Z) - Continual Learning in Recurrent Neural Networks [67.05499844830231]
リカレントニューラルネットワーク(RNN)を用いた逐次データ処理における連続学習手法の有効性を評価する。
RNNに弾性重み強化などの重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重
そこで本研究では,重み付け手法の性能が処理シーケンスの長さに直接的な影響を受けず,むしろ高動作メモリ要求の影響を受けていることを示す。
論文 参考訳(メタデータ) (2020-06-22T10:05:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。