論文の概要: Periodic evaluation of defined-contribution pension fund: A dynamic risk measure approach
- arxiv url: http://arxiv.org/abs/2508.05241v1
- Date: Thu, 07 Aug 2025 10:31:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 18:59:39.817484
- Title: Periodic evaluation of defined-contribution pension fund: A dynamic risk measure approach
- Title(参考訳): 確定拠出年金基金の定期評価:動的リスク計測アプローチ
- Authors: Wanting He, Wenyuan Li, Yunran Wei,
- Abstract要約: 本稿では,定義拠出年金基金の定期的評価のための革新的枠組みを紹介する。
我々は、動的リスク尺度を基準とし、年金基金のテールリスクを動的に管理する。
米国のデータを用いて、私たちはリー・カーターモデルを通じて年金メンバーの死亡率と死亡率の予測を調整します。
- 参考スコア(独自算出の注目度): 0.6315366433343491
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces an innovative framework for the periodic evaluation of defined-contribution pension funds. The performance of the pension fund is evaluated not only at retirement, but also within the interim periods. In contrast to the traditional literature, we set the dynamic risk measure as the criterion and manage the tail risk of the pension fund dynamically. To effectively interact with the stochastic environment, a model-free reinforcement learning algorithm is proposed to search for optimal investment and insurance strategies. Using U.S. data, we calibrate pension members' mortality rates and enhance mortality projections through a Lee-Carter model. Our numerical results indicate that periodic evaluations lead to more risk-averse strategies, while mortality improvements encourage more risk-seeking behaviors.
- Abstract(参考訳): 本稿では,定義拠出年金基金の定期的評価のための革新的枠組みを紹介する。
年金基金のパフォーマンスは、退職時だけでなく、暫定期間中にも評価される。
従来の文献とは対照的に、動的リスク尺度を基準とし、年金基金のテールリスクを動的に管理する。
確率的環境と効果的に対話するために,最適な投資戦略と保険戦略を求めるモデルフリー強化学習アルゴリズムを提案する。
米国のデータを用いて、私たちは年金メンバーの死亡率を調整し、リー・カーターモデルによる死亡率の予測を強化する。
以上の結果から,定期的な評価がリスク回避戦略に結びつく一方で,死亡率の改善はリスク探索行動を促進することが示唆された。
関連論文リスト
- Measures of Variability for Risk-averse Policy Gradient [26.293988407069293]
リスク逆強化学習(RARL)における9つの共通変数尺度について検討する。
このうち、4つの指標は以前RARLで研究されなかった。
我々の実証研究は、分散ベースのメトリクスが不安定なポリシー更新につながることを明らかにしている。
論文 参考訳(メタデータ) (2025-04-15T17:28:15Z) - Adaptive Insurance Reserving with CVaR-Constrained Reinforcement Learning under Macroeconomic Regimes [0.0]
本稿では、テールリスク感度、マクロ経済体制モデリング、規制コンプライアンスを統合した保険保留のための強化学習(RL)フレームワークを提案する。
このフレームワークは、固定ショックストレステストとシステマティック・ストラテライズド・アナリティクスに対応しており、不確実性の下での維持に原則的で原則化されたアプローチを提供する。
論文 参考訳(メタデータ) (2025-04-13T01:43:25Z) - Diffusion Policies for Risk-Averse Behavior Modeling in Offline Reinforcement Learning [26.34178581703107]
オフライン強化学習(RL)は、観測データのみに依存するため、異なる課題を提示する。
本研究では,不確実性と環境の両面に同時に対処する不確実性を考慮したオフラインRL法を提案する。
本手法は,リスク感受性ベンチマークとリスクニュートラルベンチマークの両方で総合評価を行い,その優れた性能を実証した。
論文 参考訳(メタデータ) (2024-03-26T12:28:04Z) - Model-Based Epistemic Variance of Values for Risk-Aware Policy Optimization [59.758009422067]
モデルベース強化学習における累積報酬に対する不確実性を定量化する問題を考察する。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式(UBE)を提案する。
本稿では,リスク・サーキングとリスク・アバース・ポリシー最適化のいずれにも適用可能な汎用ポリシー最適化アルゴリズムQ-Uncertainty Soft Actor-Critic (QU-SAC)を導入する。
論文 参考訳(メタデータ) (2023-12-07T15:55:58Z) - On the Global Convergence of Risk-Averse Policy Gradient Methods with Expected Conditional Risk Measures [17.668631383216233]
リスクに敏感な強化学習(RL)は、不確実な結果のリスクを制御する一般的なツールとなっている。
政策グラディエント(PG)法がリスクニュートラルな場合と同じグローバル収束を保証するかどうかは不明だ。
論文 参考訳(メタデータ) (2023-01-26T04:35:28Z) - RASR: Risk-Averse Soft-Robust MDPs with EVaR and Entropic Risk [28.811725782388688]
本研究では,有限水平および割引無限水平MDPにおける不確実性に関連するリスクを共同でモデル化する新しい枠組みを提案し,分析する。
リスク回避をEVaRかエントロピーリスクのいずれかを用いて定義すると、RASRの最適ポリシーは時間依存型リスクレベルを持つ新しい動的プログラム定式化を用いて効率的に計算できることを示す。
論文 参考訳(メタデータ) (2022-09-09T00:34:58Z) - A Risk-Sensitive Approach to Policy Optimization [21.684251937825234]
標準深層強化学習(DRL)は、政策の定式化における収集経験を均等に考慮し、期待される報酬を最大化することを目的としている。
そこで本研究では,フルエピソード報酬の分布の累積分布関数 (CDF) で規定されるリスク感性目標を最適化する,より直接的なアプローチを提案する。
エージェントの動作が不十分なシナリオを強調する中程度の「悲観的」リスクプロファイルの使用が,探索の強化と,障害への継続的な対処に繋がることを示す。
論文 参考訳(メタデータ) (2022-08-19T00:55:05Z) - Efficient Risk-Averse Reinforcement Learning [79.61412643761034]
リスク逆強化学習(RL)では、リターンのリスク測定を最適化することが目標である。
特定の条件下では、これは必然的に局所最適障壁につながることを証明し、それを回避するためのソフトリスク機構を提案する。
迷路ナビゲーション,自律運転,資源配分ベンチマークにおいて,リスク回避の改善を示す。
論文 参考訳(メタデータ) (2022-05-10T19:40:52Z) - Risk-Sensitive Deep RL: Variance-Constrained Actor-Critic Provably Finds
Globally Optimal Policy [95.98698822755227]
本研究は,リスクに敏感な深層強化学習を,分散リスク基準による平均報酬条件下で研究する試みである。
本稿では,ポリシー,ラグランジュ乗算器,フェンシェル双対変数を反復的かつ効率的に更新するアクタ批判アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-28T05:02:26Z) - Reliable Off-policy Evaluation for Reinforcement Learning [53.486680020852724]
シーケンシャルな意思決定問題において、非政治評価は、目標政策の期待累積報酬を推定する。
本稿では、1つまたは複数のログデータを用いて、ロバストで楽観的な累積報酬推定を提供する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-08T23:16:19Z) - Learning Bounds for Risk-sensitive Learning [86.50262971918276]
リスクに敏感な学習では、損失のリスク・アバース(またはリスク・シーキング)を最小化する仮説を見つけることを目的としている。
最適化された確実性等価性によって最適性を記述するリスク感応学習スキームの一般化特性について検討する。
論文 参考訳(メタデータ) (2020-06-15T05:25:02Z) - Mean-Variance Policy Iteration for Risk-Averse Reinforcement Learning [75.17074235764757]
割引無限地平線MDPにおけるリスク・アバース制御の枠組みを提案する。
MVPIは、政策評価方法やリスクニュートラル制御手法を棚から外すためのリスク・アバース制御に投入できる点において、非常に柔軟性がある。
この柔軟性は、リスク中立制御とリスク逆制御のギャップを減らし、新しい拡張MDPの開発によって達成される。
論文 参考訳(メタデータ) (2020-04-22T22:23:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。