論文の概要: Deep Learning for Systemic Risk Measures
- arxiv url: http://arxiv.org/abs/2207.00739v1
- Date: Sat, 2 Jul 2022 05:01:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-05 16:47:09.371378
- Title: Deep Learning for Systemic Risk Measures
- Title(参考訳): システムリスク対策のための深層学習
- Authors: Yichen Feng, Ming Min, Jean-Pierre Fouque
- Abstract要約: 本研究の目的は,システム的リスク対策のための新しい方法論の枠組みを検討することである。
この新たな枠組みの下で、システム的リスク対策は、集約されたシステムを保護する最小限の現金として解釈できる。
ディープラーニングは、金融モデリングやリスク管理においてますます注目を集めている。
- 参考スコア(独自算出の注目度): 3.274367403737527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The aim of this paper is to study a new methodological framework for systemic
risk measures by applying deep learning method as a tool to compute the optimal
strategy of capital allocations. Under this new framework, systemic risk
measures can be interpreted as the minimal amount of cash that secures the
aggregated system by allocating capital to the single institutions before
aggregating the individual risks. This problem has no explicit solution except
in very limited situations. Deep learning is increasingly receiving attention
in financial modelings and risk management and we propose our deep learning
based algorithms to solve both the primal and dual problems of the risk
measures, and thus to learn the fair risk allocations. In particular, our
method for the dual problem involves the training philosophy inspired by the
well-known Generative Adversarial Networks (GAN) approach and a newly designed
direct estimation of Radon-Nikodym derivative. We close the paper with
substantial numerical studies of the subject and provide interpretations of the
risk allocations associated to the systemic risk measures. In the particular
case of exponential preferences, numerical experiments demonstrate excellent
performance of the proposed algorithm, when compared with the optimal explicit
solution as a benchmark.
- Abstract(参考訳): 本研究の目的は,自己資本配分の最適戦略を計算するためのツールとして深層学習法を適用し,システムリスク対策の方法論的枠組みを検討することである。
この新たな枠組みでは、システムリスク対策は、個々のリスクを集約する前に単一の機関に資本を割り当てることで、集約されたシステムを保護する最小の現金と解釈できる。
この問題には、非常に限られた状況を除いて明確な解決策がない。
深層学習は金融モデルやリスク管理においてますます注目を集めており,リスク対策の原始問題と二重問題の両方を解き,公平なリスク割り当てを学習するためのディープラーニングベースのアルゴリズムを提案する。
特に,二元問題に対する本手法は,gan(generative adversarial networks)アプローチに触発されたトレーニング哲学と,ラドン-ニコディム微分の直接推定を新たに設計した。
本論文は,本論文を実質的な数値研究で締めくくるとともに,システムリスク対策に関連するリスク割り当ての解釈を提供する。
特に指数的選好の場合、ベンチマークとして最適明示解と比較した場合、数値実験により提案アルゴリズムの優れた性能を示す。
関連論文リスト
- Pessimism Meets Risk: Risk-Sensitive Offline Reinforcement Learning [19.292214425524303]
リスクに敏感な強化学習(RL)は,不確実性を管理し,潜在的な有害な結果を最小限に抑えることが不可欠であるシナリオにおいて,意思決定を強化する能力において重要な分野である。
本研究は, エントロピーリスク尺度をRL問題に適用することに焦点を当てる。
我々は,リスクに敏感な観点からはまだ検討されていない理論的枠組みである線形マルコフ決定プロセス(MDP)の設定を中心としている。
論文 参考訳(メタデータ) (2024-07-10T13:09:52Z) - Provable Risk-Sensitive Distributional Reinforcement Learning with
General Function Approximation [54.61816424792866]
本稿では,リスク感性分布強化学習(RS-DisRL)と静的リプシッツリスク対策(LRM),一般関数近似について紹介する。
モデルに基づく関数近似のためのモデルベース戦略であるtextttRS-DisRL-M と、一般値関数近似のためのモデルフリーアプローチである textttRS-DisRL-V の2つの革新的なメタアルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-02-28T08:43:18Z) - Provably Efficient Iterated CVaR Reinforcement Learning with Function
Approximation and Human Feedback [57.6775169085215]
リスクに敏感な強化学習は、期待される報酬とリスクのバランスをとるポリシーを最適化することを目的としている。
本稿では,線形および一般関数近似の下で,CVaR(Iterated Conditional Value-at-Risk)を目標とする新しいフレームワークを提案する。
本稿では,この反復CVaR RLに対するサンプル効率の高いアルゴリズムを提案し,厳密な理論的解析を行う。
論文 参考訳(メタデータ) (2023-07-06T08:14:54Z) - Distributional Model Equivalence for Risk-Sensitive Reinforcement
Learning [20.449497882324785]
分散強化学習を活用し、モデル等価性の2つの新しい概念を導入する。
我々は、我々のフレームワークがどのようにモデルなしのリスクに敏感なアルゴリズムを拡張できるかを実証する。
論文 参考訳(メタデータ) (2023-07-04T13:23:21Z) - Multivariate Systemic Risk Measures and Computation by Deep Learning
Algorithms [63.03966552670014]
本稿では,主観的最適度と関連するリスク割り当ての公平性に着目し,重要な理論的側面について論じる。
私たちが提供しているアルゴリズムは、予備項の学習、二重表現の最適化、およびそれに対応する公正なリスク割り当てを可能にします。
論文 参考訳(メタデータ) (2023-02-02T22:16:49Z) - Risk-Sensitive Policy with Distributional Reinforcement Learning [4.523089386111081]
本研究は、リスクに敏感なシーケンシャルな意思決定ポリシーを導出する、分布RLに基づく新しい手法を提案する。
リスクベースのユーティリティ関数$U$と名付けられ、任意の分布RLアルゴリズムによって自然に学習されたランダムリターン分布$Z$から抽出することができる。
これにより、リスク最小化と期待されるリターン最大化の間の完全な潜在的なトレードオフをまたがることができる。
論文 参考訳(メタデータ) (2022-12-30T14:37:28Z) - A Survey of Risk-Aware Multi-Armed Bandits [84.67376599822569]
我々は、様々な利害リスク対策をレビューし、その特性についてコメントする。
我々は,探索と探索のトレードオフが現れる,後悔の最小化設定のためのアルゴリズムを検討する。
今後の研究の課題と肥大化についてコメントし、締めくくりに締めくくります。
論文 参考訳(メタデータ) (2022-05-12T02:20:34Z) - Efficient Risk-Averse Reinforcement Learning [79.61412643761034]
リスク逆強化学習(RL)では、リターンのリスク測定を最適化することが目標である。
特定の条件下では、これは必然的に局所最適障壁につながることを証明し、それを回避するためのソフトリスク機構を提案する。
迷路ナビゲーション,自律運転,資源配分ベンチマークにおいて,リスク回避の改善を示す。
論文 参考訳(メタデータ) (2022-05-10T19:40:52Z) - Sample-Based Bounds for Coherent Risk Measures: Applications to Policy
Synthesis and Verification [32.9142708692264]
本稿では,リスク認識の検証と政策合成に関するいくつかの問題に対処することを目的とする。
まず,確率変数分布のサブセットを評価するサンプルベース手法を提案する。
第二に、決定空間の大部分を上回る問題に対する解を決定するロボットベースの手法を開発する。
論文 参考訳(メタデータ) (2022-04-21T01:06:10Z) - Deep Reinforcement Learning for Equal Risk Pricing and Hedging under
Dynamic Expectile Risk Measures [1.2891210250935146]
そこで本稿では,非政治的なアクター批判型深層強化学習アルゴリズムにより,オプションに対する高品質な時間一貫したヘッジポリシーを同定できることを示す。
簡単なバニラオプションとよりエキゾチックなバスケットオプションの両方を含む数値実験により, 単純環境, ほぼ最適なヘッジポリシ, 高精度な価格で, かつ, 多様な成熟度を同時に生成できることが確認された。
全体として、リスクを後回しに評価した場合に、静的リスク測定によって生成された戦略を実際に上回ります。
論文 参考訳(メタデータ) (2021-09-09T02:52:06Z) - Learning Bounds for Risk-sensitive Learning [86.50262971918276]
リスクに敏感な学習では、損失のリスク・アバース(またはリスク・シーキング)を最小化する仮説を見つけることを目的としている。
最適化された確実性等価性によって最適性を記述するリスク感応学習スキームの一般化特性について検討する。
論文 参考訳(メタデータ) (2020-06-15T05:25:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。