論文の概要: Interpretability in deep learning for finance: a case study for the
Heston model
- arxiv url: http://arxiv.org/abs/2104.09476v1
- Date: Mon, 19 Apr 2021 17:37:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 13:28:47.873245
- Title: Interpretability in deep learning for finance: a case study for the
Heston model
- Title(参考訳): 金融のための深層学習における解釈可能性--ヘストンモデルの場合
- Authors: Damiano Brigo, Xiaoshan Huang, Andrea Pallavicini, Haitz Saez de
Ocariz Borde
- Abstract要約: 本稿では,最近深層学習アルゴリズムが取り組んだボラティリティモデルのキャリブレーションプロセスに注目する。
協調ゲーム理論から生じるローカル戦略とグローバル戦略の能力を調べ、訓練されたニューラルネットワークを説明します。
完全連結ニューラルネットワークは、ヘストンモデルの価格を関係パラメータに予測し解釈する上で、畳み込みニューラルネットワークよりも優れた性能を持つことがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning is a powerful tool whose applications in quantitative finance
are growing every day. Yet, artificial neural networks behave as black boxes
and this hinders validation and accountability processes. Being able to
interpret the inner functioning and the input-output relationship of these
networks has become key for the acceptance of such tools. In this paper we
focus on the calibration process of a stochastic volatility model, a subject
recently tackled by deep learning algorithms. We analyze the Heston model in
particular, as this model's properties are well known, resulting in an ideal
benchmark case. We investigate the capability of local strategies and global
strategies coming from cooperative game theory to explain the trained neural
networks, and we find that global strategies such as Shapley values can be
effectively used in practice. Our analysis also highlights that Shapley values
may help choose the network architecture, as we find that fully-connected
neural networks perform better than convolutional neural networks in predicting
and interpreting the Heston model prices to parameters relationship.
- Abstract(参考訳): ディープラーニングは、量的金融の応用が毎日増えている強力なツールです。
しかし、ニューラルネットワークはブラックボックスのように振る舞うため、検証や説明責任のプロセスを妨げる。
これらのネットワークの内部機能と入出力関係を解釈できることが、そのようなツールの受容の鍵となっている。
本稿では,最近深層学習アルゴリズムが取り組んだ確率的ボラティリティモデルのキャリブレーションプロセスに注目した。
このモデルの性質がよく知られているため、特にヘストンモデルを分析し、理想的なベンチマークケースを生み出した。
学習したニューラルネットワークを説明するために,協調ゲーム理論から得られる局所戦略とグローバル戦略の能力について検討し,shapley値などのグローバル戦略を効果的に活用できることを見いだした。
私たちの分析では、完全連結ニューラルネットワークが畳み込みニューラルネットワークよりも優れた性能を発揮すること、ヘストンモデルの価格をパラメータ関係に予測し解釈すること、などにより、shapley値がネットワークアーキテクチャを選択する上で有効であることも示しています。
関連論文リスト
- Transferable Post-training via Inverse Value Learning [83.75002867411263]
別個のニューラルネットワーク(すなわち値ネットワーク)を用いた後学習におけるロジットレベルのモデリング変更を提案する。
このネットワークをデモを使って小さなベースモデルでトレーニングした後、推論中に他のトレーニング済みモデルとシームレスに統合することができる。
得られた値ネットワークは、パラメータサイズの異なる事前学習されたモデル間で広い転送性を有することを示す。
論文 参考訳(メタデータ) (2024-10-28T13:48:43Z) - Convergence Analysis for Deep Sparse Coding via Convolutional Neural Networks [7.956678963695681]
本稿では,Deep Sparse Coding(DSC)モデルについて紹介する。
スパース特徴を抽出する能力において,CNNの収束率を導出する。
スパースコーディングとCNNの強いつながりにインスパイアされた私たちは、ニューラルネットワークがよりスパースな機能を学ぶように促すトレーニング戦略を探求する。
論文 参考訳(メタデータ) (2024-08-10T12:43:55Z) - Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Creating Powerful and Interpretable Models withRegression Networks [2.2049183478692584]
本稿では,ニューラルネットワークのパワーと回帰分析の可視性を組み合わせた新しいアーキテクチャRegression Networksを提案する。
これらのモデルが,いくつかのベンチマークデータセット上での解釈可能なモデルの最先端性能を上回ることを実証する。
論文 参考訳(メタデータ) (2021-07-30T03:37:00Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Deep Neural Networks and Neuro-Fuzzy Networks for Intellectual Analysis
of Economic Systems [0.0]
本稿では,ディープニューラルネットワークとニューロファジィネットに基づく時系列予測手法を提案する。
本稿では,ルールベースの方法論をディープラーニングニューラルネットワークに組み込むためのアプローチについても概説する。
論文 参考訳(メタデータ) (2020-11-11T06:21:08Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Learning Queuing Networks by Recurrent Neural Networks [0.0]
データから性能モデルを導出する機械学習手法を提案する。
我々は、通常の微分方程式のコンパクトな系の観点から、それらの平均力学の決定論的近似を利用する。
これにより、ニューラルネットワークの解釈可能な構造が可能になり、システム測定からトレーニングしてホワイトボックスパラメータ化モデルを生成することができる。
論文 参考訳(メタデータ) (2020-02-25T10:56:47Z) - A deep learning framework for solution and discovery in solid mechanics [1.4699455652461721]
本稿では,物理情報ニューラルネットワーク(PINN)と呼ばれるディープラーニングのクラスを,固体力学の学習と発見に応用する。
本稿では, 運動量バランスと弾性の関係をPINNに組み込む方法について解説し, 線形弾性への応用について詳細に検討する。
論文 参考訳(メタデータ) (2020-02-14T08:24:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。