論文の概要: Hedging with Linear Regressions and Neural Networks
- arxiv url: http://arxiv.org/abs/2004.08891v3
- Date: Mon, 14 Jun 2021 08:11:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 00:03:53.498391
- Title: Hedging with Linear Regressions and Neural Networks
- Title(参考訳): 線形回帰とニューラルネットワークによるヘッジ
- Authors: Johannes Ruf, Weiguan Wang
- Abstract要約: ニューラルネットワークをオプションのヘッジのための非パラメトリック推定ツールとして研究する。
我々はHedgeNetという,ヘッジ戦略を直接出力するネットワークを設計する。
S&P500とEuro Stoxx 50のオプションの終りと安値の適用により、ネットワークは平均2乗ヘッジエラーを大幅に削減できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We study neural networks as nonparametric estimation tools for the hedging of
options. To this end, we design a network, named HedgeNet, that directly
outputs a hedging strategy. This network is trained to minimise the hedging
error instead of the pricing error. Applied to end-of-day and tick prices of
S&P 500 and Euro Stoxx 50 options, the network is able to reduce the mean
squared hedging error of the Black-Scholes benchmark significantly. However, a
similar benefit arises by simple linear regressions that incorporate the
leverage effect.
- Abstract(参考訳): ニューラルネットワークをオプションのヘッジのための非パラメトリック推定ツールとして研究する。
この目的のために,HedgeNetというネットワークを設計し,ヘッジ戦略を直接出力する。
このネットワークは、価格エラーの代わりにヘッジエラーを最小限に抑えるよう訓練されている。
s&p 500 と euro stoxx 50 オプションの終日および終日価格に適用すると、ネットワークはブラックスコールベンチマークの平均二乗ヘッジ誤差を大幅に低減することができる。
しかし、同様の利点は、レバレッジ効果を組み込んだ単純な線形回帰によって生じる。
関連論文リスト
- Cryptocurrency Portfolio Optimization by Neural Networks [81.20955733184398]
本稿では,これらの投資商品を活用するために,ニューラルネットワークに基づく効果的なアルゴリズムを提案する。
シャープ比を最大化するために、各アセットの割り当て重量を時間間隔で出力するディープニューラルネットワークを訓練する。
ネットワークの特定の資産に対するバイアスを規制する新たな損失項を提案し,最小分散戦略に近い割り当て戦略をネットワークに学習させる。
論文 参考訳(メタデータ) (2023-10-02T12:33:28Z) - Loss Minimization Yields Multicalibration for Large Neural Networks [16.047146428254592]
マルチキャリブレーション(英: multicalibration)とは、予測器に対して、多数の保護されたグループに対して校正された予測を提供することを要求する公平性の概念である。
大きさ$n$の全てのニューラルネット上の2乗損失を最小化することは、有界な不運な値が$n$であるにもかかわらず、すべてに対して多重校正を意味することを示す。
論文 参考訳(メタデータ) (2023-04-19T05:16:20Z) - The Onset of Variance-Limited Behavior for Networks in the Lazy and Rich
Regimes [75.59720049837459]
無限幅挙動からこの分散制限状態への遷移をサンプルサイズ$P$とネットワーク幅$N$の関数として検討する。
有限サイズ効果は、ReLUネットワークによる回帰のために、$P* sim sqrtN$の順序で非常に小さなデータセットに関係があることが分かる。
論文 参考訳(メタデータ) (2022-12-23T04:48:04Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - Robustness Certificates for Implicit Neural Networks: A Mixed Monotone
Contractive Approach [60.67748036747221]
暗黙のニューラルネットワークは、競合性能とメモリ消費の削減を提供する。
入力逆流の摂動に関して、それらは不安定なままである。
本稿では,暗黙的ニューラルネットワークのロバスト性検証のための理論的および計算的枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-10T03:08:55Z) - Generative Adversarial Network (GAN) and Enhanced Root Mean Square Error
(ERMSE): Deep Learning for Stock Price Movement Prediction [15.165487282631535]
本稿では,予測精度を向上し,ジェネレーティブ・アドバイサル・ネットワークを用いて誤差損失の予測を最小化することを目的とする。
The Generative Adversarial Network (GAN) has well performed on the enhanced root mean square error to LSTM。
論文 参考訳(メタデータ) (2021-11-30T18:38:59Z) - Scalable Lipschitz Residual Networks with Convex Potential Flows [120.27516256281359]
残差ネットワーク勾配流における凸ポテンシャルを用いることで,1ドルのLipschitz変換が組み込まれていることを示す。
CIFAR-10の包括的な実験は、アーキテクチャのスケーラビリティと、証明可能な防御に$ell$のアプローチの利点を実証している。
論文 参考訳(メタデータ) (2021-10-25T07:12:53Z) - Generalized Quantile Loss for Deep Neural Networks [0.8594140167290096]
このノートは、回帰ニューラルネットワークにカウント(または量子化)制約を追加する簡単な方法を示しています。トレーニングセットで$n$サンプルを与えられた場合、$mn$サンプルの予測が実際の値(ラベル)よりも大きいことを保証します。
標準分位レグレッションネットワークとは異なり、提案手法は任意の損失関数に適用できるが、標準分位レグレッション損失は必ずしも適用できず、平均絶対差を最小化することができる。
論文 参考訳(メタデータ) (2020-12-28T16:37:02Z) - Neural Networks and Value at Risk [59.85784504799224]
リスクしきい値推定における資産価値のモンテカルロシミュレーションを行う。
株式市場と長期債を試験資産として利用し、ニューラルネットワークについて検討する。
はるかに少ないデータでフィードされたネットワークは、大幅にパフォーマンスが悪くなっています。
論文 参考訳(メタデータ) (2020-05-04T17:41:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。