論文の概要: Neural Networks and Value at Risk
- arxiv url: http://arxiv.org/abs/2005.01686v2
- Date: Wed, 6 May 2020 10:22:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 01:50:18.830394
- Title: Neural Networks and Value at Risk
- Title(参考訳): ニューラルネットワークとリスク価値
- Authors: Alexander Arimond, Damian Borth, Andreas Hoepner, Michael Klawunn and
Stefan Weisheit
- Abstract要約: リスクしきい値推定における資産価値のモンテカルロシミュレーションを行う。
株式市場と長期債を試験資産として利用し、ニューラルネットワークについて検討する。
はるかに少ないデータでフィードされたネットワークは、大幅にパフォーマンスが悪くなっています。
- 参考スコア(独自算出の注目度): 59.85784504799224
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Utilizing a generative regime switching framework, we perform Monte-Carlo
simulations of asset returns for Value at Risk threshold estimation. Using
equity markets and long term bonds as test assets in the global, US, Euro area
and UK setting over an up to 1,250 weeks sample horizon ending in August 2018,
we investigate neural networks along three design steps relating (i) to the
initialization of the neural network, (ii) its incentive function according to
which it has been trained and (iii) the amount of data we feed. First, we
compare neural networks with random seeding with networks that are initialized
via estimations from the best-established model (i.e. the Hidden Markov). We
find latter to outperform in terms of the frequency of VaR breaches (i.e. the
realized return falling short of the estimated VaR threshold). Second, we
balance the incentive structure of the loss function of our networks by adding
a second objective to the training instructions so that the neural networks
optimize for accuracy while also aiming to stay in empirically realistic regime
distributions (i.e. bull vs. bear market frequencies). In particular this
design feature enables the balanced incentive recurrent neural network (RNN) to
outperform the single incentive RNN as well as any other neural network or
established approach by statistically and economically significant levels.
Third, we half our training data set of 2,000 days. We find our networks when
fed with substantially less data (i.e. 1,000 days) to perform significantly
worse which highlights a crucial weakness of neural networks in their
dependence on very large data sets ...
- Abstract(参考訳): 生成レジームスイッチングフレームワークを利用して,リスクしきい値推定における資産リターンのモンテカルロシミュレーションを行う。
2018年8月に終了する最大1250週間のサンプル地平線設定で、世界、米国、ユーロ圏、英国の株式市場および長期債をテスト資産として使用し、ニューラルネットワークを3つの設計ステップに沿って調査する。
(i)ニューラルネットワークの初期化。
(ii)それが訓練されたことによるインセンティブ機能
(iii)供給するデータ量。
まず、ニューラルネットワークとランダムシードを比較し、最も確立されたモデル(すなわちHidden Markov)から推定されるネットワークを初期化する。
後者は、VaR違反の頻度(すなわち、推定されたVaRしきい値から外れた実効リターン)で上回る。
第2に、トレーニング命令に第2の目標を追加することで、ネットワークの損失関数のインセンティブ構造をバランスさせ、ニューラルネットワークが精度を最適化するとともに、経験的に現実的なレジーム分布(ブルとベアの市場周波数)に留まります。
特にこの設計機能は、バランスのとれたインセンティブリカレントニューラルネットワーク(rnn)が、他のニューラルネットワークだけでなく、統計的および経済的に重要なレベルで確立されたアプローチでも、単一のインセンティブrnnを上回ることができる。
第3に、トレーニングデータセットの半分は2,000日です。
私たちのネットワークは、かなり少ないデータ(すなわち1000日)でパフォーマンスを著しく低下させると、非常に大きなデータセットに依存するニューラルネットワークの重大な弱点を浮き彫りにする。
関連論文リスト
- Hard-Label Cryptanalytic Extraction of Neural Network Models [10.568722566232127]
ハードラベル設定下で機能的に等価な抽出を理論的に達成する最初の攻撃を提案する。
我々の攻撃の有効性は、広範囲のReLUニューラルネットワーク上での実践的な実験を通じて検証される。
論文 参考訳(メタデータ) (2024-09-18T02:17:10Z) - Bayesian Inference Accelerator for Spiking Neural Networks [3.145754107337963]
スパイキングニューラルネットワーク(SNN)は、計算面積と電力を減らす可能性がある。
本研究では,効率的なベイズSNNをハードウェア上で開発・実装するための最適化フレームワークについて述べる。
我々は、完全精度のベルヌーイパラメータを持つベイジアンバイナリネットワークに匹敵するアキュラ級数を示し、最大25時間分のスパイクを減らした。
論文 参考訳(メタデータ) (2024-01-27T16:27:19Z) - SynA-ResNet: Spike-driven ResNet Achieved through OR Residual Connection [10.702093960098104]
スパイキングニューラルネットワーク(SNN)は、その生物学的忠実さとエネルギー効率のよいスパイク駆動操作を実行する能力のために、脳のような計算にかなりの注意を払っている。
ORRC(Residual Connection)を通じて大量の冗長情報を蓄積する新しいトレーニングパラダイムを提案する。
次に,SynA(SynA)モジュールを用いて冗長情報をフィルタリングし,背骨における特徴抽出を促進するとともに,ショートカットにおけるノイズや無駄な特徴の影響を抑える。
論文 参考訳(メタデータ) (2023-11-11T13:36:27Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Global quantitative robustness of regression feed-forward neural
networks [0.0]
我々は回帰分解点の概念を回帰ニューラルネットワークに適用する。
我々は、故障率のプロキシにより、サンプル外損失によって測定された性能を比較した。
この結果は、ニューラルネットワークのトレーニングにロバストな損失関数を使うことを動機付けている。
論文 参考訳(メタデータ) (2022-11-18T09:57:53Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics [85.31710759801705]
現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
論文 参考訳(メタデータ) (2022-01-11T20:53:15Z) - The Compact Support Neural Network [6.47243430672461]
本研究では, 標準ドット生成物に基づくニューロンとRBFニューロンを, 形状パラメータの2つの極端な場合として提示する。
トレーニングされた標準ニューラルネットワークから始めて、必要な値まで形状パラメータを徐々に増加させることで、そのようなニューロンによるニューラルネットワークのトレーニングの難しさを回避する方法を示す。
論文 参考訳(メタデータ) (2021-04-01T06:08:09Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - ReActNet: Towards Precise Binary Neural Network with Generalized
Activation Functions [76.05981545084738]
本稿では,新たな計算コストを伴わずに,実数値ネットワークからの精度ギャップを埋めるため,バイナリネットワークを強化するためのいくつかのアイデアを提案する。
まず,パラメータフリーのショートカットを用いて,コンパクトな実数値ネットワークを修正・バイナライズすることで,ベースラインネットワークを構築する。
提案したReActNetはすべての最先端技術よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2020-03-07T02:12:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。