論文の概要: Deep Learning with Non-Linear Factor Models: Adaptability and Avoidance
of Curse of Dimensionality
- arxiv url: http://arxiv.org/abs/2209.04512v1
- Date: Fri, 9 Sep 2022 20:29:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 12:33:28.305845
- Title: Deep Learning with Non-Linear Factor Models: Adaptability and Avoidance
of Curse of Dimensionality
- Title(参考訳): 非線形因子モデルによる深層学習:次元の曲線の適応性と回避
- Authors: Mehmet Caner Maurizio Daniele
- Abstract要約: ディープラーニングの文献と非線形因子モデルを結びつける。
深層学習推定は非線形加法因子モデル文学において著しく改善されていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we connect deep learning literature with non-linear factor
models and show that deep learning estimation makes a substantial improvement
in the non-linear additive factor model literature. We provide bounds on the
expected risk and show that these upper bounds are uniform over a set of
multiple response variables by extending Schmidt-Hieber (2020) theorems.
We show that our risk bound does not depend on the number of factors.
In order to construct a covariance matrix estimator for asset returns, we
develop a novel data-dependent estimator of the error covariance matrix in deep
neural networks. The estimator refers to a flexible adaptive thresholding
technique which is robust to outliers in the innovations. We prove that the
estimator is consistent in spectral norm. Then using that result, we show
consistency and rate of convergence of covariance matrix and precision matrix
estimator for asset returns. The rate of convergence in both results do not
depend on the number of factors, hence ours is a new result in the factor model
literature due to the fact that number of factors are impediment to better
estimation and prediction. Except from the precision matrix result, all our
results are obtained even with number of assets are larger than the time span,
and both quantities are growing.
Various Monte Carlo simulations confirm our large sample findings and reveal
superior accuracies of the DNN-FM in estimating the true underlying functional
form which connects the factors and observable variables, as well as the
covariance and precision matrix compared to competing approaches. Moreover, in
an out-of-sample portfolio forecasting application it outperforms in most of
the cases alternative portfolio strategies in terms of out-of-sample portfolio
standard deviation and Sharpe ratio.
- Abstract(参考訳): 本稿では,深層学習文と非線形因子モデルを結びつけることにより,深層学習推定が非線形加法因子モデル文の大幅な改善をもたらすことを示す。
これらの上限は、シュミット・ハイバー(2020)の定理を拡張することで、複数の応答変数の集合に対して均一であることを示す。
リスクバウンドが要因の数に依存しないことを示します。
資産返却のための共分散行列推定器を構築するため,深層ニューラルネットワークにおける誤差共分散行列の新しいデータ依存推定器を開発した。
推定器はフレキシブルな適応しきい値決定技術であり、イノベーションにおける外れ値に対して堅牢である。
推定器がスペクトルノルムで一貫していることを証明する。
この結果を用いて、共分散行列の一貫性と収束率、および資産返却の精度行列推定器を示す。
両結果の収束率は因子の数には依存しないため,因子の数が推定や予測に支障をきたすため,因子モデル文献の新たな結果となる。
精度マトリクス結果以外は,アセット数が時間スパンより大きい場合でもすべての結果が得られ,両量ともに増加している。
モンテカルロシミュレーションにより, DNN-FMの精度が向上し, 因子と可観測変数を結合する真の機能形式と, 競合するアプローチと比較して共分散行列と精度行列を推定できることがわかった。
さらに、サンプル外ポートフォリオ予測アプリケーションでは、ほとんどの場合、サンプル外ポートフォリオ標準偏差とシャープ比の点で、代替ポートフォリオ戦略よりも優れています。
関連論文リスト
- Robust deep learning from weakly dependent data [0.0]
本稿では, 弱い依存度を持つ観測結果から, 非有界損失関数と非有界入力/出力を含む頑健な深層学習を考察する。
これらの境界と$r$の関係を導き、データが任意の順序のモーメント(すなわち$r=infty$)を持つとき、収束率はよく知られた結果に近い。
論文 参考訳(メタデータ) (2024-05-08T14:25:40Z) - From Reactive to Proactive Volatility Modeling with Hemisphere Neural Networks [0.0]
我々は,新しいニューラルネットワークアーキテクチャを用いて,マクロ経済密度予測のための最大推定値(MLE)を再活性化する。
ヘミスフィアニューラルネットワーク(HNN)は、可能時の主指標に基づく積極的なボラティリティ予測と、必要時の過去の予測誤差の大きさに基づく反応性ボラティリティ予測を提供する。
論文 参考訳(メタデータ) (2023-11-27T21:37:50Z) - Robust low-rank training via approximate orthonormal constraints [2.519906683279153]
低ランク行列多様体上でネットワークの重みを維持する頑健な低ランク学習アルゴリズムを導入する。
その結果, モデル精度を損なうことなく, トレーニングコストと推論コストを低減し, 良好な条件設定を実現し, 対向ロバスト性を向上する。
論文 参考訳(メタデータ) (2023-06-02T12:22:35Z) - DeepBayes -- an estimator for parameter estimation in stochastic
nonlinear dynamical models [11.917949887615567]
本研究では,DeepBayes推定器を提案する。
ディープリカレントニューラルネットワークアーキテクチャはオフラインでトレーニングでき、推論中にかなりの時間を節約できる。
提案手法の異なる実例モデルへの適用性を実証し, 最先端手法との詳細な比較を行う。
論文 参考訳(メタデータ) (2022-05-04T18:12:17Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - The Interplay Between Implicit Bias and Benign Overfitting in Two-Layer
Linear Networks [51.1848572349154]
ノイズの多いデータに完全に適合するニューラルネットワークモデルは、見当たらないテストデータにうまく一般化できる。
我々は,2層線形ニューラルネットワークを2乗損失の勾配流で補間し,余剰リスクを導出する。
論文 参考訳(メタデータ) (2021-08-25T22:01:01Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - Theoretical Analysis of Self-Training with Deep Networks on Unlabeled
Data [48.4779912667317]
自己学習アルゴリズムは、ニューラルネットワークを使ってラベルのないデータで学ぶことに成功している。
この研究は、半教師なし学習、教師なしドメイン適応、教師なし学習のための深層ネットワークによる自己学習の統一的理論的解析を提供する。
論文 参考訳(メタデータ) (2020-10-07T19:43:55Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z) - Recurrent neural networks and Koopman-based frameworks for temporal
predictions in a low-order model of turbulence [1.95992742032823]
本研究では,長期記憶ネットワークを適切に訓練したカオスシステムの長期統計の再現性に優れることを示す。
Koopmanベースのフレームワークは、非線形強制(KNF)を備えたKoopmanと呼ばれ、計算コストが大幅に低い統計において、同じレベルの正確性をもたらす。
論文 参考訳(メタデータ) (2020-05-01T11:05:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。