論文の概要: Large (and Deep) Factor Models
- arxiv url: http://arxiv.org/abs/2402.06635v1
- Date: Sat, 20 Jan 2024 14:03:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-18 14:09:31.268349
- Title: Large (and Deep) Factor Models
- Title(参考訳): 大きな(そして深い)因子モデル
- Authors: Bryan Kelly, Boris Kuznetsov, Semyon Malamud, Teng Andrea Xu
- Abstract要約: 本研究では,分散因子(SDF)のシャープ比を最大化するために訓練された十分に広範かつ任意のディープニューラルネットワーク(DNN)が,大因子モデル(LFM)と等価であることを証明した。
エンド・ツー・エンドの訓練されたSDFをクローズドな形で初めて導き出す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We open up the black box behind Deep Learning for portfolio optimization and
prove that a sufficiently wide and arbitrarily deep neural network (DNN)
trained to maximize the Sharpe ratio of the Stochastic Discount Factor (SDF) is
equivalent to a large factor model (LFM): A linear factor pricing model that
uses many non-linear characteristics. The nature of these characteristics
depends on the architecture of the DNN in an explicit, tractable fashion. This
makes it possible to derive end-to-end trained DNN-based SDFs in closed form
for the first time. We evaluate LFMs empirically and show how various
architectural choices impact SDF performance. We document the virtue of depth
complexity: With enough data, the out-of-sample performance of DNN-SDF is
increasing in the NN depth, saturating at huge depths of around 100 hidden
layers.
- Abstract(参考訳): 我々は、ポートフォリオ最適化のためにDeep Learningの背後にあるブラックボックスを開き、SDF(Stochastic Discount Factor)のシャープ比を最大化するために訓練された十分に広く任意のディープニューラルネットワーク(DNN)が、多くの非線形特性を使用する線形因子価格モデル(LFM: linear factor pricing model)と等価であることを証明した。
これらの特性の性質は、明示的で扱いやすい方法でdnnのアーキテクチャに依存する。
これにより、エンドツーエンドでトレーニングされたDNNベースのSDFを、初めてクローズドな形式で引き出すことができる。
LFMを実証的に評価し,各種アーキテクチャ選択がSDF性能に与える影響を示す。
十分なデータがあれば、DNN-SDFのサンプル外性能はNNの深さで増加し、約100の隠蔽層で飽和している。
関連論文リスト
- Unveiling the Unseen: Identifiable Clusters in Trained Depthwise
Convolutional Kernels [56.69755544814834]
深部分離型畳み込みニューラルネットワーク(DS-CNN)の最近の進歩は、新しいアーキテクチャをもたらす。
本稿では,DS-CNNアーキテクチャのもう一つの顕著な特性を明らかにする。
論文 参考訳(メタデータ) (2024-01-25T19:05:53Z) - From Alexnet to Transformers: Measuring the Non-linearity of Deep Neural Networks with Affine Optimal Transport [32.39176908225668]
本稿では,DNNの非線形性シグネチャの概念を紹介する。これはディープニューラルネットワークの非線形性を測定するための,理論上初めての音響解である。
提案した非線形署名の実用性を明らかにするための実験結果について述べる。
論文 参考訳(メタデータ) (2023-10-17T17:50:22Z) - Bayesian Interpolation with Deep Linear Networks [92.1721532941863]
ニューラルネットワークの深さ、幅、データセットサイズがモデル品質にどう影響するかを特徴付けることは、ディープラーニング理論における中心的な問題である。
線形ネットワークが無限深度で証明可能な最適予測を行うことを示す。
また、データに依存しない先行法により、広い線形ネットワークにおけるベイズ模型の証拠は無限の深さで最大化されることを示す。
論文 参考訳(メタデータ) (2022-12-29T20:57:46Z) - On Feature Learning in Neural Networks with Global Convergence
Guarantees [49.870593940818715]
勾配流(GF)を用いた広帯域ニューラルネットワーク(NN)の最適化について検討する。
入力次元がトレーニングセットのサイズ以下である場合、トレーニング損失はGFの下での線形速度で0に収束することを示す。
また、ニューラル・タンジェント・カーネル(NTK)システムとは異なり、我々の多層モデルは特徴学習を示し、NTKモデルよりも優れた一般化性能が得られることを実証的に示す。
論文 参考訳(メタデータ) (2022-04-22T15:56:43Z) - EIGNN: Efficient Infinite-Depth Graph Neural Networks [51.97361378423152]
グラフニューラルネットワーク(GNN)は多くのアプリケーションでグラフ構造化データのモデリングに広く利用されている。
この制限により、無限深度GNNモデルを提案し、これをEIGNN(Efficient Infinite-Depth Graph Neural Networks)と呼ぶ。
EIGNNは、最近のベースラインよりも長距離依存関係をキャプチャする能力が優れており、常に最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-02-22T08:16:58Z) - A self consistent theory of Gaussian Processes captures feature learning
effects in finite CNNs [2.28438857884398]
無限幅/チャネル制限のディープニューラルネットワーク(DNN)が最近注目を集めている。
理論上の魅力にもかかわらず、この視点は有限DNNにおいて深層学習の重要な要素を欠いている。
ここでは,大きなトレーニングセット上で雑音勾配勾配で訓練されたDNNを考察し,強い有限DNNと特徴学習効果を考慮した自己一貫したガウス過程理論を導出する。
論文 参考訳(メタデータ) (2021-06-08T05:20:00Z) - A novel Deep Neural Network architecture for non-linear system
identification [78.69776924618505]
非線形システム識別のための新しいDeep Neural Network (DNN)アーキテクチャを提案する。
メモリシステムにインスパイアされたインダクティブバイアス(アーキテクチャ)と正規化(損失関数)を導入する。
このアーキテクチャは、利用可能なデータのみに基づいて、自動的な複雑性の選択を可能にする。
論文 参考訳(メタデータ) (2021-06-06T10:06:07Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - On the Turnpike to Design of Deep Neural Nets: Explicit Depth Bounds [0.0]
本稿では,Deep Neural Networks (DNN) において,どの層を考慮すべきかという質問に対する定量的回答を試みる。
基礎となる仮定は、層ごとのニューロンの数、すなわちDNNの幅が一定であることである。
我々は、仮定の到達可能性と訓練問題における正規化項の散逸誘導選択に基づいて、DNNの必要な深さの明示的な境界を証明する。
論文 参考訳(メタデータ) (2021-01-08T13:23:37Z) - Causality-aware counterfactual confounding adjustment for feature
representations learned by deep models [14.554818659491644]
因果モデリングは機械学習(ML)における多くの課題に対する潜在的な解決策として認識されている。
深層ニューラルネットワーク(DNN)モデルによって学習された特徴表現を分解するために、最近提案された対実的アプローチが依然として使われている方法について説明する。
論文 参考訳(メタデータ) (2020-04-20T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。