論文の概要: Alpha Discovery Neural Network based on Prior Knowledge
- arxiv url: http://arxiv.org/abs/1912.11761v8
- Date: Thu, 26 Nov 2020 06:22:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-10 08:29:50.996314
- Title: Alpha Discovery Neural Network based on Prior Knowledge
- Title(参考訳): 先行知識に基づくAlpha Discovery Neural Network
- Authors: Jie Fang, Shutao Xia, Jianwu Lin, Zhikang Xia, Xiang Liu, and Yong
Jiang
- Abstract要約: 遺伝的プログラミング(GP)は、金融自動化機能構築タスクにおける最先端技術である。
本稿では,分散金融技術指標の自動構築が可能なニューラルネットワーク構造であるAlpha Discovery Neural Network (ADNN)を提案する。
- 参考スコア(独自算出の注目度): 55.65102700986668
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Genetic programming (GP) is the state-of-the-art in financial automated
feature construction task. It employs reverse polish expression to represent
features and then conducts the evolution process. However, with the development
of deep learning, more powerful feature extraction tools are available. This
paper proposes Alpha Discovery Neural Network (ADNN), a tailored neural network
structure which can automatically construct diversified financial technical
indicators based on prior knowledge. We mainly made three contributions. First,
we use domain knowledge in quantitative trading to design the sampling rules
and object function. Second, pre-training and model pruning has been used to
replace genetic programming, because it can conduct more efficient evolution
process. Third, the feature extractors in ADNN can be replaced by different
feature extractors and produce different functions. The experiment results show
that ADNN can construct more informative and diversified features than GP,
which can effectively enriches the current factor pool. The fully-connected
network and recurrent network are better at extracting information from the
financial time series than the convolution neural network. In real practice,
features constructed by ADNN can always improve multi-factor strategies'
revenue, sharpe ratio, and max draw-down, compared with the investment
strategies without these factors.
- Abstract(参考訳): 遺伝的プログラミング(GP)は、金融自動化機能構築タスクにおける最先端技術である。
逆ポーランド表現を使って特徴を表現し、進化プロセスを実行する。
しかし、ディープラーニングの開発により、より強力な機能抽出ツールが利用可能になった。
本稿では,従来の知識に基づいて,多様な金融技術指標を自動的に構築できるニューラルネットワーク構造であるAlpha Discovery Neural Network (ADNN)を提案する。
私たちは主に3つの貢献をした。
まず、量的取引におけるドメイン知識を用いて、サンプリングルールとオブジェクト関数を設計する。
第二に、事前学習とモデル刈り取りは、より効率的な進化プロセスを実行することができるため、遺伝的プログラミングを置き換えるために使われてきた。
第三に、ADNNの特徴抽出器は異なる特徴抽出器に置き換えられ、異なる機能を生成することができる。
実験の結果,ADNNはGPよりも情報的かつ多様な特徴を構築でき,現行のファクタープールを効果的に強化できることがわかった。
完全接続されたネットワークとリカレントネットワークは、畳み込みニューラルネットワークよりも金融時系列から情報を抽出するのに優れている。
実際には、ADNNが構築した機能は、これらの要因のない投資戦略と比較して、常にマルチファクタ戦略の収益、シャープ比、最大引き出しを改善することができる。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - Supervised Feature Selection with Neuron Evolution in Sparse Neural
Networks [17.12834153477201]
スパースニューラルネットワークを用いた資源効率の高い新しい特徴選択法を提案する。
スクラッチからトレーニングされたスパースニューラルネットワークの入力層から、不定形的特徴を徐々に抜き取ることにより、NeuroFSは、機能の情報的サブセットを効率的に導き出す。
NeuroFSは、最先端の教師付き特徴選択モデルの中で最上位のスコアを達成している。
論文 参考訳(メタデータ) (2023-03-10T17:09:55Z) - Evolution of Activation Functions for Deep Learning-Based Image
Classification [0.0]
活性化関数(AF)は、ニューラルネットワークの性能において重要な役割を果たす。
AFを進化させる新しい3つの集団共進化アルゴリズムを提案する。
MNIST、FashionMNIST、KMNIST、USPSの4つのデータセットでテストした結果、優れたAFとAFアーキテクチャを見つけるためのパフォーマンスアルゴリズムであることが証明された。
論文 参考訳(メタデータ) (2022-06-24T05:58:23Z) - OGGN: A Novel Generalized Oracle Guided Generative Architecture for
Modelling Inverse Function of Artificial Neural Networks [0.6091702876917279]
本稿では,ANN(Artificial Neural Network)の逆関数を,完全にあるいは部分的にモデル化するための新しい生成ニューラルネットワークアーキテクチャを提案する。
OGGNと呼ばれる提案されたOracle Guided Generative Neural Networkは、さまざまな機能生成問題に柔軟に対応します。
この制約関数により、ニューラルネットワークは与えられた局所空間を長時間調査することができる。
論文 参考訳(メタデータ) (2021-04-08T17:28:52Z) - How Neural Networks Extrapolate: From Feedforward to Graph Neural
Networks [80.55378250013496]
勾配勾配降下法によりトレーニングされたニューラルネットワークが、トレーニング分布の支持の外で学んだことを外挿する方法について検討する。
グラフニューラルネットワーク(GNN)は、より複雑なタスクでいくつかの成功を収めている。
論文 参考訳(メタデータ) (2020-09-24T17:48:59Z) - Neural Network-based Automatic Factor Construction [58.96870869237197]
本稿ではニューラルネットワークを用いた自動ファクタ構築(NNAFC)を提案する。
NNAFCは、金融分野の知識に基づいて、様々な金融要因を自動構築することができる。
NNAFCによって構築された新しい要因は、常にリターン、シャープ比、多要素量的投資戦略の最大引き出しを改善することができる。
論文 参考訳(メタデータ) (2020-08-14T07:44:49Z) - Deep Polynomial Neural Networks [77.70761658507507]
$Pi$Netsは拡張に基づいた関数近似の新しいクラスである。
$Pi$Netsは、画像生成、顔検証、および3Dメッシュ表現学習という3つの困難なタスクで、最先端の結果を生成する。
論文 参考訳(メタデータ) (2020-06-20T16:23:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。