論文の概要: Chain-structured neural architecture search for financial time series forecasting
- arxiv url: http://arxiv.org/abs/2403.14695v2
- Date: Wed, 04 Dec 2024 11:58:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 18:18:13.021313
- Title: Chain-structured neural architecture search for financial time series forecasting
- Title(参考訳): 連鎖構造型ニューラルネットワークによる財務時系列予測
- Authors: Denis Levchenko, Efstratios Rappos, Shabnam Ataee, Biagio Nigro, Stephan Robert-Nicoud,
- Abstract要約: ニューラルネットワークを特定のタスクとデータセットに自動的に最適化する手段として、ニューラルネットワーク検索(NAS)が登場した。
画像や自然言語のNASに関する研究は多いが、時系列データに関する同様の研究は乏しい。
連鎖構造探索空間における3つの一般的な戦略(ベイズ最適化,ハイパーバンド法,強化学習学習)を比較した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Neural architecture search (NAS) emerged as a way to automatically optimize neural networks for a specific task and dataset. Despite an abundance of research on NAS for images and natural language applications, similar studies for time series data are lacking. Among NAS search spaces, chain-structured are the simplest and most applicable to small datasets like time series. We compare three popular NAS strategies on chain-structured search spaces: Bayesian optimization (specifically Tree-structured Parzen Estimator), the hyperband method, and reinforcement learning in the context of financial time series forecasting. These strategies were employed to optimize simple well-understood neural architectures like the MLP, 1D CNN, and RNN, with more complex temporal fusion transformers (TFT) and their own optimizers included for comparison. We find Bayesian optimization and the hyperband method performing best among the strategies, and RNN and 1D CNN best among the architectures, but all methods were very close to each other with a high variance due to the difficulty of working with financial datasets. We discuss our approach to overcome the variance and provide implementation recommendations for future users and researchers.
- Abstract(参考訳): ニューラルネットワークを特定のタスクとデータセットに自動的に最適化する手段として、ニューラルネットワーク検索(NAS)が登場した。
画像や自然言語のNASに関する研究は多いが、時系列データに関する同様の研究は乏しい。
NAS検索空間の中で、連鎖構造は最も単純で、時系列のような小さなデータセットに適用できる。
連鎖構造探索空間における3つのNAS戦略を比較する。ベイズ最適化(特に木構造パーゼン推定器)、ハイパーバンド法、金融時系列予測の文脈における強化学習である。
これらの戦略は、MLPや1D CNN、RNNといった単純なよく理解されたニューラルネットワークを最適化するために用いられ、より複雑な時間融合トランスフォーマー(TFT)と、それ自身のオプティマイザが比較に含まれていた。
ベイジアン最適化とハイパーバンド手法は,戦略の中では最良であり,アーキテクチャではRNNと1D CNNが最良である。
本稿では,分散を克服し,将来のユーザや研究者に実装勧告を提供するアプローチについて論じる。
関連論文リスト
- Optimizing Time Series Forecasting Architectures: A Hierarchical Neural Architecture Search Approach [17.391148813359088]
本稿では,時系列予測タスクのための階層型ニューラルネットワーク探索手法を提案する。
階層型検索空間の設計により,タスク予測用に設計された多くのアーキテクチャタイプを組み込んだ。
長期予測タスクの結果から,本手法が軽量な高性能予測アーキテクチャを探索できることが示唆された。
論文 参考訳(メタデータ) (2024-06-07T17:02:37Z) - Incorporating Taylor Series and Recursive Structure in Neural Networks
for Time Series Prediction [0.29008108937701327]
時系列分析は物理学、生物学、化学、金融など様々な分野に関係している。
本稿では、ResNet構造から要素を統合するニューラルネットワークアーキテクチャについて紹介し、革新的なTaylorシリーズフレームワークを紹介した。
論文 参考訳(メタデータ) (2024-02-09T14:34:28Z) - HKNAS: Classification of Hyperspectral Imagery Based on Hyper Kernel
Neural Architecture Search [104.45426861115972]
設計したハイパーカーネルを利用して,構造パラメータを直接生成することを提案する。
我々は1次元または3次元の畳み込みを伴う画素レベルの分類と画像レベルの分類を別々に行う3種類のネットワークを得る。
6つの公開データセットに関する一連の実験は、提案手法が最先端の結果を得ることを示した。
論文 参考訳(メタデータ) (2023-04-23T17:27:40Z) - An algorithmic framework for the optimization of deep neural networks architectures and hyperparameters [0.23301643766310373]
本稿では,効率的なディープニューラルネットワークを自動生成するアルゴリズムフレームワークを提案する。
このフレームワークは、進化的有向非巡回グラフ(DAG)に基づいている。
畳み込み(convolutions)、再帰(recurrentence)、密集層( dense layer)といった古典的な操作の混合を可能にするだけでなく、自己注意(self-attention)のようなより新しい操作も可能である。
論文 参考訳(メタデータ) (2023-02-27T08:00:33Z) - RANK-NOSH: Efficient Predictor-Based Architecture Search via Non-Uniform
Successive Halving [74.61723678821049]
予算の浪費を回避するため,早期に性能の低いアーキテクチャのトレーニングを終了する階層的スケジューリングアルゴリズムであるNOn-uniform Successive Halving (NOSH)を提案する。
予測器に基づくアーキテクチャ探索をペア比較でランク付けする学習として定式化する。
その結果、RANK-NOSHは検索予算を5倍に削減し、様々な空間やデータセットにおける従来の最先端予測手法よりも、競争力やパフォーマンスの向上を実現した。
論文 参考訳(メタデータ) (2021-08-18T07:45:21Z) - On the Exploitation of Neuroevolutionary Information: Analyzing the Past
for a More Efficient Future [60.99717891994599]
本稿では,神経進化過程から情報を抽出し,メタモデルを構築するアプローチを提案する。
本稿では, 異なる特徴を有する生成的対向ネットワークの神経進化的探索における最良の構造について検討する。
論文 参考訳(メタデータ) (2021-05-26T20:55:29Z) - Firefly Neural Architecture Descent: a General Approach for Growing
Neural Networks [50.684661759340145]
firefly neural architecture descentは、ニューラルネットワークを漸進的かつ動的に成長させるための一般的なフレームワークである。
ホタルの降下は、より広く、より深くネットワークを柔軟に成長させ、正確だがリソース効率のよいニューラルアーキテクチャを学習するために応用できることを示す。
特に、サイズは小さいが、最先端の手法で学習したネットワークよりも平均精度が高いネットワークを学習する。
論文 参考訳(メタデータ) (2021-02-17T04:47:18Z) - Trilevel Neural Architecture Search for Efficient Single Image
Super-Resolution [127.92235484598811]
本稿では,高効率単一画像超解像(SR)のための3レベルニューラルネットワーク探索法を提案する。
離散探索空間をモデル化するために、離散探索空間に新たな連続緩和を適用し、ネットワークパス、セル操作、カーネル幅の階層的混合を構築する。
階層型スーパーネット方式による最適化を行うため,効率的な探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-17T12:19:49Z) - Off-Policy Reinforcement Learning for Efficient and Effective GAN
Architecture Search [50.40004966087121]
本稿では,GANアーキテクチャ探索のための強化学習に基づくニューラルアーキテクチャ探索手法を提案する。
鍵となる考え方は、よりスムーズなアーキテクチャサンプリングのためのマルコフ決定プロセス(MDP)として、GANアーキテクチャ探索問題を定式化することである。
我々は,従来の政策によって生成されたサンプルを効率的に活用する,非政治的なGANアーキテクチャ探索アルゴリズムを利用する。
論文 参考訳(メタデータ) (2020-07-17T18:29:17Z) - An Introduction to Neural Architecture Search for Convolutional Networks [0.0]
ニューラルアーキテクチャサーチ(英: Neural Architecture Search、NAS)は、最適化アルゴリズムを利用して最適なニューラルネットワークアーキテクチャを設計する研究分野である。
我々は、畳み込みネットワークのためのNASの基本概念と、探索空間、アルゴリズム、評価技術の大きな進歩について紹介する。
論文 参考訳(メタデータ) (2020-05-22T09:33:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。