論文の概要: Support Vector Regression Parameters Optimization using Golden Sine
Algorithm and its application in stock market
- arxiv url: http://arxiv.org/abs/2103.11459v1
- Date: Sun, 21 Mar 2021 18:40:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 10:35:10.801427
- Title: Support Vector Regression Parameters Optimization using Golden Sine
Algorithm and its application in stock market
- Title(参考訳): ゴールデンサインアルゴリズムを用いた支援ベクトル回帰パラメータ最適化とその株式市場への応用
- Authors: Mohammadreza Ghanbari, Mahdi Goldani
- Abstract要約: サポートベクトル回帰(SVR)は、小さなサンプルと高次元の予測問題に優れたパフォーマンスを示す分類のための機械学習の新しいアプローチです。
ここでは,パラメータの適切な選択のために,Golden sineアルゴリズム(GSA)に基づくSVRを提案する。
その結果、与えられたアルゴリズムがパラメータのチューニングに効率的であり、精度と計算時間の点で競争力があることが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Support vector machine modeling is a new approach in machine learning for
classification showing good performance on forecasting problems of small
samples and high dimensions. Later, it promoted to Support Vector Regression
(SVR) for regression problems. A big challenge for achieving reliable is the
choice of appropriate parameters. Here, a novel Golden sine algorithm (GSA)
based SVR is proposed for proper selection of the parameters. For comparison,
the performance of the proposed algorithm is compared with eleven other
meta-heuristic algorithms on some historical stock prices of technological
companies from Yahoo Finance website based on Mean Squared Error and Mean
Absolute Percent Error. The results demonstrate that the given algorithm is
efficient for tuning the parameters and is indeed competitive in terms of
accuracy and computing time.
- Abstract(参考訳): サポートベクトルマシンモデリングは、小さなサンプルと高次元の予測問題において優れた性能を示す機械学習の新しい手法である。
その後、回帰問題に対してSVR(Support Vector Regression)に昇格した。
信頼性を達成するための大きな課題は、適切なパラメータの選択です。
ここではパラメータの適切な選択のために,Golden sineアルゴリズム(GSA)に基づくSVRを提案する。
比較のために,提案アルゴリズムの性能は,Mean Squared Error と Mean Absolute Percent Error に基づく Yahoo Finance ウェブサイトの技術的企業の歴史的株価に関する他の11のメタヒューリスティックアルゴリズムと比較した。
その結果、与えられたアルゴリズムはパラメータのチューニングに効率的であり、精度と計算時間という点で競合していることがわかった。
関連論文リスト
- A Multi-objective Newton Optimization Algorithm for Hyper-Parameter
Search [0.0]
このアルゴリズムを用いて畳み込みニューラルネットワークの多クラス物体検出問題に対する最適確率しきい値(8パラメータのベクトル)を探索する。
このアルゴリズムは、デフォルト値0.5に比べて総合的に高い真正(TP)と低い偽正(FP)率を生成する。
論文 参考訳(メタデータ) (2024-01-07T21:12:34Z) - Online Resource Allocation with Convex-set Machine-Learned Advice [27.662388663465006]
本稿では、一貫した比とロバストな比のバランスをとる最適オンラインリソース割り当てアルゴリズムのパラメータ化クラスを導入する。
具体的には、C-リート最適設定において、ロバスト比が少なくともCであることを保証するとともに、一貫した比を最大化する。
論文 参考訳(メタデータ) (2023-06-21T14:09:33Z) - Online Learning Under A Separable Stochastic Approximation Framework [20.26530917721778]
分離可能な近似フレームワークを用いて,機械学習モデルのクラスに対するオンライン学習アルゴリズムを提案する。
提案アルゴリズムは,他の一般的な学習アルゴリズムと比較して,より堅牢でテスト性能が高いことを示す。
論文 参考訳(メタデータ) (2023-05-12T13:53:03Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - Regret Bounds for Expected Improvement Algorithms in Gaussian Process
Bandit Optimization [63.8557841188626]
期待されている改善(EI)アルゴリズムは、不確実性の下で最適化するための最も一般的な戦略の1つである。
本稿では,GP予測平均を通した標準既存値を持つEIの変種を提案する。
我々のアルゴリズムは収束し、$mathcal O(gamma_TsqrtT)$の累積後悔境界を達成することを示す。
論文 参考訳(メタデータ) (2022-03-15T13:17:53Z) - Learning to Fit Morphable Models [12.469605679847085]
学習最適化の最近の進歩の上に構築し、古典的なレバンス・マルカルトアルゴリズムに触発された更新ルールを提案する。
本稿では,頭部装着装置による3次元体表面推定問題と2次元ランドマークによる顔の嵌合性に対するニューラルネットワークの有効性を示す。
論文 参考訳(メタデータ) (2021-11-29T18:59:53Z) - Cost-Efficient Online Hyperparameter Optimization [94.60924644778558]
実験の単一実行でヒトのエキスパートレベルのパフォーマンスに達するオンラインHPOアルゴリズムを提案します。
提案するオンラインhpoアルゴリズムは,実験の1回で人間のエキスパートレベルのパフォーマンスに到達できるが,通常のトレーニングに比べて計算オーバーヘッドは少ない。
論文 参考訳(メタデータ) (2021-01-17T04:55:30Z) - Logistic Q-Learning [87.00813469969167]
MDPにおける最適制御の正規化線形プログラミング定式化から導いた新しい強化学習アルゴリズムを提案する。
提案アルゴリズムの主な特徴は,広範に使用されているベルマン誤差の代わりとして理論的に音声として機能する,政策評価のための凸損失関数である。
論文 参考訳(メタデータ) (2020-10-21T17:14:31Z) - Landscape-Aware Fixed-Budget Performance Regression and Algorithm
Selection for Modular CMA-ES Variants [1.0965065178451106]
市販の教師あり学習手法を用いて,高品質な性能予測が可能であることを示す。
このアプローチを,モジュール型CMA-ESアルゴリズム群から選択した,非常に類似したアルゴリズムのポートフォリオ上でテストする。
論文 参考訳(メタデータ) (2020-06-17T13:34:57Z) - ADAHESSIAN: An Adaptive Second Order Optimizer for Machine Learning [91.13797346047984]
本稿では,2次最適化アルゴリズムであるADAHESSIANを紹介する。
ADAHESSIANは、他の適応最適化手法と比較して、新しい最先端の成果を大きなマージンで達成することを示す。
論文 参考訳(メタデータ) (2020-06-01T05:00:51Z) - Implicit differentiation of Lasso-type models for hyperparameter
optimization [82.73138686390514]
ラッソ型問題に適した行列逆転のない効率的な暗黙微分アルゴリズムを提案する。
提案手法は,解の空間性を利用して高次元データにスケールする。
論文 参考訳(メタデータ) (2020-02-20T18:43:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。