論文の概要: A Novel Experts Advice Aggregation Framework Using Deep Reinforcement
Learning for Portfolio Management
- arxiv url: http://arxiv.org/abs/2212.14477v1
- Date: Thu, 29 Dec 2022 22:48:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 17:50:47.735018
- Title: A Novel Experts Advice Aggregation Framework Using Deep Reinforcement
Learning for Portfolio Management
- Title(参考訳): ポートフォリオ管理のための深層強化学習を用いた新たなエキスパートアドバイザ集約フレームワーク
- Authors: MohammadAmin Fazli, Mahdi Lashkari, Hamed Taherkhani, Jafar Habibi
- Abstract要約: 本稿では,専門家の信号と過去の価格データを用いて,強化学習フレームワークにフィードバックを与える手法を提案する。
私たちのフレームワークは、最高の専門家が獲得した利益の90%を得ることができます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Solving portfolio management problems using deep reinforcement learning has
been getting much attention in finance for a few years. We have proposed a new
method using experts signals and historical price data to feed into our
reinforcement learning framework. Although experts signals have been used in
previous works in the field of finance, as far as we know, it is the first time
this method, in tandem with deep RL, is used to solve the financial portfolio
management problem. Our proposed framework consists of a convolutional network
for aggregating signals, another convolutional network for historical price
data, and a vanilla network. We used the Proximal Policy Optimization algorithm
as the agent to process the reward and take action in the environment. The
results suggested that, on average, our framework could gain 90 percent of the
profit earned by the best expert.
- Abstract(参考訳): 深層強化学習によるポートフォリオ管理問題の解決は、ここ数年、金融業界で注目されている。
我々は,強化学習の枠組みとして,専門家の信号と過去の価格データを用いた新しい手法を提案する。
金融分野では,これまで専門家の信号が用いられてきたが,金融ポートフォリオ管理の課題を解決するために,この手法が深部RLと連動して使用されるのは今回が初めてである。
提案するフレームワークは,信号集約のための畳み込みネットワーク,歴史的価格データのための畳み込みネットワーク,バニラネットワークから構成される。
我々は、報酬処理と環境への対処を行うエージェントとして、ポリシー最適化アルゴリズムを使用した。
その結果、我々のフレームワークは、最高の専門家が獲得した利益の90%を得ることができた。
関連論文リスト
- A Deep Reinforcement Learning Framework For Financial Portfolio Management [3.186092314772714]
ディープラーニング技術によって解決されるポートフォリオ管理の問題である。
このフレームワークを実現するために、CNN(Convolutional Neural Network)、RNN(Basic Recurrent Neural Network)、Long Short-Term Memory(Long Short-Term Memory)という3つの異なるインスタンスが使用される。
我々は、優れたリターンを得られる原紙の複製に成功したが、株式市場に適用されると、うまく機能しない。
論文 参考訳(メタデータ) (2024-09-03T20:11:04Z) - Markowitz Meets Bellman: Knowledge-distilled Reinforcement Learning for Portfolio Management [7.199922073535674]
本稿では、マルコウィッツのポートフォリオ理論と強化学習を組み合わせたハイブリッドアプローチを提案する。
特に,KDD (Knowledge Distillation DDPG) と呼ばれる本手法は,教師付きおよび強化学習段階の2段階からなる。
標準的な金融モデルとAIフレームワークの比較分析では、リターンやシャープ比、9つの評価指標などを使用して、モデルの優位性を明らかにします。
論文 参考訳(メタデータ) (2024-05-08T22:54:04Z) - Neural Active Learning Beyond Bandits [69.99592173038903]
ストリームベースとプールベースの両方のアクティブラーニングをニューラルネットワーク近似を用いて検討する。
ストリームベースおよびプールベースアクティブラーニングのためのニューラルネットワークを新たに設計したエクスプロイトと探索に基づく2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-18T21:52:14Z) - Cryptocurrency Portfolio Optimization by Neural Networks [81.20955733184398]
本稿では,これらの投資商品を活用するために,ニューラルネットワークに基づく効果的なアルゴリズムを提案する。
シャープ比を最大化するために、各アセットの割り当て重量を時間間隔で出力するディープニューラルネットワークを訓練する。
ネットワークの特定の資産に対するバイアスを規制する新たな損失項を提案し,最小分散戦略に近い割り当て戦略をネットワークに学習させる。
論文 参考訳(メタデータ) (2023-10-02T12:33:28Z) - Learning to Learn Financial Networks for Optimising Momentum Strategies [14.049479722250835]
ネットワークモーメントは、金融ネットワーク内の資産間の相互接続を利用して将来のリターンを予測する、新しいタイプのリスクプレミアムを提供する。
L2GMOMは、金融ネットワークを同時に学習し、取引信号をネットワークのモーメント戦略に最適化するエンド・ツー・エンドの機械学習フレームワークである。
64の継続的な将来の契約に対するバックテストは、ポートフォリオの収益性とリスク管理の大幅な改善を示し、シャープ比は20年にわたって1.74である。
論文 参考訳(メタデータ) (2023-08-23T15:51:29Z) - Optimizing Credit Limit Adjustments Under Adversarial Goals Using
Reinforcement Learning [42.303733194571905]
我々は、強化学習技術を用いて最適なクレジットカード制限調整ポリシーを発見し、自動化することを模索する。
本研究は、信用限度調整に強化学習フレームワークを適用するための概念構造を確立する。
論文 参考訳(メタデータ) (2023-06-27T16:10:36Z) - Anti-Concentrated Confidence Bonuses for Scalable Exploration [57.91943847134011]
固有の報酬は、探検と探検のトレードオフを扱う上で中心的な役割を果たす。
楕円ボーナスを効率的に近似するためのエンファンティ集中型信頼境界を導入する。
我々は,Atariベンチマーク上での現代固有の報酬と競合する,深層強化学習のための実用的な変種を開発する。
論文 参考訳(メタデータ) (2021-10-21T15:25:15Z) - Online Apprenticeship Learning [58.45089581278177]
見習い学習(AL)では、コスト関数にアクセスせずにマルコフ決定プロセス(MDP)が与えられます。
目標は、事前に定義されたコスト関数のセットで専門家のパフォーマンスに一致するポリシーを見つけることです。
ミラー下降型ノンレグレットアルゴリズムを2つ組み合わせることで,OAL問題を効果的に解くことができることを示す。
論文 参考訳(メタデータ) (2021-02-13T12:57:51Z) - Model-Augmented Q-learning [112.86795579978802]
モデルベースRLの構成要素を付加したMFRLフレームワークを提案する。
具体的には、$Q$-valuesだけでなく、共有ネットワークにおける遷移と報酬の両方を見積もる。
提案手法は,MQL (Model-augmented $Q$-learning) とよばれる提案手法により,真に報いられた学習によって得られる解と同一のポリシ不変解が得られることを示す。
論文 参考訳(メタデータ) (2021-02-07T17:56:50Z) - Cost-Sensitive Portfolio Selection via Deep Reinforcement Learning [100.73223416589596]
深層強化学習を用いたコスト依存型ポートフォリオ選択手法を提案する。
具体的には、価格系列パターンと資産相関の両方を抽出するために、新しい2ストリームポートフォリオポリシーネットワークを考案した。
蓄積したリターンを最大化し、強化学習によるコストの両立を抑えるため、新たなコスト感受性報酬関数が開発された。
論文 参考訳(メタデータ) (2020-03-06T06:28:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。