論文の概要: Deep Reinforcement Learning for Asset Allocation: Reward Clipping
- arxiv url: http://arxiv.org/abs/2301.05300v1
- Date: Mon, 2 Jan 2023 03:54:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-29 14:27:36.634686
- Title: Deep Reinforcement Learning for Asset Allocation: Reward Clipping
- Title(参考訳): アセットアロケーションのための深層強化学習:リワードクリッピング
- Authors: Jiwon Kim and Moon-Ju Kang and KangHun Lee and HyungJun Moon and
Bo-Kwan Jeon
- Abstract要約: 本稿では,各モデルのキャラクタを分析して,リワードクリッピングモデル(Reward clipping model)と呼ばれる高度なアルゴリズムを導入する。
Reward Clippingモデルは金融分野の既存のモデル、特にポートフォリオ最適化よりも優れているようだ。
- 参考スコア(独自算出の注目度): 4.882319198853359
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recently, there are many trials to apply reinforcement learning in asset
allocation for earning more stable profits. In this paper, we compare
performance between several reinforcement learning algorithms - actor-only,
actor-critic and PPO models. Furthermore, we analyze each models' character and
then introduce the advanced algorithm, so called Reward clipping model. It
seems that the Reward Clipping model is better than other existing models in
finance domain, especially portfolio optimization - it has strength both in
bull and bear markets. Finally, we compare the performance for these models
with traditional investment strategies during decreasing and increasing
markets.
- Abstract(参考訳): 近年、より安定した利益を得るために資産配分に強化学習を適用する試みが数多く行われている。
本稿では,複数の強化学習アルゴリズム(アクターのみ,アクタークリティカル,PPOモデル)のパフォーマンスを比較する。
さらに,各モデルのキャラクタを分析して,リワードクリッピングモデルと呼ばれる高度なアルゴリズムを導入する。
報酬クリッピングモデルは、ファイナンスドメインの他の既存モデル、特にポートフォリオ最適化モデルよりも優れているようです。
最後に、これらのモデルのパフォーマンスを、市場縮小と拡大中の従来の投資戦略と比較する。
関連論文リスト
- Which LLM to Play? Convergence-Aware Online Model Selection with
Time-Increasing Bandits [43.65904435249823]
本稿では,モデルの性能向上を効果的に予測する帯域幅増加アルゴリズムTI-UCBを提案する。
本研究は,より効率的かつ経済的なモデル選択のために,増大する収束パターンを活用することの重要性を強調した。
論文 参考訳(メタデータ) (2024-03-11T23:52:46Z) - PanGu-$\pi$: Enhancing Language Model Architectures via Nonlinearity
Compensation [97.78045712375047]
大規模言語モデル(LLM)のための新しい効率的なモデルアーキテクチャを提案する。
そこで,PanGu-$pi$-7Bは,約10%の推論速度を持つベンチマークに匹敵する性能が得られることを示す。
さらに,PanGu-$pi$-7Bを金融法と法律の高価値領域に導入し,実践的応用のためにYunShanというLLMを開発した。
論文 参考訳(メタデータ) (2023-12-27T11:49:24Z) - Sheared LLaMA: Accelerating Language Model Pre-training via Structured
Pruning [57.12877119005303]
我々は,事前訓練された大規模モデルからより小型のLCMを開発するための効果的な方法として構造化プルーニングについて検討した。
提案手法では,(1)階層,頭部,中間および隠蔽次元をエンド・ツー・エンドに除去することで,より大きなモデルを特定のターゲット形状にプルーニングするターゲット構造化プルーニングと,(2)各トレーニングバッチにおけるサンプルデータの構成を,異なるドメイン間での損失に基づいて動的に更新する動的バッチローディングという2つの重要な手法を用いる。
論文 参考訳(メタデータ) (2023-10-10T15:13:30Z) - MERMAIDE: Learning to Align Learners using Model-Based Meta-Learning [62.065503126104126]
本研究では,先見のつかない学習エージェントの報酬を効率よく効果的に介入し,望ましい結果を導き出す方法について検討する。
これはオークションや課税のような現実世界の多くの設定に関係しており、プリンシパルは学習行動や実際の人々の報酬を知らないかもしれない。
モデルに基づくメタ学習フレームワークであるMERMAIDEを導入し,配布外エージェントに迅速に適応できるプリンシパルを訓練する。
論文 参考訳(メタデータ) (2023-04-10T15:44:50Z) - Fuzzy Expert System for Stock Portfolio Selection: An Application to
Bombay Stock Exchange [0.0]
ボンベイ証券取引所(BSE)の株式評価と格付けのためにファジィエキスパートシステムモデルが提案されている。
このモデルの性能は、最近の株のパフォーマンスと比較すると、短期的な投資期間で十分であることが判明した。
論文 参考訳(メタデータ) (2022-04-28T10:01:15Z) - Deep Reinforcement Learning and Convex Mean-Variance Optimisation for
Portfolio Management [0.0]
強化学習(RL)法は明示的な予測に頼らず、多段階決定プロセスに適している。
総合的な傾向の異なる経済の3つの市場で実験が行われた。
論文 参考訳(メタデータ) (2022-02-13T10:12:09Z) - Deep Sequence Modeling: Development and Applications in Asset Pricing [35.027865343844766]
我々は資産のリターンを予測し、人工知能の卓越した技術であるディープシークエンス・モデリングを用いてリスク・プレミアを測定する。
資産の返却は、しばしば従来の時系列モデルでは効果的に捉えられないシーケンシャルな依存を示すため、シーケンスモデリングはデータ駆動アプローチと優れたパフォーマンスで有望な経路を提供する。
論文 参考訳(メタデータ) (2021-08-20T04:40:55Z) - Exploring Sparse Expert Models and Beyond [51.90860155810848]
Mixture-of-Experts (MoE) モデルは、無数のパラメータを持つが、一定の計算コストで有望な結果が得られる。
本稿では,専門家を異なるプロトタイプに分割し,上位1ドルのルーティングに$k$を適用する,エキスパートプロトタイピングというシンプルな手法を提案する。
この戦略は, モデル品質を向上させるが, 一定の計算コストを維持するとともに, 大規模モデルのさらなる探索により, 大規模モデルの訓練に有効であることが示唆された。
論文 参考訳(メタデータ) (2021-05-31T16:12:44Z) - Mutual Modality Learning for Video Action Classification [74.83718206963579]
ビデオアクション分類のための単一モデルにマルチモーダルを組み込む方法を示す。
我々はSomething-v2ベンチマークで最先端の結果を得た。
論文 参考訳(メタデータ) (2020-11-04T21:20:08Z) - Deep Learning for Portfolio Optimization [5.833272638548154]
個々の資産を選択する代わりに、ポートフォリオを形成するために市場指標のETF(Exchange-Traded Funds)を交換します。
我々は,本手法を広範囲のアルゴリズムと比較し,本モデルがテスト期間中に最高の性能を得ることを示す。
論文 参考訳(メタデータ) (2020-05-27T21:28:43Z) - Model-Augmented Actor-Critic: Backpropagating through Paths [81.86992776864729]
現在のモデルに基づく強化学習アプローチでは、単に学習されたブラックボックスシミュレータとしてモデルを使用する。
その微分可能性を利用してモデルをより効果的に活用する方法を示す。
論文 参考訳(メタデータ) (2020-05-16T19:18:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。