論文の概要: Cost-Sensitive Portfolio Selection via Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2003.03051v1
- Date: Fri, 6 Mar 2020 06:28:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 00:45:46.130976
- Title: Cost-Sensitive Portfolio Selection via Deep Reinforcement Learning
- Title(参考訳): 深層強化学習によるコスト感性ポートフォリオ選択
- Authors: Yifan Zhang, Peilin Zhao, Qingyao Wu, Bin Li, Junzhou Huang, and
Mingkui Tan
- Abstract要約: 深層強化学習を用いたコスト依存型ポートフォリオ選択手法を提案する。
具体的には、価格系列パターンと資産相関の両方を抽出するために、新しい2ストリームポートフォリオポリシーネットワークを考案した。
蓄積したリターンを最大化し、強化学習によるコストの両立を抑えるため、新たなコスト感受性報酬関数が開発された。
- 参考スコア(独自算出の注目度): 100.73223416589596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Portfolio Selection is an important real-world financial task and has
attracted extensive attention in artificial intelligence communities. This
task, however, has two main difficulties: (i) the non-stationary price series
and complex asset correlations make the learning of feature representation very
hard; (ii) the practicality principle in financial markets requires controlling
both transaction and risk costs. Most existing methods adopt handcraft features
and/or consider no constraints for the costs, which may make them perform
unsatisfactorily and fail to control both costs in practice. In this paper, we
propose a cost-sensitive portfolio selection method with deep reinforcement
learning. Specifically, a novel two-stream portfolio policy network is devised
to extract both price series patterns and asset correlations, while a new
cost-sensitive reward function is developed to maximize the accumulated return
and constrain both costs via reinforcement learning. We theoretically analyze
the near-optimality of the proposed reward, which shows that the growth rate of
the policy regarding this reward function can approach the theoretical optimum.
We also empirically evaluate the proposed method on real-world datasets.
Promising results demonstrate the effectiveness and superiority of the proposed
method in terms of profitability, cost-sensitivity and representation
abilities.
- Abstract(参考訳): Portfolio Selectionは現実世界の重要な財務課題であり、人工知能コミュニティで広く注目を集めている。
しかし、この課題には2つの大きな困難がある。
(i)非定常価格級数及び複雑な資産相関は、特徴表現の学習を非常に困難にする。
二 金融市場における実用原則は、取引とリスクコストの両方を統制する必要がある。
既存の手法の多くは手工芸機能を採用しており、またコストに対する制約も考慮していないため、それらは不満足に動作し、実際に両方のコストを制御できない可能性がある。
本稿では,深層強化学習を用いたコスト依存型ポートフォリオ選択手法を提案する。
具体的には,価格系列パターンと資産相関を両立する新たな2ストリームポートフォリオ・ポリシー・ネットワークを考案し,累積リターンを最大化し,強化学習により両者のコストを制約する新たなコストセンシティブ報酬関数を開発した。
提案した報酬のほぼ最適性を理論的に分析し、この報酬関数に関する政策の成長率が理論的最適に近づくことを示す。
また,提案手法を実世界のデータセット上で実証的に評価した。
提案手法の有効性と優位性を,収益性,コスト感受性,表現能力の観点から検証した。
関連論文リスト
- Neural Active Learning Beyond Bandits [69.99592173038903]
ストリームベースとプールベースの両方のアクティブラーニングをニューラルネットワーク近似を用いて検討する。
ストリームベースおよびプールベースアクティブラーニングのためのニューラルネットワークを新たに設計したエクスプロイトと探索に基づく2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-18T21:52:14Z) - Utility Fairness in Contextual Dynamic Pricing with Demand Learning [23.26236046836737]
本稿では,ユーティリティフェアネス制約下でのパーソナライズされた価格設定のための新しいコンテキスト帯域幅アルゴリズムを提案する。
動的価格設定と需要学習を取り入れた当社のアプローチは,価格戦略における公正性の重要課題に対処する。
論文 参考訳(メタデータ) (2023-11-28T05:19:23Z) - Online Learning under Budget and ROI Constraints via Weak Adaptivity [57.097119428915796]
制約付きオンライン学習問題に対する既存の原始双対アルゴリズムは、2つの基本的な仮定に依存している。
このような仮定は、標準の原始双対テンプレートを弱適応的後悔最小化器で与えることによって、どのように回避できるのかを示す。
上記の2つの前提が満たされていない場合に保証される、世界の最高の保証を証明します。
論文 参考訳(メタデータ) (2023-02-02T16:30:33Z) - Online Learning with Knapsacks: the Best of Both Worlds [54.28273783164608]
オンライン学習の課題として,意思決定者が,リソース制約の有限セットに違反することなく,期待する報酬を最大化したい,という課題を提起する。
当社のフレームワークは,意思決定者がそのエビデンスを柔軟かつコスト論的に扱えるようにします。
論文 参考訳(メタデータ) (2022-02-28T12:10:48Z) - Present-Biased Optimization [8.775878711928591]
論文は,akerlof (1991) が提唱した,時間的一貫性のない計画に関する人間の行動の様々な側面を研究する枠組みを拡張した。
その結果,現在偏りのあるエージェントが計算している解のコストと最適解のコストの比率は,問題制約によって大きく異なることがわかった。
論文 参考訳(メタデータ) (2020-12-29T12:40:59Z) - Cost-effective Variational Active Entity Resolution [4.238343046459798]
我々は,人間の関与コストを削減するために,ディープオートエンコーダが付与するロバスト性に基づくエンティティ解決手法を考案した。
具体的には、教師なし表現学習を行うことにより、ディープ・エンティティ・リゾリューション・モデルのトレーニングコストを削減する。
最後に,ディープ・オートエンコーダの利用によって与えられる特性に基づくアクティブ・ラーニング・アプローチにより,トレーニングデータのラベル付けコストを削減した。
論文 参考訳(メタデータ) (2020-11-20T13:47:11Z) - Reinforcement Learning with Efficient Active Feature Acquisition [59.91808801541007]
実生活では、情報取得は患者の医療検査に該当する可能性がある。
本稿では,アクティブな特徴獲得ポリシーを学習するモデルに基づく強化学習フレームワークを提案する。
この成功の鍵は、部分的に観察された状態から高品質な表現を学ぶ新しい逐次変分自動エンコーダである。
論文 参考訳(メタデータ) (2020-11-02T08:46:27Z) - Toward Optimal Probabilistic Active Learning Using a Bayesian Approach [4.380488084997317]
アクティブラーニングは、コストの高いラベリングリソースを効率よく効果的に割り当てることで、ラベリングコストを削減することを目的としている。
提案したモデルにおける既存の選択戦略を再構築することにより、どの側面が現在の最先端に包含されていないかを説明することができる。
論文 参考訳(メタデータ) (2020-06-02T15:59:42Z) - Hierarchical Adaptive Contextual Bandits for Resource Constraint based
Recommendation [49.69139684065241]
コンテキスト多重武装バンディット(MAB)は、様々な問題において最先端のパフォーマンスを達成する。
本稿では,階層型適応型文脈帯域幅法(HATCH)を提案する。
論文 参考訳(メタデータ) (2020-04-02T17:04:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。