論文の概要: Onflow: an online portfolio allocation algorithm
- arxiv url: http://arxiv.org/abs/2312.05169v1
- Date: Fri, 8 Dec 2023 16:49:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 14:37:59.049175
- Title: Onflow: an online portfolio allocation algorithm
- Title(参考訳): Onflow: オンラインポートフォリオ割り当てアルゴリズム
- Authors: Gabriel Turinici and Pierre Brugiere
- Abstract要約: ポートフォリオ割り当てポリシーのオンライン最適化を可能にする強化学習手法であるOnflowを紹介する。
ログ正規資産の場合、トランザクションコストがゼロのOnflowが学んだ戦略は、Markowitzの最適ポートフォリオを模倣している。
オンフローは、他の動的アロケーション技術がもはや機能しないレギュレーションにおいて、効率的であり続けることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We introduce Onflow, a reinforcement learning technique that enables online
optimization of portfolio allocation policies based on gradient flows. We
devise dynamic allocations of an investment portfolio to maximize its expected
log return while taking into account transaction fees. The portfolio allocation
is parameterized through a softmax function, and at each time step, the
gradient flow method leads to an ordinary differential equation whose solutions
correspond to the updated allocations. This algorithm belongs to the large
class of stochastic optimization procedures; we measure its efficiency by
comparing our results to the mathematical theoretical values in a log-normal
framework and to standard benchmarks from the 'old NYSE' dataset. For
log-normal assets, the strategy learned by Onflow, with transaction costs at
zero, mimics Markowitz's optimal portfolio and thus the best possible asset
allocation strategy. Numerical experiments from the 'old NYSE' dataset show
that Onflow leads to dynamic asset allocation strategies whose performances
are: a) comparable to benchmark strategies such as Cover's Universal Portfolio
or Helmbold et al. "multiplicative updates" approach when transaction costs are
zero, and b) better than previous procedures when transaction costs are high.
Onflow can even remain efficient in regimes where other dynamical allocation
techniques do not work anymore. Therefore, as far as tested, Onflow appears to
be a promising dynamic portfolio management strategy based on observed prices
only and without any assumption on the laws of distributions of the underlying
assets' returns. In particular it could avoid model risk when building a
trading strategy.
- Abstract(参考訳): グラデーションフローに基づくポートフォリオ割り当てポリシのオンライン最適化を実現する,強化学習手法であるonflowを紹介する。
投資ポートフォリオの動的アロケーションを考案し、取引手数料を考慮しつつ、期待されるログリターンを最大化する。
ポートフォリオ割り当てはソフトマックス関数によってパラメータ化され、各時間ステップにおいて、勾配フロー法は、更新された割り当てに対応する解を持つ通常の微分方程式に導く。
このアルゴリズムは確率的最適化手法の大規模なクラスに属しており、その効率をログ正規化フレームワークの数学的理論値と'old NYSE'データセットの標準ベンチマークを比較して測定する。
ログ正規資産の場合、onflowが学習した戦略は、トランザクションコストをゼロにすることで、markowitzの最適ポートフォリオを模倣し、可能な限りの資産配分戦略を模倣する。
古いNYSEのデータセットからの数値実験は、Onflowがパフォーマンスを持つ動的なアセットアロケーション戦略につながることを示している。
a) cover の universal portfolio や helmbold などのベンチマーク戦略に匹敵する。
トランザクションコストがゼロである場合の "多重化更新" アプローチ
ロ 取引コストが高い場合の前の手続よりも良いこと。
Onflowは、他の動的アロケーション技術がもはや機能しないレシエーションでも効率がよい。
そのため、試験上は、Onflowは観測された価格と、基礎となる資産のリターンの分配の法則を仮定することなく、将来性のあるポートフォリオ管理戦略のように見える。
特に、トレーディング戦略を構築する際のモデルリスクを避けることができる。
関連論文リスト
- $f$-PO: Generalizing Preference Optimization with $f$-divergence Minimization [91.43730624072226]
$f$-POは、既存のアプローチを一般化し拡張する新しいフレームワークである。
ベンチマークデータセットを用いて最先端言語モデルの実験を行う。
論文 参考訳(メタデータ) (2024-10-29T02:11:45Z) - Dynamic Portfolio Rebalancing: A Hybrid new Model Using GNNs and Pathfinding for Cost Efficiency [0.0]
本稿では,取引コストを予測するグラフニューラルネットワーク(GNN)と,コスト効率の高いリバランスパスを特定するDijkstraのアルゴリズムを統合することで,ポートフォリオのリバランスを最適化する新たなアプローチを提案する。
実証的な結果は、このハイブリッドアプローチが取引コストを大幅に削減し、ポートフォリオマネージャに強力なツールを提供することを示している。
論文 参考訳(メタデータ) (2024-10-02T11:00:52Z) - Stochastic Q-learning for Large Discrete Action Spaces [79.1700188160944]
離散的な行動空間を持つ複雑な環境では、強化学習(RL)において効果的な意思決定が重要である
我々は、$n$アクションの集合全体を最適化するのとは対照的に、おそらく$mathcalO(log(n)$)$のような変数の集合のみを考える。
提示された値ベースのRL手法には、Q-learning、StochDQN、StochDDQNなどが含まれる。
論文 参考訳(メタデータ) (2024-05-16T17:58:44Z) - Optimizing Portfolio Management and Risk Assessment in Digital Assets
Using Deep Learning for Predictive Analysis [5.015409508372732]
本稿では,DQNアルゴリズムを新規かつ簡単な方法で資産管理ポートフォリオに導入する。
この性能はベンチマークをはるかに上回り、ポートフォリオ管理におけるDRLアルゴリズムの有効性を十分に証明している。
異なる資産は別々に環境として訓練されるので、異なる資産間でQ値が漂う現象があるかもしれない。
論文 参考訳(メタデータ) (2024-02-25T05:23:57Z) - Cryptocurrency Portfolio Optimization by Neural Networks [81.20955733184398]
本稿では,これらの投資商品を活用するために,ニューラルネットワークに基づく効果的なアルゴリズムを提案する。
シャープ比を最大化するために、各アセットの割り当て重量を時間間隔で出力するディープニューラルネットワークを訓練する。
ネットワークの特定の資産に対するバイアスを規制する新たな損失項を提案し,最小分散戦略に近い割り当て戦略をネットワークに学習させる。
論文 参考訳(メタデータ) (2023-10-02T12:33:28Z) - Sparse Index Tracking: Simultaneous Asset Selection and Capital Allocation via $\ell_0$-Constrained Portfolio [7.5684339230894135]
スパースポートフォリオは、取引コストの削減と不正資産の回避の観点から、完全なポートフォリオよりも好ましい。
本稿では,$ell_p$-norm制約を用いたスパースインデックストラッキングの新しい問題式を提案する。
当社のアプローチでは、ポートフォリオとターンオーバースペースの制約を選択でき、再バランス間隔毎にアセット更新を制限することで、トランザクションコストをさらに削減します。
論文 参考訳(メタデータ) (2023-07-22T04:47:30Z) - Towards Understanding and Improving GFlowNet Training [71.85707593318297]
本稿では,学習したサンプリング分布と目標報酬分布を比較するための効率的な評価手法を提案する。
本稿では,高解像度のx$,相対的エッジフローポリシーのパラメータ化,新しい軌道バランス目標を提案する。
論文 参考訳(メタデータ) (2023-05-11T22:50:41Z) - High-Dimensional Stock Portfolio Trading with Deep Reinforcement
Learning [0.0]
このアルゴリズムは任意のサイズの断面データセットから高次元のポートフォリオを交換することができる。
我々は、各環境の資産を1つ集めて環境を順次設定し、その結果の資産の返却と現金の保留に報いるとともに、資産の集合の返却平均に報いる。
論文 参考訳(メタデータ) (2021-12-09T08:30:45Z) - Deep Hedging of Derivatives Using Reinforcement Learning [0.3313576045747072]
取引コストのあるデリバティブに対して、強化学習が最適なヘッジ戦略の導出にどのように役立つかを示す。
我々は、比較的単純な評価モデルを取り入れた会計P&Lアプローチの使用を含むハイブリッドアプローチがうまく機能することがわかります。
論文 参考訳(メタデータ) (2021-03-29T07:43:30Z) - Semi-supervised Batch Active Learning via Bilevel Optimization [89.37476066973336]
両レベル最適化によるデータ要約問題として,本手法を定式化する。
本手法は,ラベル付きサンプルがほとんど存在しない場合,レジーム内のキーワード検出タスクにおいて極めて有効であることを示す。
論文 参考訳(メタデータ) (2020-10-19T16:53:24Z) - Provably Efficient Exploration in Policy Optimization [117.09887790160406]
本稿では,最適化アルゴリズム(OPPO)の最適変種を提案する。
OPPO は $tildeO(sqrtd2 H3 T )$ regret を達成する。
我々の知る限りでは、OPPOは、探索する最初の証明可能な効率的なポリシー最適化アルゴリズムである。
論文 参考訳(メタデータ) (2019-12-12T08:40:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。