論文の概要: Onflow: an online portfolio allocation algorithm
- arxiv url: http://arxiv.org/abs/2312.05169v1
- Date: Fri, 8 Dec 2023 16:49:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 14:37:59.049175
- Title: Onflow: an online portfolio allocation algorithm
- Title(参考訳): Onflow: オンラインポートフォリオ割り当てアルゴリズム
- Authors: Gabriel Turinici and Pierre Brugiere
- Abstract要約: ポートフォリオ割り当てポリシーのオンライン最適化を可能にする強化学習手法であるOnflowを紹介する。
ログ正規資産の場合、トランザクションコストがゼロのOnflowが学んだ戦略は、Markowitzの最適ポートフォリオを模倣している。
オンフローは、他の動的アロケーション技術がもはや機能しないレギュレーションにおいて、効率的であり続けることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We introduce Onflow, a reinforcement learning technique that enables online
optimization of portfolio allocation policies based on gradient flows. We
devise dynamic allocations of an investment portfolio to maximize its expected
log return while taking into account transaction fees. The portfolio allocation
is parameterized through a softmax function, and at each time step, the
gradient flow method leads to an ordinary differential equation whose solutions
correspond to the updated allocations. This algorithm belongs to the large
class of stochastic optimization procedures; we measure its efficiency by
comparing our results to the mathematical theoretical values in a log-normal
framework and to standard benchmarks from the 'old NYSE' dataset. For
log-normal assets, the strategy learned by Onflow, with transaction costs at
zero, mimics Markowitz's optimal portfolio and thus the best possible asset
allocation strategy. Numerical experiments from the 'old NYSE' dataset show
that Onflow leads to dynamic asset allocation strategies whose performances
are: a) comparable to benchmark strategies such as Cover's Universal Portfolio
or Helmbold et al. "multiplicative updates" approach when transaction costs are
zero, and b) better than previous procedures when transaction costs are high.
Onflow can even remain efficient in regimes where other dynamical allocation
techniques do not work anymore. Therefore, as far as tested, Onflow appears to
be a promising dynamic portfolio management strategy based on observed prices
only and without any assumption on the laws of distributions of the underlying
assets' returns. In particular it could avoid model risk when building a
trading strategy.
- Abstract(参考訳): グラデーションフローに基づくポートフォリオ割り当てポリシのオンライン最適化を実現する,強化学習手法であるonflowを紹介する。
投資ポートフォリオの動的アロケーションを考案し、取引手数料を考慮しつつ、期待されるログリターンを最大化する。
ポートフォリオ割り当てはソフトマックス関数によってパラメータ化され、各時間ステップにおいて、勾配フロー法は、更新された割り当てに対応する解を持つ通常の微分方程式に導く。
このアルゴリズムは確率的最適化手法の大規模なクラスに属しており、その効率をログ正規化フレームワークの数学的理論値と'old NYSE'データセットの標準ベンチマークを比較して測定する。
ログ正規資産の場合、onflowが学習した戦略は、トランザクションコストをゼロにすることで、markowitzの最適ポートフォリオを模倣し、可能な限りの資産配分戦略を模倣する。
古いNYSEのデータセットからの数値実験は、Onflowがパフォーマンスを持つ動的なアセットアロケーション戦略につながることを示している。
a) cover の universal portfolio や helmbold などのベンチマーク戦略に匹敵する。
トランザクションコストがゼロである場合の "多重化更新" アプローチ
ロ 取引コストが高い場合の前の手続よりも良いこと。
Onflowは、他の動的アロケーション技術がもはや機能しないレシエーションでも効率がよい。
そのため、試験上は、Onflowは観測された価格と、基礎となる資産のリターンの分配の法則を仮定することなく、将来性のあるポートフォリオ管理戦略のように見える。
特に、トレーディング戦略を構築する際のモデルリスクを避けることができる。
関連論文リスト
- Optimizing Portfolio Management and Risk Assessment in Digital Assets
Using Deep Learning for Predictive Analysis [5.015409508372732]
本稿では,DQNアルゴリズムを新規かつ簡単な方法で資産管理ポートフォリオに導入する。
この性能はベンチマークをはるかに上回り、ポートフォリオ管理におけるDRLアルゴリズムの有効性を十分に証明している。
異なる資産は別々に環境として訓練されるので、異なる資産間でQ値が漂う現象があるかもしれない。
論文 参考訳(メタデータ) (2024-02-25T05:23:57Z) - Cryptocurrency Portfolio Optimization by Neural Networks [81.20955733184398]
本稿では,これらの投資商品を活用するために,ニューラルネットワークに基づく効果的なアルゴリズムを提案する。
シャープ比を最大化するために、各アセットの割り当て重量を時間間隔で出力するディープニューラルネットワークを訓練する。
ネットワークの特定の資産に対するバイアスを規制する新たな損失項を提案し,最小分散戦略に近い割り当て戦略をネットワークに学習させる。
論文 参考訳(メタデータ) (2023-10-02T12:33:28Z) - Sparse Index Tracking: Simultaneous Asset Selection and Capital
Allocation via $\ell_0$-Constrained Portfolio [8.941102077614788]
スパースポートフォリオは、取引コストの削減と不正資産の回避の観点から、完全なポートフォリオよりも望ましい。
本稿では,$ell_p$-norm制約を用いたスパースインデックストラッキングの新しい問題式を提案する。
私たちの定式化によって、ポートフォリオのスパーシリティとターンオーバーのスパーシリティの制約を選択できます。
論文 参考訳(メタデータ) (2023-07-22T04:47:30Z) - Towards Understanding and Improving GFlowNet Training [71.85707593318297]
本稿では,学習したサンプリング分布と目標報酬分布を比較するための効率的な評価手法を提案する。
本稿では,高解像度のx$,相対的エッジフローポリシーのパラメータ化,新しい軌道バランス目標を提案する。
論文 参考訳(メタデータ) (2023-05-11T22:50:41Z) - Sequential Information Design: Markov Persuasion Process and Its
Efficient Reinforcement Learning [156.5667417159582]
本稿では,逐次情報設計の新たなモデル,すなわちマルコフ説得過程(MPP)を提案する。
MPPのプランニングは、ミオピックレシーバーに同時に説得されるシグナルポリシーを見つけ、送信者の最適な長期累積ユーティリティを誘導する、というユニークな課題に直面している。
我々は,楽観主義と悲観主義の両原理の新たな組み合わせを特徴とする,実証可能な効率のよい非回帰学習アルゴリズム,Optimism-Pessimism Principle for Persuasion Process (OP4) を設計する。
論文 参考訳(メタデータ) (2022-02-22T05:41:43Z) - High-Dimensional Stock Portfolio Trading with Deep Reinforcement
Learning [0.0]
このアルゴリズムは任意のサイズの断面データセットから高次元のポートフォリオを交換することができる。
我々は、各環境の資産を1つ集めて環境を順次設定し、その結果の資産の返却と現金の保留に報いるとともに、資産の集合の返却平均に報いる。
論文 参考訳(メタデータ) (2021-12-09T08:30:45Z) - Deep Hedging of Derivatives Using Reinforcement Learning [0.3313576045747072]
取引コストのあるデリバティブに対して、強化学習が最適なヘッジ戦略の導出にどのように役立つかを示す。
我々は、比較的単純な評価モデルを取り入れた会計P&Lアプローチの使用を含むハイブリッドアプローチがうまく機能することがわかります。
論文 参考訳(メタデータ) (2021-03-29T07:43:30Z) - Universal Trading for Order Execution with Oracle Policy Distillation [99.57416828489568]
本稿では,不完全な市場状態と注文実行のための最適な行動シーケンスとのギャップを埋める,新たなユニバーサル取引ポリシー最適化フレームワークを提案する。
本研究の枠組みは,完全情報を持つ託宣教師による実践的最適実行に向けて,共通政策の学習を指導する上で有効であることを示す。
論文 参考訳(メタデータ) (2021-01-28T05:52:18Z) - Deep Reinforcement Learning for Stock Portfolio Optimization [0.0]
私たちは、タスクに強化学習を適切に適用できるように問題を定式化します。
市場に関する現実的な仮定を維持するためには、取引コストとリスクファクターを州にも組み込む予定です。
ストックサブセット選択のための最小分散ポートフォリオと多周波データパターン抽出のためのウェーブレット変換を用いたタスクのエンドツーエンドソリューションを提案する。
論文 参考訳(メタデータ) (2020-12-09T10:19:12Z) - Self Normalizing Flows [65.73510214694987]
本稿では,各層における学習された近似逆数により,勾配の高価な項を置き換えることで,フローの正規化を訓練するための柔軟なフレームワークを提案する。
これにより、各レイヤの正確な更新の計算複雑性が$mathcalO(D3)$から$mathcalO(D2)$に削減される。
実験により,これらのモデルは非常に安定であり,正確な勾配値と類似したデータ可能性値に最適化可能であることが示された。
論文 参考訳(メタデータ) (2020-11-14T09:51:51Z) - Semi-supervised Batch Active Learning via Bilevel Optimization [89.37476066973336]
両レベル最適化によるデータ要約問題として,本手法を定式化する。
本手法は,ラベル付きサンプルがほとんど存在しない場合,レジーム内のキーワード検出タスクにおいて極めて有効であることを示す。
論文 参考訳(メタデータ) (2020-10-19T16:53:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。