論文の概要: Beating the Best Constant Rebalancing Portfolio in Long-Term Investment: A Generalization of the Kelly Criterion and Universal Learning Algorithm for Markets with Serial Dependence
- arxiv url: http://arxiv.org/abs/2507.05994v1
- Date: Tue, 08 Jul 2025 13:54:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:38.146506
- Title: Beating the Best Constant Rebalancing Portfolio in Long-Term Investment: A Generalization of the Kelly Criterion and Universal Learning Algorithm for Markets with Serial Dependence
- Title(参考訳): 長期投資におけるベスト・コンスタント・リバランシング・ポートフォリオの獲得--現実依存型市場におけるケリー基準とユニバーサル・ラーニング・アルゴリズムの一般化
- Authors: Duy Khanh Lam,
- Abstract要約: 既存の学習アルゴリズムは、後から見れば最高の定期的再バランスポートフォリオに比べて、累積的な富を著しく低下させる戦略を生成する。
本稿では,その分布を仮定することなく,段階的に明らかにされたデータのみを用いてそのような依存を学習し,最終的に最高の定常的再バランスポートフォリオの累積富を超える戦略を構築するアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the online portfolio optimization framework, existing learning algorithms generate strategies that yield significantly poorer cumulative wealth compared to the best constant rebalancing portfolio in hindsight, despite being consistent in asymptotic growth rate. While this unappealing performance can be improved by incorporating more side information, it raises difficulties in feature selection and high-dimensional settings. Instead, the inherent serial dependence of assets' returns, such as day-of-the-week and other calendar effects, can be leveraged. Although latent serial dependence patterns are commonly detected using large training datasets, this paper proposes an algorithm that learns such dependence using only gradually revealed data, without any assumption on their distribution, to form a strategy that eventually exceeds the cumulative wealth of the best constant rebalancing portfolio. Moreover, the classical Kelly criterion, which requires independent assets' returns, is generalized to accommodate serial dependence in a market modeled as an independent and identically distributed process of random matrices. In such a stochastic market, where existing learning algorithms designed for stationary processes fail to apply, the proposed learning algorithm still generates a strategy that asymptotically grows to the highest rate among all strategies, matching that of the optimal strategy constructed under the generalized Kelly criterion. The experimental results with real market data demonstrate the theoretical guarantees of the algorithm and its performance as expected, as long as serial dependence is significant, regardless of the validity of the generalized Kelly criterion in the experimental market. This further affirms the broad applicability of the algorithm in general contexts.
- Abstract(参考訳): オンラインポートフォリオ最適化フレームワークでは、既存の学習アルゴリズムは、漸近的な成長速度に一貫性があるにもかかわらず、後見において最高の定期的再バランスポートフォリオに比べて、累積的な富を著しく低下させる戦略を生成する。
この未完成な性能は、より多くのサイド情報を組み込むことで改善できるが、特徴選択や高次元設定の困難を生じさせる。
代わりに、曜日やその他のカレンダー効果のような資産のリターンに固有のシリアルな依存を活用できる。
本稿では,大規模なトレーニングデータセットを用いて,潜時連続依存パターンを一般的に検出するが,その分布を仮定することなく,徐々に明らかにされるデータのみを用いて,そのような依存を学習し,最終的には最高の一定再バランスポートフォリオの累積富を超える戦略を形成するアルゴリズムを提案する。
さらに、独立資産の返却を必要とする古典的なケリー基準は、ランダム行列の独立で同一に分散されたプロセスとしてモデル化された市場でのシリアル依存に対応するように一般化される。
このような確率的市場において、定常過程用に設計された既存の学習アルゴリズムが適用されない場合、提案した学習アルゴリズムは、一般化されたケリー基準の下で構築された最適な戦略と一致して、漸近的に最も高いレートに成長する戦略を生成する。
実市場データによる実験結果は、実験市場における一般化されたケリー基準の有効性にかかわらず、シリアル依存が重要である限り、アルゴリズムの理論的保証とその性能を期待どおりに示す。
このことは、一般的な文脈におけるアルゴリズムの広範な適用性を裏付けるものである。
関連論文リスト
- Sequential Portfolio Selection under Latent Side Information-Dependence Structure: Optimality and Universal Learning Algorithms [0.0]
従属構造と市場情報の完全な知識に基づいてポートフォリオを形成する動的な戦略は、一定戦略よりも無限に高い速度で成長しない可能性があることを示す。
動的戦略に対する制限的な成長速度がなければ,ランダムな最適定数戦略がほぼ確実に存在することを示す。
論文 参考訳(メタデータ) (2025-01-12T03:49:47Z) - Mean--Variance Portfolio Selection by Continuous-Time Reinforcement Learning: Algorithms, Regret Analysis, and Empirical Study [10.404992912881601]
本研究では,観測可能な要因により株価が拡散する過程にある市場における平均-変動ポートフォリオの選択について検討する。
本稿では,市場係数の学習や推定を行うことなく,事前委託投資戦略を直接学習する汎用データ駆動型RLアルゴリズムを提案する。
その結果, 連続的RL戦略は, 特に揮発性クマ市場において, 常に最良であることが明らかとなった。
論文 参考訳(メタデータ) (2024-12-08T15:31:10Z) - Mean-Variance Portfolio Selection in Long-Term Investments with Unknown Distribution: Online Estimation, Risk Aversion under Ambiguity, and Universality of Algorithms [0.0]
本稿では、データを徐々に、そして継続的に明らかにする視点を採用する。
オリジナルのモデルはオンライン学習フレームワークに再キャストされ、統計的仮定は一切含まない。
将来のデータの分布が正常な形に従えば、リスク回避のキャリブレーションにより、効率的なフロンティアに沿ってポートフォリオを持ち上げることにより、富の成長率が向上することを示す。
論文 参考訳(メタデータ) (2024-06-19T12:11:42Z) - Stochastic Q-learning for Large Discrete Action Spaces [79.1700188160944]
離散的な行動空間を持つ複雑な環境では、強化学習(RL)において効果的な意思決定が重要である
我々は、$n$アクションの集合全体を最適化するのとは対照的に、おそらく$mathcalO(log(n)$)$のような変数の集合のみを考える。
提示された値ベースのRL手法には、Q-learning、StochDQN、StochDDQNなどが含まれる。
論文 参考訳(メタデータ) (2024-05-16T17:58:44Z) - Distributionally Robust Model-based Reinforcement Learning with Large
State Spaces [55.14361269378122]
強化学習における3つの大きな課題は、大きな状態空間を持つ複雑な力学系、コストのかかるデータ取得プロセス、トレーニング環境の展開から現実の力学を逸脱させることである。
広範に用いられているKullback-Leibler, chi-square, および全変分不確実性集合の下で, 連続状態空間を持つ分布ロバストなマルコフ決定過程について検討した。
本稿では,ガウス過程と最大分散削減アルゴリズムを用いて,多出力名目遷移力学を効率的に学習するモデルベースアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-05T13:42:11Z) - Pessimistic Q-Learning for Offline Reinforcement Learning: Towards
Optimal Sample Complexity [51.476337785345436]
有限水平マルコフ決定過程の文脈におけるQ-ラーニングの悲観的変種について検討する。
ほぼ最適サンプル複雑性を実現するために,分散再現型悲観的Q-ラーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-28T15:39:36Z) - Policy Mirror Descent for Regularized Reinforcement Learning: A
Generalized Framework with Linear Convergence [60.20076757208645]
本稿では,正規化RLを解くためのGPMDアルゴリズムを提案する。
我々は,このアルゴリズムが次元自由な方法で,全範囲の学習率に線形に収束することを実証した。
論文 参考訳(メタデータ) (2021-05-24T02:21:34Z) - COMBO: Conservative Offline Model-Based Policy Optimization [120.55713363569845]
ディープニューラルネットワークのような複雑なモデルによる不確実性推定は困難であり、信頼性が低い。
我々は,サポート外状態動作の値関数を正規化するモデルベースオフラインRLアルゴリズムCOMBOを開発した。
従来のオフラインモデルフリーメソッドやモデルベースメソッドと比べて、comboは一貫してパフォーマンスが良いことが分かりました。
論文 参考訳(メタデータ) (2021-02-16T18:50:32Z) - Dynamic Federated Learning [57.14673504239551]
フェデレートラーニング(Federated Learning)は、マルチエージェント環境における集中的なコーディネーション戦略の包括的用語として登場した。
我々は、各イテレーションにおいて、利用可能なエージェントのランダムなサブセットがそのデータに基づいてローカル更新を実行する、フェデレートされた学習モデルを考える。
集約最適化問題に対する真の最小化器上の非定常ランダムウォークモデルの下で、アーキテクチャの性能は、各エージェントにおけるデータ変動率、各エージェントにおけるモデル変動率、アルゴリズムの学習率に逆比例する追跡項の3つの要因によって決定されることを示す。
論文 参考訳(メタデータ) (2020-02-20T15:00:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。