論文の概要: The Enhanced Physics-Informed Kolmogorov-Arnold Networks: Applications of Newton's Laws in Financial Deep Reinforcement Learning (RL) Algorithms
- arxiv url: http://arxiv.org/abs/2602.01388v2
- Date: Thu, 05 Feb 2026 16:48:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 14:11:23.845218
- Title: The Enhanced Physics-Informed Kolmogorov-Arnold Networks: Applications of Newton's Laws in Financial Deep Reinforcement Learning (RL) Algorithms
- Title(参考訳): 強化された物理インフォームド・コルモゴロフ・アルノルドネットワーク: ニュートン法則の金融深層強化学習(RL)アルゴリズムへの応用
- Authors: Trang Thoi, Hung Tran, Tram Thoi, Huaiyang Zhong,
- Abstract要約: 金融において、ディープ強化学習(Dep Reinforcement Learning, DRL)は、個別の貿易信号を生成したり、継続的なポートフォリオ割り当てを決定するために一般的に用いられる。
物理インフォームド・コルモゴロフ・アルノルドネットワーク(PIKAN)を複数のDRLアルゴリズムに組み込んだ新しい強化学習フレームワークを提案する。
PIKANをベースとしたエージェントは、高い累積と年率のリターン、優れたシャープとカルマー比、より好ましいドローダウン特性を継続的に提供する。
- 参考スコア(独自算出の注目度): 1.2508796035825014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Reinforcement Learning (DRL), a subset of machine learning focused on sequential decision-making, has emerged as a powerful approach for tackling financial trading problems. In finance, DRL is commonly used either to generate discrete trade signals or to determine continuous portfolio allocations. In this work, we propose a novel reinforcement learning framework for portfolio optimization that incorporates Physics-Informed Kolmogorov-Arnold Networks (PIKANs) into several DRL algorithms. The approach replaces conventional multilayer perceptrons with Kolmogorov-Arnold Networks (KANs) in both actor and critic components-utilizing learnable B-spline univariate functions to achieve parameter-efficient and more interpretable function approximation. During actor updates, we introduce a physics-informed regularization loss that promotes second-order temporal consistency between observed return dynamics and the action-induced portfolio adjustments. The proposed framework is evaluated across three equity markets-China, Vietnam, and the United States, covering both emerging and developed economies. Across all three markets, PIKAN-based agents consistently deliver higher cumulative and annualized returns, superior Sharpe and Calmar ratios, and more favorable drawdown characteristics compared to both standard DRL baselines and classical online portfolio-selection methods. This yields more stable training, higher Sharpe ratios, and superior performance compared to traditional DRL counterparts. The approach is particularly valuable in highly dynamic and noisy financial markets, where conventional DRL often suffers from instability and poor generalization.
- Abstract(参考訳): シーケンシャルな意思決定に焦点を当てた機械学習のサブセットであるDeep Reinforcement Learning (DRL)は、金融取引問題に取り組むための強力なアプローチとして登場した。
金融分野では、DRLは個別の貿易信号を生成するか、継続的なポートフォリオ割り当てを決定するために一般的に使用される。
本研究では,物理インフォームド・コルモゴロフ・アルノルドネットワーク(PIKAN)を複数のDRLアルゴリズムに組み込んだポートフォリオ最適化のための新しい強化学習フレームワークを提案する。
このアプローチは、パラメータ効率とより解釈可能な関数近似を達成するために、学習可能なB-スプラインユニバリケート関数を利用するアクタと批評家の両方で、従来の多層パーセプトロンをKAN(Kolmogorov-Arnold Networks)に置き換える。
アクター更新中に、観測されたリターンダイナミクスとアクション誘発ポートフォリオ調整の間の2次時間的一貫性を促進する物理インフォームド正規化損失を導入する。
提案された枠組みは、中国、ベトナム、米国という3つの株式市場で評価され、新興国と先進国の両方をカバーしている。
3つの市場全体で、PIKANベースのエージェントは、標準のDRLベースラインと古典的なオンラインポートフォリオ選択方法と比較して、高い累積リターンと年収リターン、優れたシャープとカルマーの比率、より好ましいドローダウン特性を継続的に提供する。
これにより、より安定したトレーニング、シャープ比の向上、従来のDRLよりも優れたパフォーマンスが得られる。
この手法は、従来のDRLが不安定性や一般化の低さに悩まされる、非常にダイナミックでノイズの多い金融市場において特に有用である。
関連論文リスト
- Shuffle-R1: Efficient RL framework for Multimodal Large Language Models via Data-centric Dynamic Shuffle [65.14124923451077]
強化学習(Reinforcement Learning, RL)は、マルチモーダル大言語モデル(MLLM)の推論能力を高めるための効果的なポストトレーニングパラダイムとして登場した。
しかしながら、現在のRLパイプラインは、アドバンテージ・コラプシング(Advantage Collapsing)とロールアウト・サイレンシング(Rollout Silencing)という2つの未解決の問題によって、トレーニングの非効率に悩まされることが多い。
軌道サンプリングとバッチ合成を動的に再構成することにより、RLの微調整効率を向上する、シンプルだが原則化されたフレームワークであるShuffle-R1を提案する。
論文 参考訳(メタデータ) (2025-08-07T17:53:47Z) - Ring-lite: Scalable Reasoning via C3PO-Stabilized Reinforcement Learning for LLMs [51.21041884010009]
Ring-liteは、強化学習(RL)により最適化されたMixture-of-Experts(MoE)ベースの大規模言語モデルである
我々のアプローチは、挑戦的なベンチマーク上でのSOTA(State-of-the-art)の小規模推論モデルの性能と一致する。
論文 参考訳(メタデータ) (2025-06-17T17:12:34Z) - Your Offline Policy is Not Trustworthy: Bilevel Reinforcement Learning for Sequential Portfolio Optimization [82.03139922490796]
強化学習(Reinforcement Learning, RL)は、過去のデータを用いたリスクを最小限にしつつ累積リターンを最大化することを目的とした、株式取引のような逐次的ポートフォリオ最適化タスクにおいて、大きな可能性を示してきた。
従来のRLアプローチは、固定データセット内での振る舞いの購入と販売を最適に記憶するだけのポリシーを生成することが多い。
当社のアプローチでは,ポートフォリオ最適化を新たなタイプの部分オフラインRL問題として捉え,2つの技術的貢献を行う。
論文 参考訳(メタデータ) (2025-05-19T06:37:25Z) - Ensemble RL through Classifier Models: Enhancing Risk-Return Trade-offs in Trading Strategies [0.0]
本稿では,金融取引戦略におけるアンサンブル強化学習(RL)モデルの利用について検討する。
本稿では,A2C,PPO,SACなどのRLアルゴリズムとSVM,決定木,ロジスティック回帰といった従来の分類器を組み合わせることにより,リスク・リターントレードオフを改善するために,異なる分類器群を統合する方法について検討する。
論文 参考訳(メタデータ) (2025-02-23T04:18:05Z) - Robot See, Robot Do: Imitation Reward for Noisy Financial Environments [0.0]
本稿では,模倣学習を活用することによって,より新しい,より堅牢な報酬関数を提案する。
モデルフリー強化学習アルゴリズムにおいて,再現性(エキスパートの)フィードバックと強化性(エージェントの)フィードバックを統合する。
実証的な結果は、この新しいアプローチが従来のベンチマークと比較すると、財務パフォーマンスの指標を改善することを示している。
論文 参考訳(メタデータ) (2024-11-13T14:24:47Z) - Combining Transformer based Deep Reinforcement Learning with
Black-Litterman Model for Portfolio Optimization [0.0]
モデルフリーのアルゴリズムとして、深層強化学習(DRL)エージェントは、教師なしの方法で環境と対話することで学習し、決定する。
DRLエージェントとBlack-Litterman (BL)モデルを組み合わせたハイブリッドポートフォリオ最適化モデルを提案する。
我々のDRLエージェントは、様々な比較ポートフォリオ選択戦略と代替DRLフレームワークを、累積リターンで少なくとも42%上回っている。
論文 参考訳(メタデータ) (2024-02-23T16:01:37Z) - Deep Reinforcement Learning for Long-Short Portfolio Optimization [7.131902599861306]
本稿では,実際の取引ルールに適合する短売制のポートフォリオ管理フレームワークであるDeep Reinforcement Learning (DRL)を構築した。
鍵となるイノベーションは、長期にわたるトランザクションの動的進化を考慮に入れた、継続的取引における包括的な短期販売メカニズムの開発である。
従来のアプローチと比較して、このモデルはリスク調整されたリターンを向上し、最大損失を低減します。
論文 参考訳(メタデータ) (2020-12-26T16:25:20Z) - Detecting and adapting to crisis pattern with context based Deep
Reinforcement Learning [6.224519494738852]
本稿では、2つのサブネットワークで構成された革新的なDRLフレームワークを提案する。
テストセットの結果、このアプローチはMarkowitzのような従来のポートフォリオ最適化手法を大幅に上回っており、現在のCovidのような危機を検出し予測することができる。
論文 参考訳(メタデータ) (2020-09-07T12:11:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。