論文の概要: A Risk-Aware Reinforcement Learning Reward for Financial Trading
- arxiv url: http://arxiv.org/abs/2506.04358v1
- Date: Wed, 04 Jun 2025 18:19:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.368555
- Title: A Risk-Aware Reinforcement Learning Reward for Financial Trading
- Title(参考訳): 金融取引のためのリスク対応強化学習リワード
- Authors: Uditansh Srivastava, Shivam Aryan, Shaurya Singh,
- Abstract要約: 金融取引における強化学習のための新しい複合報酬関数を提案する。
4つの異なる用語を使ってリターンとリスクのバランスをとる。
これらの重み付けをグリッド検索で調整し、特定のリスクリターンプロファイルをターゲットとします。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We propose a novel composite reward function for reinforcement learning in financial trading that balances return and risk using four differentiable terms: annualized return downside risk differential return and the Treynor ratio Unlike single metric objectives for example the Sharpe ratio our formulation is modular and parameterized by weights w1 w2 w3 and w4 enabling practitioners to encode diverse investor preferences We tune these weights via grid search to target specific risk return profiles We derive closed form gradients for each term to facilitate gradient based training and analyze key theoretical properties including monotonicity boundedness and modularity This framework offers a general blueprint for building robust multi objective reward functions in complex trading environments and can be extended with additional risk measures or adaptive weighting
- Abstract(参考訳): 例えば、シャープ比はモジュラー化されており、我々の定式化は、ウェイトw1 w2 w3とw4によってパラメータ化され、実践者が多様な投資家の嗜好をエンコードすることができる グリッド探索によってこれらの重みを調整し、特定のリスクリターンプロファイルをターゲットとした、各項のクローズドな形式勾配を導出し、勾配に基づくトレーニングを容易にし、単調性境界性とモジュラリティを含む重要な理論的特性を分析し、複雑なトレーディング環境において堅牢な多目的報酬関数を構築するための一般的な青写真を提供する。
関連論文リスト
- Quantum Reinforcement Learning Trading Agent for Sector Rotation in the Taiwan Stock Market [7.360168388085351]
台湾株式市場におけるセクターローテーションのためのハイブリッド量子古典的強化学習フレームワークを提案する。
量子強化モデルは、常により高いトレーニング報酬を達成するが、それらは現実世界の投資指標において古典的なモデルより劣る。
この不一致は、金融分野に強化学習を適用する上での課題を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-06-26T01:29:19Z) - Risk-Averse Reinforcement Learning with Itakura-Saito Loss [63.620958078179356]
リスク回避エージェントはリスクを最小限に抑えるポリシーを選択し、時には期待される価値を犠牲にする。
状態値と行動値の関数を学習するために,板倉-斎藤偏差に基づく数値的に安定かつ数学的に損失関数を導入する。
実験セクションでは、既知の解析解を含む複数のシナリオを探索し、その損失関数が代替よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-05-22T17:18:07Z) - Factor-MCLS: Multi-agent learning system with reward factor matrix and multi-critic framework for dynamic portfolio optimization [4.36011451106729]
各ポートフォリオ資産に対するリスク回避のレベルが異なることから、投資家がトレーニングに介入することは困難である。
既存の強化学習(DRL)エージェントは、ポートフォリオのリターンとリスクに対する要因の理解を深めることができない。
本稿では,各ポートフォリオの資産を解明するための報酬係数行列を提案する。
このように、DRLに基づく学習システムは、ポートフォリオのリターンとリスクに影響を与える要因を効果的に学習することができる。
論文 参考訳(メタデータ) (2025-04-16T08:51:09Z) - MILLION: A General Multi-Objective Framework with Controllable Risk for Portfolio Management [16.797109778036862]
pOrtfolio maMILLION に対して controLLableIsk を用いた汎用 Multi-objectIve フレームワークを提案する。
リスクコントロールフェーズでは,ポートフォリオ適応とポートフォリオ改善という2つの手法を提案する。
その結果,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2024-12-04T05:19:34Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - Optimizing Credit Limit Adjustments Under Adversarial Goals Using
Reinforcement Learning [42.303733194571905]
我々は、強化学習技術を用いて最適なクレジットカード制限調整ポリシーを発見し、自動化することを模索する。
本研究は、信用限度調整に強化学習フレームワークを適用するための概念構造を確立する。
論文 参考訳(メタデータ) (2023-06-27T16:10:36Z) - When Demonstrations Meet Generative World Models: A Maximum Likelihood
Framework for Offline Inverse Reinforcement Learning [62.00672284480755]
本稿では, 専門家エージェントから, 一定の有限個の実演において観測された動作を過小評価する報酬と環境力学の構造を復元することを目的とする。
タスクを実行するための正確な専門知識モデルは、臨床的意思決定や自律運転のような安全に敏感な応用に応用できる。
論文 参考訳(メタデータ) (2023-02-15T04:14:20Z) - Efficient Risk-Averse Reinforcement Learning [79.61412643761034]
リスク逆強化学習(RL)では、リターンのリスク測定を最適化することが目標である。
特定の条件下では、これは必然的に局所最適障壁につながることを証明し、それを回避するためのソフトリスク機構を提案する。
迷路ナビゲーション,自律運転,資源配分ベンチマークにおいて,リスク回避の改善を示す。
論文 参考訳(メタデータ) (2022-05-10T19:40:52Z) - Risk budget portfolios with convex Non-negative Matrix Factorization [0.0]
凸非負行列因子化(NMF)を用いたリスクファクタの予算化に基づくポートフォリオ割当手法を提案する。
我々は、暗号通貨と伝統的資産の2つの長期的グローバルポートフォリオを対象とするボラティリティの文脈で、我々の手法を評価する。
論文 参考訳(メタデータ) (2022-04-06T12:02:15Z) - Online Learning with Knapsacks: the Best of Both Worlds [54.28273783164608]
オンライン学習の課題として,意思決定者が,リソース制約の有限セットに違反することなく,期待する報酬を最大化したい,という課題を提起する。
当社のフレームワークは,意思決定者がそのエビデンスを柔軟かつコスト論的に扱えるようにします。
論文 参考訳(メタデータ) (2022-02-28T12:10:48Z) - Deep Risk Model: A Deep Learning Solution for Mining Latent Risk Factors
to Improve Covariance Matrix Estimation [8.617532047238461]
ニューラルネットワークによるリスクファクタを効果的に"設計"するためのディープラーニングソリューションを提案する。
提案手法は,R2$で測定した説明分散を1.9%以上高めることができ,また,グローバルな最小分散ポートフォリオのリスクを低減することができる。
論文 参考訳(メタデータ) (2021-07-12T05:30:50Z) - Risk-Sensitive Reinforcement Learning: a Martingale Approach to Reward
Uncertainty [15.572157454411533]
逐次意思決定問題における不確実性に対する感性を考慮した新しい枠組みを提案する。
本稿では,プロセスのDoob分解に基づく累積報酬に含まれるランダム性の新たな分解について述べる。
我々は、この新たなリスクに敏感なアプローチを、ポリシーと値勾配関数に基づくモデルフリーアルゴリズムに取り入れることで、強化学習の側面を革新し、グリッドの世界とポートフォリオ最適化の問題にその関連性を示す。
論文 参考訳(メタデータ) (2020-06-23T01:20:00Z) - Cost-Sensitive Portfolio Selection via Deep Reinforcement Learning [100.73223416589596]
深層強化学習を用いたコスト依存型ポートフォリオ選択手法を提案する。
具体的には、価格系列パターンと資産相関の両方を抽出するために、新しい2ストリームポートフォリオポリシーネットワークを考案した。
蓄積したリターンを最大化し、強化学習によるコストの両立を抑えるため、新たなコスト感受性報酬関数が開発された。
論文 参考訳(メタデータ) (2020-03-06T06:28:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。