論文の概要: A Risk-Aware Reinforcement Learning Reward for Financial Trading
- arxiv url: http://arxiv.org/abs/2506.04358v1
- Date: Wed, 04 Jun 2025 18:19:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.368555
- Title: A Risk-Aware Reinforcement Learning Reward for Financial Trading
- Title(参考訳): 金融取引のためのリスク対応強化学習リワード
- Authors: Uditansh Srivastava, Shivam Aryan, Shaurya Singh,
- Abstract要約: 金融取引における強化学習のための新しい複合報酬関数を提案する。
4つの異なる用語を使ってリターンとリスクのバランスをとる。
これらの重み付けをグリッド検索で調整し、特定のリスクリターンプロファイルをターゲットとします。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We propose a novel composite reward function for reinforcement learning in financial trading that balances return and risk using four differentiable terms: annualized return downside risk differential return and the Treynor ratio Unlike single metric objectives for example the Sharpe ratio our formulation is modular and parameterized by weights w1 w2 w3 and w4 enabling practitioners to encode diverse investor preferences We tune these weights via grid search to target specific risk return profiles We derive closed form gradients for each term to facilitate gradient based training and analyze key theoretical properties including monotonicity boundedness and modularity This framework offers a general blueprint for building robust multi objective reward functions in complex trading environments and can be extended with additional risk measures or adaptive weighting
- Abstract(参考訳): 例えば、シャープ比はモジュラー化されており、我々の定式化は、ウェイトw1 w2 w3とw4によってパラメータ化され、実践者が多様な投資家の嗜好をエンコードすることができる グリッド探索によってこれらの重みを調整し、特定のリスクリターンプロファイルをターゲットとした、各項のクローズドな形式勾配を導出し、勾配に基づくトレーニングを容易にし、単調性境界性とモジュラリティを含む重要な理論的特性を分析し、複雑なトレーディング環境において堅牢な多目的報酬関数を構築するための一般的な青写真を提供する。
関連論文リスト
- Risk-Averse Reinforcement Learning with Itakura-Saito Loss [63.620958078179356]
リスク回避エージェントはリスクを最小限に抑えるポリシーを選択し、時には期待される価値を犠牲にする。
状態値と行動値の関数を学習するために,板倉-斎藤偏差に基づく数値的に安定かつ数学的に損失関数を導入する。
実験セクションでは、既知の解析解を含む複数のシナリオを探索し、その損失関数が代替よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-05-22T17:18:07Z) - Factor-MCLS: Multi-agent learning system with reward factor matrix and multi-critic framework for dynamic portfolio optimization [4.36011451106729]
各ポートフォリオ資産に対するリスク回避のレベルが異なることから、投資家がトレーニングに介入することは困難である。
既存の強化学習(DRL)エージェントは、ポートフォリオのリターンとリスクに対する要因の理解を深めることができない。
本稿では,各ポートフォリオの資産を解明するための報酬係数行列を提案する。
このように、DRLに基づく学習システムは、ポートフォリオのリターンとリスクに影響を与える要因を効果的に学習することができる。
論文 参考訳(メタデータ) (2025-04-16T08:51:09Z) - MILLION: A General Multi-Objective Framework with Controllable Risk for Portfolio Management [16.797109778036862]
pOrtfolio maMILLION に対して controLLableIsk を用いた汎用 Multi-objectIve フレームワークを提案する。
リスクコントロールフェーズでは,ポートフォリオ適応とポートフォリオ改善という2つの手法を提案する。
その結果,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2024-12-04T05:19:34Z) - Optimizing Credit Limit Adjustments Under Adversarial Goals Using
Reinforcement Learning [42.303733194571905]
我々は、強化学習技術を用いて最適なクレジットカード制限調整ポリシーを発見し、自動化することを模索する。
本研究は、信用限度調整に強化学習フレームワークを適用するための概念構造を確立する。
論文 参考訳(メタデータ) (2023-06-27T16:10:36Z) - When Demonstrations Meet Generative World Models: A Maximum Likelihood
Framework for Offline Inverse Reinforcement Learning [62.00672284480755]
本稿では, 専門家エージェントから, 一定の有限個の実演において観測された動作を過小評価する報酬と環境力学の構造を復元することを目的とする。
タスクを実行するための正確な専門知識モデルは、臨床的意思決定や自律運転のような安全に敏感な応用に応用できる。
論文 参考訳(メタデータ) (2023-02-15T04:14:20Z) - Efficient Risk-Averse Reinforcement Learning [79.61412643761034]
リスク逆強化学習(RL)では、リターンのリスク測定を最適化することが目標である。
特定の条件下では、これは必然的に局所最適障壁につながることを証明し、それを回避するためのソフトリスク機構を提案する。
迷路ナビゲーション,自律運転,資源配分ベンチマークにおいて,リスク回避の改善を示す。
論文 参考訳(メタデータ) (2022-05-10T19:40:52Z) - Risk budget portfolios with convex Non-negative Matrix Factorization [0.0]
凸非負行列因子化(NMF)を用いたリスクファクタの予算化に基づくポートフォリオ割当手法を提案する。
我々は、暗号通貨と伝統的資産の2つの長期的グローバルポートフォリオを対象とするボラティリティの文脈で、我々の手法を評価する。
論文 参考訳(メタデータ) (2022-04-06T12:02:15Z) - Deep Risk Model: A Deep Learning Solution for Mining Latent Risk Factors
to Improve Covariance Matrix Estimation [8.617532047238461]
ニューラルネットワークによるリスクファクタを効果的に"設計"するためのディープラーニングソリューションを提案する。
提案手法は,R2$で測定した説明分散を1.9%以上高めることができ,また,グローバルな最小分散ポートフォリオのリスクを低減することができる。
論文 参考訳(メタデータ) (2021-07-12T05:30:50Z) - Risk-Sensitive Reinforcement Learning: a Martingale Approach to Reward
Uncertainty [15.572157454411533]
逐次意思決定問題における不確実性に対する感性を考慮した新しい枠組みを提案する。
本稿では,プロセスのDoob分解に基づく累積報酬に含まれるランダム性の新たな分解について述べる。
我々は、この新たなリスクに敏感なアプローチを、ポリシーと値勾配関数に基づくモデルフリーアルゴリズムに取り入れることで、強化学習の側面を革新し、グリッドの世界とポートフォリオ最適化の問題にその関連性を示す。
論文 参考訳(メタデータ) (2020-06-23T01:20:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。