論文の概要: Hedging using reinforcement learning: Contextual $k$-Armed Bandit versus
$Q$-learning
- arxiv url: http://arxiv.org/abs/2007.01623v2
- Date: Sun, 6 Feb 2022 18:49:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 05:01:44.964338
- Title: Hedging using reinforcement learning: Contextual $k$-Armed Bandit versus
$Q$-learning
- Title(参考訳): 強化学習を用いたヘッジ:文脈的$k$-Armed Bandit対$Q$-learning
- Authors: Loris Cannelli, Giuseppe Nuti, Marzio Sala, Oleg Szehr
- Abstract要約: 本稿では,リスクと市場摩擦の存在下での連関債権の複製戦略の構築について検討する。
本稿では、ヘッジ問題はリスク・アバース文脈における$k$-armed bandit問題の例と見なされる。
私たちは、$k$の武器付きバンディットモデルが、ヘッジの利益と損失の定式化に自然に適合していることに気付きました。
- 参考スコア(独自算出の注目度): 0.22940141855172028
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The construction of replication strategies for contingent claims in the
presence of risk and market friction is a key problem of financial engineering.
In real markets, continuous replication, such as in the model of Black, Scholes
and Merton (BSM), is not only unrealistic but it is also undesirable due to
high transaction costs. A variety of methods have been proposed to balance
between effective replication and losses in the incomplete market setting. With
the rise of Artificial Intelligence (AI), AI-based hedgers have attracted
considerable interest, where particular attention was given to Recurrent Neural
Network systems and variations of the $Q$-learning algorithm. From a practical
point of view, sufficient samples for training such an AI can only be obtained
from a simulator of the market environment. Yet if an agent was trained solely
on simulated data, the run-time performance will primarily reflect the accuracy
of the simulation, which leads to the classical problem of model choice and
calibration. In this article, the hedging problem is viewed as an instance of a
risk-averse contextual $k$-armed bandit problem, which is motivated by the
simplicity and sample-efficiency of the architecture. This allows for realistic
online model updates from real-world data. We find that the $k$-armed bandit
model naturally fits to the Profit and Loss formulation of hedging, providing
for a more accurate and sample efficient approach than $Q$-learning and
reducing to the Black-Scholes model in the absence of transaction costs and
risks.
- Abstract(参考訳): リスクと市場の摩擦の存在下での請求項の複製戦略の構築は、金融工学の重要な問題である。
現実の市場では、Black、Scholes、Merton(BSM)のモデルのような継続的複製は非現実的なだけでなく、高い取引コストのために望ましくない。
不完全市場における効果的な複製と損失のバランスをとるための様々な手法が提案されている。
ai(artificial intelligence, 人工知能)の台頭に伴い、aiベースのヘッガーは大きな関心を集め、繰り返し発生するニューラルネットワークシステムや、q$-learningアルゴリズムのバリエーションに特に注目された。
実践的な観点からは、そのようなAIを訓練するための十分なサンプルは、市場環境のシミュレータからのみ得られる。
しかし、エージェントがシミュレーションデータのみに基づいて訓練された場合、実行時の性能は主にシミュレーションの精度を反映し、モデル選択とキャリブレーションの古典的な問題につながる。
この記事では、ヘッジ問題は、アーキテクチャの単純さとサンプル効率性によって動機付けられた、リスク回避的な文脈的$k$-armed bandit問題の例と見なされる。
これにより、実際のデータからリアルなオンラインモデル更新が可能になる。
k$-armed banditモデルは、当然、ヘッジの利益と損失の定式化に適合し、q$-learningよりも正確でサンプル効率の良いアプローチを提供し、トランザクションコストとリスクの欠如によりブラックシェールモデルに還元できることが分かりました。
関連論文リスト
- TRADES: Generating Realistic Market Simulations with Diffusion Models [4.308104021015939]
金融市場は、高い統計ノイズ、非線形性、一定の進化を特徴とする複雑なシステムである。
我々は,現実的で応答性の高いリミットオーダーブック(LOB)市場シミュレーションを作成するタスクに対処する。
LOBシミュレーションのための新しいデノイング拡散確率エンジン(TRADES)を提案する。
論文 参考訳(メタデータ) (2025-01-31T19:43:13Z) - MetaTrading: An Immersion-Aware Model Trading Framework for Vehicular Metaverse Services [94.61039892220037]
本稿では,車載メタバースにおける拡張現実(AR)サービスの学習モデルを支援するために,メタバースユーザ(MU)にインセンティブを与える新しい没入型モデルトレーディングフレームワークを提案する。
動的ネットワーク条件とプライバシの懸念を考慮して、マルチエージェントマルコフ決定プロセスとしてMSPの報酬決定を定式化する。
実験により,提案フレームワークは,実AR関連車両データセット上でのARサービスにおいて,オブジェクト検出と分類のための高価値モデルを効果的に提供できることが示されている。
論文 参考訳(メタデータ) (2024-10-25T16:20:46Z) - Online Resource Allocation for Edge Intelligence with Colocated Model Retraining and Inference [5.6679198251041765]
我々は、トレーニングモデルと推論の精度を適応的にバランスするリソース割り当てを最適化するために、ORRICというオンライン近似アルゴリズムを導入する。
ORRICの競合比は従来の推論オンリーパラダイムよりも優れている。
論文 参考訳(メタデータ) (2024-05-25T03:05:19Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Designing an attack-defense game: how to increase robustness of
financial transaction models via a competition [69.08339915577206]
金融セクターにおける悪意ある攻撃のエスカレートリスクを考えると、機械学習モデルの敵戦略と堅牢な防御メカニズムを理解することが重要である。
本研究の目的は、逐次的な財務データを入力として使用するニューラルネットワークモデルに対する敵攻撃と防御の現状とダイナミクスを調査することである。
我々は、現代の金融取引データにおける問題の現実的かつ詳細な調査を可能にする競争を設計した。
参加者は直接対決するので、実生活に近い環境で攻撃や防御が検討される。
論文 参考訳(メタデータ) (2023-08-22T12:53:09Z) - Adversarial Deep Hedging: Learning to Hedge without Price Process
Modeling [4.656182369206814]
本稿では,敵対的学習にインスパイアされた,敵対的深層ヘッジと呼ばれる新しい枠組みを提案する。
この枠組みでは、基礎となる資産プロセスと基盤となる資産プロセスをそれぞれモデル化するヘッジラーとジェネレータを対角的に訓練する。
論文 参考訳(メタデータ) (2023-07-25T03:09:32Z) - Anytime Model Selection in Linear Bandits [61.97047189786905]
ALEXPは,その後悔に対するM$への依存を指数関数的に改善した。
提案手法は,オンライン学習と高次元統計学の新たな関連性を確立するために,ラッソの時間的一様解析を利用する。
論文 参考訳(メタデータ) (2023-07-24T15:44:30Z) - Learning to simulate realistic limit order book markets from data as a
World Agent [1.1470070927586016]
マルチエージェント市場シミュレータは通常、実際の市場をエミュレートするために慎重なキャリブレーションを必要とする。
キャリブレーションの少ないシミュレータは、誤解を招く結果につながる可能性がある。
本稿では,限定注文書市場を正確にエミュレートする世界モデルシミュレータを提案する。
論文 参考訳(メタデータ) (2022-09-26T09:17:11Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - Model-Augmented Q-learning [112.86795579978802]
モデルベースRLの構成要素を付加したMFRLフレームワークを提案する。
具体的には、$Q$-valuesだけでなく、共有ネットワークにおける遷移と報酬の両方を見積もる。
提案手法は,MQL (Model-augmented $Q$-learning) とよばれる提案手法により,真に報いられた学習によって得られる解と同一のポリシ不変解が得られることを示す。
論文 参考訳(メタデータ) (2021-02-07T17:56:50Z) - Robust pricing and hedging via neural SDEs [0.0]
我々は,ニューラルSDEの効率的な利用に必要な新しいアルゴリズムを開発し,分析する。
我々は、関連する市場データを取り入れつつ、デリバティブの価格とそれに対応するヘッジ戦略の堅牢な境界を見出した。
ニューラルSDEはリスクニュートラルと現実世界の両方で一貫したキャリブレーションを可能にする。
論文 参考訳(メタデータ) (2020-07-08T14:33:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。