論文の概要: RAmmStein: Regime Adaptation in Mean-reverting Markets with Stein Thresholds -- Optimal Impulse Control in Concentrated AMMs
- arxiv url: http://arxiv.org/abs/2602.19419v1
- Date: Mon, 23 Feb 2026 01:25:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.636812
- Title: RAmmStein: Regime Adaptation in Mean-reverting Markets with Stein Thresholds -- Optimal Impulse Control in Concentrated AMMs
- Title(参考訳): RAmmStein:Stein Thresholdsによる平均回帰市場におけるレジーム適応 -- 集中型AMMにおける最適インパルス制御
- Authors: Pranay Anchuri,
- Abstract要約: 分散型取引所における集中流動性供給は、基本的なインパルス制御の問題を示す。
本稿では,最適制御問題として流動性管理を定式化し,ハミルトン・ヤコビ・ベルマン準変量不等式(HJB-QVI)を導出する。
本稿では,Ornstein-Uhlenbeckプロセスの平均回帰速度(theta)を組み込んだ深層強化学習法であるRAmmSteinについて述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Concentrated liquidity provision in decentralized exchanges presents a fundamental Impulse Control problem. Liquidity Providers (LPs) face a non-trivial trade-off between maximizing fee accrual through tight price-range concentration and minimizing the friction costs of rebalancing, including gas fees and swap slippage. Existing methods typically employ heuristic or threshold strategies that fail to account for market dynamics. This paper formulates liquidity management as an optimal control problem and derives the corresponding Hamilton-Jacobi-Bellman quasi-variational inequality (HJB-QVI). We present an approximate solution RAmmStein, a Deep Reinforcement Learning method that incorporates the mean-reversion speed (theta) of an Ornstein-Uhlenbeck process among other features as input to the model. We demonstrate that the agent learns to separate the state space into regions of action and inaction. We evaluate the framework using high-frequency 1Hz Coinbase trade data comprising over 6.8M trades. Experimental results show that RAmmStein achieves a superior net ROI of 0.72% compared to both passive and aggressive strategies. Notably, the agent reduces rebalancing frequency by 67% compared to a greedy rebalancing strategy while maintaining 88% active time. Our results demonstrate that regime-aware laziness can significantly improve capital efficiency by preserving the returns that would otherwise be eroded by the operational costs.
- Abstract(参考訳): 分散型取引所における集中流動性供給は、基本的なインパルス制御の問題を示す。
流動性プロバイダ(LPs)は、価格帯の厳密な集中による手数料の蓄積の最大化と、ガス料金やスワップスリップを含むリバランシングの摩擦コストの最小化との間に、非自明なトレードオフに直面している。
既存の手法では、市場ダイナミクスを考慮できないヒューリスティック戦略やしきい値戦略を用いるのが一般的である。
本稿では,最適制御問題として流動性管理を定式化し,対応するハミルトン・ヤコビ・ベルマン準変量不等式(HJB-QVI)を導出する。
モデルへの入力として,Ornstein-Uhlenbeckプロセスの平均回帰速度(theta)を組み込んだ近似解RAmmSteinを提案する。
エージェントが状態空間を動作領域と不動作領域に分離することを学ぶことを実証する。
我々は680万以上の取引からなる高周波1Hzのコインベース取引データを用いてフレームワークの評価を行った。
実験の結果、RAmmSteinは受動的戦略と攻撃的戦略の両方と比較して、0.72%の優れた純ROIを達成することが示された。
特に、この剤は、88%の活性時間を維持しながら、グリージーな再バランス戦略と比較して、再バランスの頻度を67%削減する。
以上の結果から,運用コストによって損なわれるようなリターンを保ちながら,レシックアウェアの怠慢は,資本効率を著しく向上させることができることが示唆された。
関連論文リスト
- ROAST: Rollout-based On-distribution Activation Steering Technique [16.632201561391366]
アクティベーションステアリングは、推論時に大きな言語モデルをパラメータ効率よく制御する。
本稿では,ROAST(Rollout-based On-distriion Activation Steering Technique)を提案する。
我々の経験的分析によると、活性化度は方向整合性と適度に相関するが、大きさのばらつきは重要であり、しばしば意味的品質に不均衡である。
論文 参考訳(メタデータ) (2026-02-15T13:30:26Z) - Information Fidelity in Tool-Using LLM Agents: A Martingale Analysis of the Model Context Protocol [69.11739400975445]
モデルコンテキストプロトコル(MCP)エージェントにおけるエラー蓄積を解析するための最初の理論的枠組みを紹介する。
累積歪みが線形成長と高確率偏差を$O(sqrtT)$で表すことを示す。
主な発見は、意味重み付けは歪みを80%減らし、周期的再接地は、エラー制御の約9ステップごとに十分である。
論文 参考訳(メタデータ) (2026-02-10T21:08:53Z) - Robust Reinforcement Learning in Finance: Modeling Market Impact with Elliptic Uncertainty Sets [57.179679246370114]
金融分野では、強化学習(RL)エージェントは、価格に影響を与えない歴史的データに基づいて訓練されることが多い。
展開中、これらのエージェントは、自身の取引が資産価格を変えることができるライブマーケットで取引する。
従来のロバストなRLアプローチは、不確実性の集合に対して最悪のパフォーマンスを最適化することで、このモデルの誤特定に対処する。
楕円型不確実性集合の新たなクラスを開発し,効率的かつ堅牢な政策評価を可能にする。
論文 参考訳(メタデータ) (2025-10-22T18:22:25Z) - Trajectory Bellman Residual Minimization: A Simple Value-Based Method for LLM Reasoning [55.33984461046492]
現在、政策に基づく手法が大規模言語モデル(LLM)推論のための強化学習パイプラインを支配している。
本稿では,このアイデアを LLM に自然に適応させるアルゴリズムである Trajectory Bellman Residual Minimization (TBRM) を紹介する。
我々は、軌道の軌道変更-測度分析の改善により、任意のオフ政治から、最適に近いKL正規化政策への収束を証明した。
論文 参考訳(メタデータ) (2025-05-21T09:41:53Z) - Deep Hedging with Market Impact [0.20482269513546458]
本稿では,Deep Reinforcement Learning(DRL)に基づく新しい市場インパクト動的ヘッジモデルを提案する。
DRLモデルから得られた最適ポリシーは、いくつかのオプションヘッジシミュレーションを用いて分析され、デルタヘッジのような一般的な手順と比較される。
論文 参考訳(メタデータ) (2024-02-20T19:08:24Z) - ZeroSwap: Data-driven Optimal Market Making in DeFi [23.671367118750872]
AMM(Automated Market Makers)は、分散金融における流動性供給と需要に合致する主要なセンターである。
本稿では,アセットの外部価格を最適に追跡する,最初の最適ベイズアルゴリズムとモデルフリーなデータ駆動アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-13T21:28:19Z) - Adaptive Stochastic ADMM for Decentralized Reinforcement Learning in
Edge Industrial IoT [106.83952081124195]
強化学習 (Reinforcement Learning, RL) は, 意思決定および最適制御プロセスのための有望な解法として広く研究されている。
本稿では,Adaptive ADMM (asI-ADMM)アルゴリズムを提案する。
実験の結果,提案アルゴリズムは通信コストやスケーラビリティの観点から技術状況よりも優れており,複雑なIoT環境に適応できることがわかった。
論文 参考訳(メタデータ) (2021-06-30T16:49:07Z) - A Deep Reinforcement Learning Framework for Continuous Intraday Market
Bidding [69.37299910149981]
再生可能エネルギー源統合の成功の鍵となる要素は、エネルギー貯蔵の利用である。
欧州の継続的な日内市場におけるエネルギー貯蔵の戦略的関与をモデル化するための新しい枠組みを提案する。
本アルゴリズムの分散バージョンは, サンプル効率のため, この問題を解決するために選択される。
その結果, エージェントは, ベンチマーク戦略よりも平均的収益率の高い政策に収束することが示唆された。
論文 参考訳(メタデータ) (2020-04-13T13:50:13Z) - Momentum Improves Normalized SGD [51.27183254738711]
モーメントを追加することで、目的に対する大きなバッチサイズの必要性を確実に排除できることを示す。
本稿では,ResNet-50 や BERT といった大規模タスクの事前学習において,提案手法が有効であることを示す。
論文 参考訳(メタデータ) (2020-02-09T07:00:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。