論文の概要: QLAMMP: A Q-Learning Agent for Optimizing Fees on Automated Market
Making Protocols
- arxiv url: http://arxiv.org/abs/2211.14977v1
- Date: Mon, 28 Nov 2022 00:30:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 19:32:34.021668
- Title: QLAMMP: A Q-Learning Agent for Optimizing Fees on Automated Market
Making Protocols
- Title(参考訳): qlammp:自動化市場構築プロトコルの料金を最適化するq-learningエージェント
- Authors: Dev Churiwala, Bhaskar Krishnamachari
- Abstract要約: 本稿では,所定のAMMプロトコルの最適料金率を学習し,係数を活用するQ-Learning Agent for Market Making Protocols (QLAMMP) を開発する。
QLAMMPは、すべてのシミュレートされたテスト条件下で、その静的な性能を一貫して上回っていることを示す。
- 参考スコア(独自算出の注目度): 5.672898304129217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated Market Makers (AMMs) have cemented themselves as an integral part
of the decentralized finance (DeFi) space. AMMs are a type of exchange that
allows users to trade assets without the need for a centralized exchange. They
form the foundation for numerous decentralized exchanges (DEXs), which help
facilitate the quick and efficient exchange of on-chain tokens. All present-day
popular DEXs are static protocols, with fixed parameters controlling the fee
and the curvature - they suffer from invariance and cannot adapt to quickly
changing market conditions. This characteristic may cause traders to stay away
during high slippage conditions brought about by intractable market movements.
We propose an RL framework to optimize the fees collected on an AMM protocol.
In particular, we develop a Q-Learning Agent for Market Making Protocols
(QLAMMP) that learns the optimal fee rates and leverage coefficients for a
given AMM protocol and maximizes the expected fee collected under a range of
different market conditions. We show that QLAMMP is consistently able to
outperform its static counterparts under all the simulated test conditions.
- Abstract(参考訳): AMM(Automated Market Makers)は、分散金融(DeFi)分野の不可欠な部分として自らを固めている。
AMMは、集中取引所を必要とせずに資産を取引できる取引所の一種である。
多数の分散交換(DEX)の基礎を形成し、オンチェーントークンの迅速かつ効率的な交換を支援する。
現在の一般的なdexはすべて静的プロトコルであり、固定パラメータが料金と曲率を制御している。
この特徴は、トレーダーが不利な市場の動きによって引き起こされる高い滑り込み状態の間、遠ざかってしまう可能性がある。
本稿では,AMMプロトコル上で収集した料金を最適化するRLフレームワークを提案する。
特に,マーケットメイキングプロトコルのQラーニングエージェント(QLAMMP)を開発し,与えられたAMMプロトコルの最適料金率と係数を学習し,様々な市場条件下で収集された期待手数料を最大化する。
QLAMMPは、すべてのシミュレートされたテスト条件下で、その静的な性能よりも一貫して優れています。
関連論文リスト
- Game Theoretic Liquidity Provisioning in Concentrated Liquidity Market Makers [8.56210578177444]
集中流動性市場メーカ(CLMM)におけるLPのインセンティブについて検討する。
リスク資産を有する流動性プールでは、LPはナッシュ均衡から遠く離れた投資戦略を採用する。
いくつかのプールにおいて、我々のゲームのナッシュ均衡をより緊密に適合させる戦略を更新することで、LPは日々のリターンの中央値を16.99ドル改善できることを示す。
論文 参考訳(メタデータ) (2024-11-15T18:09:43Z) - From x*y=k to Uniswap Hooks; A Comparative Review of Decentralized Exchanges (DEX) [2.07180164747172]
本稿では、Uniswap, Curve, Balancerという有名なDEXプロトコルの包括的分類と比較分析を行う。
目標は、異なるAMMモデルの強みと制限を解明し、DEX開発における新たな概念を強調し、現在の課題を概説し、特定のアプリケーションに対して最適なモデルを区別することである。
論文 参考訳(メタデータ) (2024-10-14T05:10:56Z) - Quantifying Arbitrage in Automated Market Makers: An Empirical Study of Ethereum ZK Rollups [6.892626226074608]
本研究は、ZKロールアップにおけるAMM(Automated Market Makers)とCEX(Centralized Exchanges)の仲裁の機会を体系的にレビューする。
このような仲裁の機会を計測し、関連する最大任意値(MAV)の式を導出する理論的枠組みを提案する。
全体として、USDC-ETH SyncSwapプールにおける2023年7月から2023年までの累積MAVは104.96k(取引量の0.24%)である。
論文 参考訳(メタデータ) (2024-03-24T10:26:34Z) - Many learning agents interacting with an agent-based market model [0.0]
反応型エージェントベースモデルと相互作用する最適な実行取引エージェントの学習のダイナミクスを考察する。
このモデルは、最適な実行学習エージェント、最小限の知的流動性テイカー、高速な電子流動性プロバイダによって表される3つの栄養レベルを持つ市場エコロジーを表している。
学習可能な最適な実行エージェントを組み込むことで、経験的データと同じ複雑さで動的に生成できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-03-13T18:15:52Z) - Uniswap Liquidity Provision: An Online Learning Approach [49.145538162253594]
分散取引所(DEX)は、テクノロジーを活用した新しいタイプのマーケットプレイスである。
そのようなDECの1つ、Unixwap v3は、流動性プロバイダが資金のアクティブな価格間隔を指定することで、より効率的に資金を割り当てることを可能にする。
これにより、価格間隔を選択するための最適な戦略を見出すことが問題となる。
我々は、この問題を非確率的な報酬を伴うオンライン学習問題として定式化する。
論文 参考訳(メタデータ) (2023-02-01T17:21:40Z) - Predictive Crypto-Asset Automated Market Making Architecture for
Decentralized Finance using Deep Reinforcement Learning [0.0]
本研究は、オンチェーンの保持と決済機能を備えた引用駆動型予測自動市場メーカー(AMM)プラットフォームを提案する。
提案アーキテクチャは,暗号AMMプロトコルであるUnixwap V3への拡張であり,分散とすべり損失の低減を目的とした新たな市場均衡価格を利用する。
論文 参考訳(メタデータ) (2022-09-28T01:13:22Z) - MA2QL: A Minimalist Approach to Fully Decentralized Multi-Agent
Reinforcement Learning [63.46052494151171]
テキストマルチエージェント代替Q-ラーニング(MA2QL)を提案し、エージェントが順番にQ-ラーニングによってQ-関数を更新する。
各エージェントが各ターンで$varepsilon$-convergenceを保証した場合、それらの合同ポリシーはナッシュ均衡に収束する。
結果は、MA2QLが最小限の変更にもかかわらず、MA2QLの有効性を検証するIQLを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2022-09-17T04:54:32Z) - Deep Q-Learning Market Makers in a Multi-Agent Simulated Stock Market [58.720142291102135]
本稿では,エージェント・ベースの観点から,これらのマーケット・メーカーの戦略に関する研究に焦点をあてる。
模擬株式市場における知的市場マーカー作成のための強化学習(Reinforcement Learning, RL)の適用を提案する。
論文 参考訳(メタデータ) (2021-12-08T14:55:21Z) - Weighted QMIX: Expanding Monotonic Value Function Factorisation for Deep
Multi-Agent Reinforcement Learning [66.94149388181343]
本稿では,MARLのためのQ$-learningアルゴリズムの新バージョンを提案する。
Q*$をアクセスしても、最適なポリシーを回復できることを示します。
また,プレデレータープリとマルチエージェントのStarCraftベンチマークタスクの性能向上を実証した。
論文 参考訳(メタデータ) (2020-06-18T18:34:50Z) - A Deep Reinforcement Learning Framework for Continuous Intraday Market
Bidding [69.37299910149981]
再生可能エネルギー源統合の成功の鍵となる要素は、エネルギー貯蔵の利用である。
欧州の継続的な日内市場におけるエネルギー貯蔵の戦略的関与をモデル化するための新しい枠組みを提案する。
本アルゴリズムの分散バージョンは, サンプル効率のため, この問題を解決するために選択される。
その結果, エージェントは, ベンチマーク戦略よりも平均的収益率の高い政策に収束することが示唆された。
論文 参考訳(メタデータ) (2020-04-13T13:50:13Z) - Monotonic Value Function Factorisation for Deep Multi-Agent
Reinforcement Learning [55.20040781688844]
QMIXは、中央集権的なエンドツーエンドで分散ポリシーをトレーニングできる新しい価値ベースの手法である。
深層多エージェント強化学習のための新しいベンチマークとして,StarCraft Multi-Agent Challenge (SMAC)を提案する。
論文 参考訳(メタデータ) (2020-03-19T16:51:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。