論文の概要: Adaptive Dueling Double Deep Q-networks in Uniswap V3 Replication and Extension with Mamba
- arxiv url: http://arxiv.org/abs/2511.22101v1
- Date: Thu, 27 Nov 2025 04:45:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.393356
- Title: Adaptive Dueling Double Deep Q-networks in Uniswap V3 Replication and Extension with Mamba
- Title(参考訳): Uniswap V3におけるDouble Deep Q-networksの適応的デュリングとMambaによる拡張
- Authors: Zhaofeng Zhang,
- Abstract要約: 報告書は、"Unixwap V3における深層強化学習による適応的流動性規定"の複製と改善のメインステップを踏襲している。
レプリケーション部には、Unixwap Subgraphからデータを取得する方法、実装の詳細、結果に関するコメントが含まれている。
複製後,Mamba と DDQN を組み合わせたモデルに基づく新しい構造と,新たな報酬関数を提案する。
- 参考スコア(独自算出の注目度): 2.4736664896624814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The report goes through the main steps of replicating and improving the article "Adaptive Liquidity Provision in Uniswap V3 with Deep Reinforcement Learning." The replication part includes how to obtain data from the Uniswap Subgraph, details of the implementation, and comments on the results. After the replication, I propose a new structure based on the original model, which combines Mamba with DDQN and a new reward function. In this new structure, I clean the data again and introduce two new baselines for comparison. As a result, although the model has not yet been applied to all datasets, it shows stronger theoretical support than the original model and performs better in some tests.
- Abstract(参考訳): このレポートは、"Adaptive Liquidity Provision in Uniswap V3 with Deep Reinforcement Learning"という記事の複製と改善の主なステップを踏襲している。
レプリケーション部には、Unixwap Subgraphからデータを取得する方法、実装の詳細、結果に関するコメントが含まれている。
複製後,Mamba と DDQN を組み合わせたモデルに基づく新しい構造と,新たな報酬関数を提案する。
この新たな構造では、データを再びクリーン化し、比較のための2つの新しいベースラインを導入します。
その結果、モデルはまだすべてのデータセットに適用されていないが、元のモデルよりも理論的なサポートが強く、一部のテストでは性能が向上していることがわかった。
関連論文リスト
- Automatic Classification of User Requirements from Online Feedback -- A Replication Study [0.0]
我々は、ユーザレビューから要件分類のための異なるディープラーニングモデルを評価する、以前のNLP4RE研究(ベースライン)を再現する。
公開ソースコードを用いて元の結果を再現し,ベースライン研究の外部的妥当性を高めるのに役立てた。
その結果,ベースラインディープラーニングモデルであるBERTとELMoが外部データセットに優れた性能を示し,GPT-4oは従来のベースライン機械学習モデルに匹敵する性能を示した。
論文 参考訳(メタデータ) (2025-07-29T06:52:27Z) - Continual Referring Expression Comprehension via Dual Modular
Memorization [133.46886428655426]
Referring Expression (REC) は、自然言語で記述された対象のイメージ領域をローカライズすることを目的としている。
既存のRECアルゴリズムは、モデルへのデータ供給のトレーニングを前もって行うと強く仮定する。
本稿では、入ってくるタスクのストリーム上でモデルが学習するRECの新しい設定である連続参照表現(CREC)を提案する。
学習済みの知識を忘れずに,スクラッチから繰り返し再学習することなく,逐次的タスクのモデルを継続的に改善するために,デュアルモジュール記憶法という効果的なベースライン手法を提案する。
論文 参考訳(メタデータ) (2023-11-25T02:58:51Z) - ProtoNER: Few shot Incremental Learning for Named Entity Recognition
using Prototypical Networks [7.317342506617286]
プロトタイプネットワークに基づくエンドツーエンドKVP抽出モデルを示す。
モデルの初期トレーニングに使用されるデータセットに依存しない。
ノイズを付加し、結果としてモデルの性能劣化を引き起こすような中間合成データ生成は行われない。
論文 参考訳(メタデータ) (2023-10-03T18:52:19Z) - Challenging the Myth of Graph Collaborative Filtering: a Reasoned and Reproducibility-driven Analysis [50.972595036856035]
本稿では,6つの人気グラフと最近のグラフ推薦モデルの結果を再現するコードを提案する。
これらのグラフモデルと従来の協調フィルタリングモデルを比較する。
ユーザの近所からの情報フローを調べることにより,データセット構造における内在的特徴にどのようなモデルが影響するかを同定することを目的とする。
論文 参考訳(メタデータ) (2023-08-01T09:31:44Z) - RSC-VAE: Recoding Semantic Consistency Based VAE for One-Class Novelty
Detection [9.223853439465582]
我々は、典型的な再構成モデルである変分自動エンコーダ(VAE)の潜時空間を利用し、これを革新的に3つの領域に分割する。
この仮説に基づいて,新たなVAEアーキテクチャであるRSC-VAE(Recoding Semantic Consistency Based VAE)を提案する。
論文 参考訳(メタデータ) (2023-05-07T13:36:54Z) - $BT^2$: Backward-compatible Training with Basis Transformation [107.37014712361788]
検索システムは、より良い表現モデルに更新する際に、ギャラリー内のすべてのデータの表現を再計算する必要があることが多い。
このプロセスはバックフィルとして知られており、ギャラリーが何十億ものサンプルを含んでいる現実世界では特にコストがかかる。
近年、研究者らは、新しい表現モデルを補助的損失で訓練し、古い表現と後方互換性を持たせることができる、後方互換性トレーニング(BCT)のアイデアを提案している。
論文 参考訳(メタデータ) (2022-11-08T04:00:23Z) - MeetSum: Transforming Meeting Transcript Summarization using
Transformers! [2.1915057426589746]
本稿では,Transformer ベースの Pointer Generator Network を用いて要約文を生成する。
このモデルは、エンコーダとデコーダとして2つのLSTMを使用し、入力されたテキストから単語をコピーするポインタネットワークと、語彙外単語を生成するジェネレータネットワークを使用する。
本稿では,ニュース要約データセット上でモデルをトレーニングし,ゼロショット学習を用いてミーティングデータセット上でテストすることで,AMIミーティングデータセット上でのトレーニングよりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2021-08-13T16:34:09Z) - Data Augmentation for Abstractive Query-Focused Multi-Document
Summarization [129.96147867496205]
2つのQMDSトレーニングデータセットを提示し,2つのデータ拡張手法を用いて構築する。
これらの2つのデータセットは相補的な性質を持ち、すなわちQMDSCNNは実際のサマリを持つが、クエリはシミュレートされる。
組み合わせたデータセット上にエンドツーエンドのニューラルネットワークモデルを構築し、DUCデータセットに最新の転送結果をもたらします。
論文 参考訳(メタデータ) (2021-03-02T16:57:01Z) - Lip-reading with Hierarchical Pyramidal Convolution and Self-Attention [98.52189797347354]
唇読解のための空間特徴抽出にマルチスケール処理を導入する。
セルフアテンションを活用して、シーケンスのすべてのステップで情報をマージします。
提案モデルは86.83%の精度を達成し,現状よりも1.53%の絶対的改善が得られた。
論文 参考訳(メタデータ) (2020-12-28T16:55:51Z) - Generative Adversarial Networks for Annotated Data Augmentation in Data
Sparse NLU [0.76146285961466]
データスパーシティは、自然言語理解におけるモデル開発に関連する重要な課題の1つです。
GAN (Sequence Generative Adversarial Network) を用いたトレーニングデータ拡張によるNLUモデルの性能向上について報告する。
本実験により, 逐次生成逆数ネットワークを用いて生成した合成データにより, 複数の指標間で大きな性能向上が得られた。
論文 参考訳(メタデータ) (2020-12-09T20:38:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。