論文の概要: VWAP Execution with Signature-Enhanced Transformers: A Multi-Asset Learning Approach
- arxiv url: http://arxiv.org/abs/2503.02680v1
- Date: Tue, 04 Mar 2025 14:50:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:13:59.630075
- Title: VWAP Execution with Signature-Enhanced Transformers: A Multi-Asset Learning Approach
- Title(参考訳): 符号強化変換器を用いたVWAP実行:マルチアセット学習アプローチ
- Authors: Remi Genet,
- Abstract要約: 本稿では,VWAP(Volume Weighted Average Price)の実行に対する新しいアプローチを提案する。
私は、複数のアセットにまたがってトレーニングされた1つのニューラルネットワークが、従来のアセット固有のモデルに匹敵するパフォーマンスを達成できることを実証します。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In this paper I propose a novel approach to Volume Weighted Average Price (VWAP) execution that addresses two key practical challenges: the need for asset-specific model training and the capture of complex temporal dependencies. Building upon my recent work in dynamic VWAP execution arXiv:2502.18177, I demonstrate that a single neural network trained across multiple assets can achieve performance comparable to or better than traditional asset-specific models. The proposed architecture combines a transformer-based design inspired by arXiv:2406.02486 with path signatures for capturing geometric features of price-volume trajectories, as in arXiv:2406.17890. The empirical analysis, conducted on hourly cryptocurrency trading data from 80 trading pairs, shows that the globally-fitted model with signature features (GFT-Sig) achieves superior performance in both absolute and quadratic VWAP loss metrics compared to asset-specific approaches. Notably, these improvements persist for out-of-sample assets, demonstrating the model's ability to generalize across different market conditions. The results suggest that combining global parameter sharing with signature-based feature extraction provides a scalable and robust approach to VWAP execution, offering significant practical advantages over traditional asset-specific implementations.
- Abstract(参考訳): 本稿では,資産固有のモデルトレーニングの必要性と複雑な時間的依存関係の捕捉という,2つの重要な課題に対処する,VWAP(Volume Weighted Average Price)実行に対する新しいアプローチを提案する。
動的VWAP実行 arXiv:2502.18177の最近の研究に基づいて、複数のアセットにまたがってトレーニングされた1つのニューラルネットワークが、従来のアセット固有のモデルに匹敵するパフォーマンスを達成できることを実演します。
提案アーキテクチャは、arXiv:2406.02486にインスパイアされたトランスフォーマーベースの設計と、arXiv:2406.17890のように、価格体積軌跡の幾何学的特徴を捉えるパスシグネチャを組み合わせたものである。
80の取引ペアから時間単位の暗号通貨取引データを用いて行われた実証分析により、GFT-Sigは、資産固有のアプローチと比較して絶対的かつ二次的なVWAP損失指標において優れた性能を発揮することが示された。
特に、これらの改善はサンプル外資産に留まり、異なる市場条件にまたがってモデルを一般化する能力を示している。
その結果、グローバルパラメータ共有とシグネチャベースの特徴抽出を組み合わせることで、VWAP実行に対するスケーラブルで堅牢なアプローチが実現し、従来のアセット固有の実装よりも実用的なメリットが期待できることが示唆された。
関連論文リスト
- VICON: A Foundation Model for Multi-Physics Fluid Dynamics via Vision In-Context Operator Networks [21.061630022134203]
In-Context Operator Networks (ICON) は、数ショットのインコンテキストアプローチを使用して、異なるタイプのPDEをまたいだ演算子を学習する。
我々は,パッチワイズ操作により2次元関数を効率的に処理するビジョントランスフォーマーアーキテクチャを組み込んだITS(Vision In-Context Operator Networks)を提案する。
論文 参考訳(メタデータ) (2024-11-25T03:25:17Z) - Layer-wise Model Merging for Unsupervised Domain Adaptation in Segmentation Tasks [3.776249047528669]
フリーでトレーニングされたモデルの豊富さを活用して、モデルマージにコストフリーのアプローチを導入します。
初期レイヤを統一しながら、タスク固有の最終レイヤの特異性を維持することを目的としている。
このアプローチは、パフォーマンスを高めるために不可欠な、すべてのレイヤにおけるパラメータの一貫性を保証する。
論文 参考訳(メタデータ) (2024-09-24T07:19:30Z) - When Parameter-efficient Tuning Meets General-purpose Vision-language
Models [65.19127815275307]
PETALは、一意のモード近似技術によって達成される全パラメータの0.5%しか必要とせず、トレーニングプロセスに革命をもたらす。
実験の結果,PETALは現状の手法をほとんどのシナリオで上回るだけでなく,完全な微調整モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-12-16T17:13:08Z) - Improving Sample Efficiency of Model-Free Algorithms for Zero-Sum Markov Games [66.2085181793014]
モデルフリーのステージベースQ-ラーニングアルゴリズムはモデルベースアルゴリズムと同じ$H$依存の最適性を享受できることを示す。
本アルゴリズムは,楽観的値関数と悲観的値関数のペアとして参照値関数を更新するキーとなる新しい設計を特徴とする。
論文 参考訳(メタデータ) (2023-08-17T08:34:58Z) - Entity-Graph Enhanced Cross-Modal Pretraining for Instance-level Product
Retrieval [152.3504607706575]
本研究の目的は, 細粒度製品カテゴリを対象とした, 弱制御型マルチモーダル・インスタンスレベルの製品検索である。
まず、Product1Mデータセットをコントリビュートし、2つの実際のインスタンスレベルの検索タスクを定義します。
我々は、マルチモーダルデータから重要な概念情報を組み込むことができるより効果的なクロスモーダルモデルを訓練するために活用する。
論文 参考訳(メタデータ) (2022-06-17T15:40:45Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - Learning Multiple Stock Trading Patterns with Temporal Routing Adaptor
and Optimal Transport [8.617532047238461]
本稿では,複数の株取引パターンをモデル化し,既存の株価予測モデルを強化するための新しいアーキテクチャであるTemporal Adaptor(TRA)を提案する。
TRAは、複数のパターンを学習するための独立した予測器と、異なる予測器にサンプルをディスパッチするルータで構成される軽量モジュールである。
提案手法は,情報係数を0.053から0.059へ,情報係数を0.051から0.056に改善できることを示す。
論文 参考訳(メタデータ) (2021-06-24T12:19:45Z) - MoTiAC: Multi-Objective Actor-Critics for Real-Time Bidding [47.555870679348416]
そこで本研究では,MoTiACというマルチエクティブ・アクタ・クリティカルスアルゴリズムを提案する。
従来のRLモデルとは異なり、提案されたMoTiACは複雑な入札環境で同時に多目的タスクを達成できる。
論文 参考訳(メタデータ) (2020-02-18T07:16:39Z) - LAVA NAT: A Non-Autoregressive Translation Model with Look-Around
Decoding and Vocabulary Attention [54.18121922040521]
非自己回帰翻訳(NAT)モデルは、1つの前方通過で複数のトークンを生成する。
これらのNATモデルは、しばしば多重性の問題に悩まされ、重複トークンや欠落トークンを生成する。
本稿では,この問題を解決するための新しい方法として,Look-Around(LA)戦略とVocabulary Attention(VA)メカニズムを提案する。
論文 参考訳(メタデータ) (2020-02-08T04:11:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。