論文の概要: VWAP Execution with Signature-Enhanced Transformers: A Multi-Asset Learning Approach
- arxiv url: http://arxiv.org/abs/2503.02680v1
- Date: Tue, 04 Mar 2025 14:50:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 18:50:39.614447
- Title: VWAP Execution with Signature-Enhanced Transformers: A Multi-Asset Learning Approach
- Title(参考訳): 符号強化変換器を用いたVWAP実行:マルチアセット学習アプローチ
- Authors: Remi Genet,
- Abstract要約: 本稿では,VWAP(Volume Weighted Average Price)の実行に対する新しいアプローチを提案する。
私は、複数のアセットにまたがってトレーニングされた1つのニューラルネットワークが、従来のアセット固有のモデルに匹敵するパフォーマンスを達成できることを実証します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper I propose a novel approach to Volume Weighted Average Price (VWAP) execution that addresses two key practical challenges: the need for asset-specific model training and the capture of complex temporal dependencies. Building upon my recent work in dynamic VWAP execution arXiv:2502.18177, I demonstrate that a single neural network trained across multiple assets can achieve performance comparable to or better than traditional asset-specific models. The proposed architecture combines a transformer-based design inspired by arXiv:2406.02486 with path signatures for capturing geometric features of price-volume trajectories, as in arXiv:2406.17890. The empirical analysis, conducted on hourly cryptocurrency trading data from 80 trading pairs, shows that the globally-fitted model with signature features (GFT-Sig) achieves superior performance in both absolute and quadratic VWAP loss metrics compared to asset-specific approaches. Notably, these improvements persist for out-of-sample assets, demonstrating the model's ability to generalize across different market conditions. The results suggest that combining global parameter sharing with signature-based feature extraction provides a scalable and robust approach to VWAP execution, offering significant practical advantages over traditional asset-specific implementations.
- Abstract(参考訳): 本稿では,資産固有のモデルトレーニングの必要性と複雑な時間的依存関係の捕捉という,2つの重要な課題に対処する,VWAP(Volume Weighted Average Price)実行に対する新しいアプローチを提案する。
動的VWAP実行 arXiv:2502.18177の最近の研究に基づいて、複数のアセットにまたがってトレーニングされた1つのニューラルネットワークが、従来のアセット固有のモデルに匹敵するパフォーマンスを達成できることを実演します。
提案アーキテクチャは、arXiv:2406.02486にインスパイアされたトランスフォーマーベースの設計と、arXiv:2406.17890のように、価格体積軌跡の幾何学的特徴を捉えるパスシグネチャを組み合わせたものである。
80の取引ペアから時間単位の暗号通貨取引データを用いて行われた実証分析により、GFT-Sigは、資産固有のアプローチと比較して絶対的かつ二次的なVWAP損失指標において優れた性能を発揮することが示された。
特に、これらの改善はサンプル外資産に留まり、異なる市場条件にまたがってモデルを一般化する能力を示している。
その結果、グローバルパラメータ共有とシグネチャベースの特徴抽出を組み合わせることで、VWAP実行に対するスケーラブルで堅牢なアプローチが実現し、従来のアセット固有の実装よりも実用的なメリットが期待できることが示唆された。
関連論文リスト
- Review, Refine, Repeat: Understanding Iterative Decoding of AI Agents with Dynamic Evaluation and Selection [71.92083784393418]
Best-of-N (BON) サンプリングのような推論時間法は、パフォーマンスを改善するための単純で効果的な代替手段を提供する。
本稿では,反復的改良と動的候補評価,検証器による選択を併用した反復的エージェント復号(IAD)を提案する。
論文 参考訳(メタデータ) (2025-04-02T17:40:47Z) - EfficientLLaVA:Generalizable Auto-Pruning for Large Vision-language Models [64.18350535770357]
マルチモーダル推論の効率を高めるために,大規模視覚言語モデルの自動プルーニング手法を提案する。
提案手法では,所望のプルーニングポリシーを探索するために,少数のサンプルのみを活用する。
視覚的質問応答のためのScienceQA, Vizwiz, MM-vet, LLaVA-Benchデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2025-03-19T16:07:04Z) - Multi-agent Auto-Bidding with Latent Graph Diffusion Models [10.186029242664931]
本稿では,グラフ表現を利用して大規模オークション環境をモデル化する拡散型自動入札フレームワークを提案する。
実世界のオークション環境と合成オークション環境の両方における実証的な評価は、複数の一般的な指標におけるオートバイディング性能の大幅な改善と、オークション結果の予測精度を示している。
論文 参考訳(メタデータ) (2025-03-04T02:07:24Z) - VICON: A Foundation Model for Multi-Physics Fluid Dynamics via Vision In-Context Operator Networks [21.061630022134203]
In-Context Operator Networks (ICON) は、数ショットのインコンテキストアプローチを使用して、異なるタイプのPDEをまたいだ演算子を学習する。
我々は,パッチワイズ操作により2次元関数を効率的に処理するビジョントランスフォーマーアーキテクチャを組み込んだITS(Vision In-Context Operator Networks)を提案する。
論文 参考訳(メタデータ) (2024-11-25T03:25:17Z) - Layer-wise Model Merging for Unsupervised Domain Adaptation in Segmentation Tasks [3.776249047528669]
フリーでトレーニングされたモデルの豊富さを活用して、モデルマージにコストフリーのアプローチを導入します。
初期レイヤを統一しながら、タスク固有の最終レイヤの特異性を維持することを目的としている。
このアプローチは、パフォーマンスを高めるために不可欠な、すべてのレイヤにおけるパラメータの一貫性を保証する。
論文 参考訳(メタデータ) (2024-09-24T07:19:30Z) - When Parameter-efficient Tuning Meets General-purpose Vision-language
Models [65.19127815275307]
PETALは、一意のモード近似技術によって達成される全パラメータの0.5%しか必要とせず、トレーニングプロセスに革命をもたらす。
実験の結果,PETALは現状の手法をほとんどのシナリオで上回るだけでなく,完全な微調整モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-12-16T17:13:08Z) - Single-Model and Any-Modality for Video Object Tracking [85.83753760853142]
任意のモダリティに対して単一のパラメータセットの統一トラッカーUn-Trackを導入する。
任意のモダリティを扱うために,低ランク因子化および再構成手法を用いて,それらの共通潜時空間を学習する。
我々のUn-Trackは、+6.6M(93M以上)のパラメータを持つ+2.14(21.50以上)のGFLOPを導入することで、DepthTrackデータセット上で、+8.1絶対Fスコアゲインを達成する。
論文 参考訳(メタデータ) (2023-11-27T14:17:41Z) - Global Neural Networks and The Data Scaling Effect in Financial Time Series Forecasting [5.299784478982814]
本研究では,データスカース環境下でのモデル推定の従来の手法が,先行研究で観測された混合経験的性能を損なう可能性を実証する。
我々は1万以上のグローバル株からなるデータセットを採用し、横断的に情報をプールするグローバルな評価戦略を実装している。
論文 参考訳(メタデータ) (2023-09-05T09:18:45Z) - Improving Sample Efficiency of Model-Free Algorithms for Zero-Sum Markov Games [66.2085181793014]
モデルフリーのステージベースQ-ラーニングアルゴリズムはモデルベースアルゴリズムと同じ$H$依存の最適性を享受できることを示す。
本アルゴリズムは,楽観的値関数と悲観的値関数のペアとして参照値関数を更新するキーとなる新しい設計を特徴とする。
論文 参考訳(メタデータ) (2023-08-17T08:34:58Z) - Entity-Graph Enhanced Cross-Modal Pretraining for Instance-level Product
Retrieval [152.3504607706575]
本研究の目的は, 細粒度製品カテゴリを対象とした, 弱制御型マルチモーダル・インスタンスレベルの製品検索である。
まず、Product1Mデータセットをコントリビュートし、2つの実際のインスタンスレベルの検索タスクを定義します。
我々は、マルチモーダルデータから重要な概念情報を組み込むことができるより効果的なクロスモーダルモデルを訓練するために活用する。
論文 参考訳(メタデータ) (2022-06-17T15:40:45Z) - MoTiAC: Multi-Objective Actor-Critics for Real-Time Bidding [47.555870679348416]
そこで本研究では,MoTiACというマルチエクティブ・アクタ・クリティカルスアルゴリズムを提案する。
従来のRLモデルとは異なり、提案されたMoTiACは複雑な入札環境で同時に多目的タスクを達成できる。
論文 参考訳(メタデータ) (2020-02-18T07:16:39Z) - LAVA NAT: A Non-Autoregressive Translation Model with Look-Around
Decoding and Vocabulary Attention [54.18121922040521]
非自己回帰翻訳(NAT)モデルは、1つの前方通過で複数のトークンを生成する。
これらのNATモデルは、しばしば多重性の問題に悩まされ、重複トークンや欠落トークンを生成する。
本稿では,この問題を解決するための新しい方法として,Look-Around(LA)戦略とVocabulary Attention(VA)メカニズムを提案する。
論文 参考訳(メタデータ) (2020-02-08T04:11:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。