論文の概要: Optimal Execution Using Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2306.17178v1
- Date: Mon, 19 Jun 2023 07:09:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-09 14:08:25.225296
- Title: Optimal Execution Using Reinforcement Learning
- Title(参考訳): 強化学習を用いた最適実行
- Authors: Cong Zheng and Jiafa He and Can Yang
- Abstract要約: この作業は最適な順序実行に関するもので、大規模な順序をいくつかの小さな順序に分割して実装不足を最大化する。
暗号通貨取引所の多様性に基づいて、複数の取引所からのデータを初めて整列させて、相互交換信号の抽出を試みる。
- 参考スコア(独自算出の注目度): 6.905391624417593
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work is about optimal order execution, where a large order is split into
several small orders to maximize the implementation shortfall. Based on the
diversity of cryptocurrency exchanges, we attempt to extract cross-exchange
signals by aligning data from multiple exchanges for the first time. Unlike
most previous studies that focused on using single-exchange information, we
discuss the impact of cross-exchange signals on the agent's decision-making in
the optimal execution problem. Experimental results show that cross-exchange
signals can provide additional information for the optimal execution of
cryptocurrency to facilitate the optimal execution process.
- Abstract(参考訳): この作業は最適な順序実行に関するもので、大規模な順序をいくつかの小さな順序に分割して実装不足を最大化する。
暗号通貨取引所の多様性に基づき、複数の取引所からデータを初めて整列することにより、相互交換信号を抽出する。
単一交換情報の利用に焦点を当てた従来の研究とは異なり、最適な実行問題におけるエージェントの意思決定に対するクロス交換信号の影響について論じる。
実験結果から, 相互交換信号は, 暗号通貨の最適実行のための追加情報を提供し, 最適実行プロセスを容易にすることがわかった。
関連論文リスト
- Data-Efficient Interactive Multi-Objective Optimization Using ParEGO [6.042269506496206]
多目的最適化は、競合する目的間の最適なトレードオフを提供する非支配的なソリューションの集合を特定することを目的としている。
実践的な応用では、意思決定者(DM)は実装すべき好みに合わせて単一のソリューションを選択する。
そこで本稿では,パレートフロントの最も好まれる領域を,高コストで評価できる2つの新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-12T15:55:51Z) - Analyzing and Enhancing the Backward-Pass Convergence of Unrolled
Optimization [50.38518771642365]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
この設定における中心的な課題は最適化問題の解によるバックプロパゲーションであり、しばしば閉形式を欠いている。
本稿では, 非線形最適化の後方通過に関する理論的知見を提供し, 特定の反復法による線形システムの解と等価であることを示す。
Folded Optimizationと呼ばれるシステムが提案され、非ローリングなソルバ実装からより効率的なバックプロパゲーションルールを構築する。
論文 参考訳(メタデータ) (2023-12-28T23:15:18Z) - Efficient Bayesian Optimization with Deep Kernel Learning and
Transformer Pre-trained on Multiple Heterogeneous Datasets [9.510327380529892]
本稿では,トランスフォーマーベースのエンコーダから学習した深い特徴に基づいてカーネルが定義されたガウス過程(GP)であるサロゲートを事前訓練する簡単な手法を提案する。
総合的および実ベンチマーク問題に対する実験は,提案した事前学習および転送BO戦略の有効性を実証するものである。
論文 参考訳(メタデータ) (2023-08-09T01:56:10Z) - Learning Multi-Agent Intention-Aware Communication for Optimal
Multi-Order Execution in Finance [96.73189436721465]
まず,現実的な制約を考慮したマルチオーダー実行のためのマルチエージェントRL(MARL)手法を提案する。
本稿では,学習可能なマルチラウンド通信プロトコルを提案する。
2つの実世界の市場のデータに関する実験では、優れたパフォーマンスを示し、コラボレーションの有効性が著しく向上した。
論文 参考訳(メタデータ) (2023-07-06T16:45:40Z) - Learning Proximal Operators to Discover Multiple Optima [66.98045013486794]
非家族問題における近位演算子を学習するためのエンドツーエンド手法を提案する。
本手法は,弱い目的と穏やかな条件下では,世界規模で収束することを示す。
論文 参考訳(メタデータ) (2022-01-28T05:53:28Z) - Universal Trading for Order Execution with Oracle Policy Distillation [99.57416828489568]
本稿では,不完全な市場状態と注文実行のための最適な行動シーケンスとのギャップを埋める,新たなユニバーサル取引ポリシー最適化フレームワークを提案する。
本研究の枠組みは,完全情報を持つ託宣教師による実践的最適実行に向けて,共通政策の学習を指導する上で有効であることを示す。
論文 参考訳(メタデータ) (2021-01-28T05:52:18Z) - ESAD: End-to-end Deep Semi-supervised Anomaly Detection [85.81138474858197]
正規データと異常データの間のKL偏差を計測する新たな目的関数を提案する。
提案手法は,複数のベンチマークデータセットの最先端性能を著しく上回っている。
論文 参考訳(メタデータ) (2020-12-09T08:16:35Z) - Adaptive Learning of the Optimal Batch Size of SGD [52.50880550357175]
本稿では,その繰り返しを通じて最適なバッチサイズを適応的に学習し,凸度と滑らかな関数を求める手法を提案する。
実験では、合成データと実データを用いて、ほぼ最適な振る舞いを示す。
我々は,本手法を分散実装に適したサンプリングを含む,文献上考慮されていないいくつかの新しいバッチ戦略に一般化する。
論文 参考訳(メタデータ) (2020-05-03T14:28:32Z) - Extrapolation-based Prediction-Correction Methods for Time-varying
Convex Optimization [5.768816587293478]
本稿では,予測補正パラダイムに基づくオンライン最適化のアルゴリズムについて論じる。
本稿では,外挿に基づく新しい予測手法を提案する。
本稿では,信号処理や機械学習,ロボット工学といった問題に適用したアルゴリズムの経験的性能について論じる。
論文 参考訳(メタデータ) (2020-04-24T12:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。