論文の概要: Reinforcement Learning Applied to Trading Systems: A Survey
- arxiv url: http://arxiv.org/abs/2212.06064v1
- Date: Tue, 1 Nov 2022 21:26:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-20 19:19:37.103536
- Title: Reinforcement Learning Applied to Trading Systems: A Survey
- Title(参考訳): トレーディングシステムに応用した強化学習:調査
- Authors: Leonardo Kanashiro Felizardo, Francisco Caio Lima Paiva, Anna Helena
Reali Costa, Emilio Del-Moral-Hernandez
- Abstract要約: 近年の成果と強化学習の有名さは、取引業務における採用率を高めている。
このレビューは、研究者の標準遵守へのコミットメントによって、この研究分野の発展を促進する試みである。
- 参考スコア(独自算出の注目度): 5.118560450410779
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Financial domain tasks, such as trading in market exchanges, are challenging
and have long attracted researchers. The recent achievements and the consequent
notoriety of Reinforcement Learning (RL) have also increased its adoption in
trading tasks. RL uses a framework with well-established formal concepts, which
raises its attractiveness in learning profitable trading strategies. However,
RL use without due attention in the financial area can prevent new researchers
from following standards or failing to adopt relevant conceptual guidelines. In
this work, we embrace the seminal RL technical fundamentals, concepts, and
recommendations to perform a unified, theoretically-grounded examination and
comparison of previous research that could serve as a structuring guide for the
field of study. A selection of twenty-nine articles was reviewed under our
classification that considers RL's most common formulations and design patterns
from a large volume of available studies. This classification allowed for
precise inspection of the most relevant aspects regarding data input,
preprocessing, state and action composition, adopted RL techniques, evaluation
setups, and overall results. Our analysis approach organized around fundamental
RL concepts allowed for a clear identification of current system design best
practices, gaps that require further investigation, and promising research
opportunities. Finally, this review attempts to promote the development of this
field of study by facilitating researchers' commitment to standards adherence
and helping them to avoid straying away from the RL constructs' firm ground.
- Abstract(参考訳): 市場取引所での取引のような金融分野の業務は困難であり、長い間研究者を惹きつけてきた。
近年の業績と強化学習(rl)の良さもトレーディングタスクへの採用を増加させている。
RLは確立された形式的な概念を持つフレームワークを使用しており、収益性のあるトレーディング戦略を学習する際の魅力を高めている。
しかし、金融分野での注意を払わずにRLを使用することは、新しい研究者が基準に従うことや、関連する概念ガイドラインを採用できないことを防げる。
本研究では,研究分野の構造化ガイドとして機能する以前の研究の統一的,理論的に基礎的な検討と比較を行うための,基礎的RLの技術的基礎,概念,レコメンデーションを取り入れた。
rlの最も一般的な定式化とデザインパターンを、利用可能な多数の研究から考慮した分類において、29の論文の選定について検討した。
この分類により、データ入力、前処理、状態とアクションの構成、rl技術の採用、評価設定、全体的な結果など、最も関連する側面の正確な検査が可能となった。
私たちの分析アプローチは、現在のシステム設計のベストプラクティス、さらなる調査を必要とするギャップ、有望な研究機会を明確に識別できる基本的なrl概念を中心に構成されています。
最後に、本研究は、研究者の標準遵守へのコミットメントを促進し、RL構造体から遠ざかることを避けることによって、この分野の発展を促進する試みである。
関連論文リスト
- A Comprehensive Survey of Datasets, Theories, Variants, and Applications in Direct Preference Optimization [52.42860559005861]
DPO(Direct Preference Optimization)は、アライメントのための有望なアプローチとして登場した。
DPOの様々な進歩と固有の制限にもかかわらず、これらの側面の詳細なレビューは現在、文献に欠けている。
論文 参考訳(メタデータ) (2024-10-21T02:27:24Z) - Advances in Preference-based Reinforcement Learning: A Review [1.474723404975345]
嗜好に基づく強化学習(PbRL)は、人間の嗜好を数値的な報酬ではなく専門家からのフィードバックとして利用する。
我々はPbRLのスケーラビリティと効率を向上させる新しいアプローチを含む統一されたPbRLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-21T18:57:12Z) - Survey on Large Language Model-Enhanced Reinforcement Learning: Concept, Taxonomy, and Methods [18.771658054884693]
大規模言語モデル(LLM)は、マルチタスク学習、サンプル効率、高レベルのタスク計画といった側面において強化学習(RL)を強化するための有望な道として出現する。
本稿では,情報処理装置,報酬設計装置,意思決定装置,ジェネレータの4つの役割を含む,RLにおけるLLMの機能を体系的に分類する構造的分類法を提案する。
論文 参考訳(メタデータ) (2024-03-30T08:28:08Z) - Reinforcement Learning-assisted Evolutionary Algorithm: A Survey and
Research Opportunities [63.258517066104446]
進化的アルゴリズムの構成要素として統合された強化学習は,近年,優れた性能を示している。
本稿では,RL-EA 統合手法,RL-EA が採用する RL-EA 支援戦略,および既存文献による適用について論じる。
RL-EAセクションの適用例では、RL-EAのいくつかのベンチマークおよび様々な公開データセットにおける優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-25T15:06:05Z) - Provable Reward-Agnostic Preference-Based Reinforcement Learning [61.39541986848391]
PbRL(Preference-based Reinforcement Learning)は、RLエージェントが、軌道上のペアワイドな嗜好に基づくフィードバックを用いてタスクを最適化することを学ぶパラダイムである。
本稿では,隠れた報酬関数の正確な学習を可能にする探索軌道を求める理論的報酬非依存PbRLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T15:00:09Z) - Evolutionary Reinforcement Learning: A Survey [31.112066295496003]
強化学習(Reinforcement Learning、RL)は、エージェントが環境とのインタラクションを通じて累積報酬を最大化するように訓練する機械学習アプローチである。
本稿では、進化強化学習(EvoRL)と呼ばれる、ECをRLに統合するための最先端手法に関する総合的な調査を紹介する。
論文 参考訳(メタデータ) (2023-03-07T01:38:42Z) - Ensemble Reinforcement Learning: A Survey [43.17635633600716]
強化学習(Reinforcement Learning, RL)は, 様々な科学的, 応用的な問題に対処するための, 極めて効果的な手法として登場した。
これに対し, アンサンブル強化学習(ERL)は, RLとアンサンブル学習(EL)の両方の利点を組み合わせた有望なアプローチであり, 広く普及している。
ERLは複数のモデルやトレーニングアルゴリズムを活用して、問題空間を包括的に探索し、強力な一般化能力を持つ。
論文 参考訳(メタデータ) (2023-03-05T09:26:44Z) - A Survey of Meta-Reinforcement Learning [69.76165430793571]
我々は,メタRLと呼ばれるプロセスにおいて,機械学習問題自体として,より優れたRLアルゴリズムを開発した。
本稿では,タスク分布の存在と各タスクに利用可能な学習予算に基づいて,高レベルでメタRL研究をクラスタ化する方法について議論する。
RL実践者のための標準ツールボックスにメタRLを組み込むことの道程について,オープンな問題を提示することによって,結論を下す。
論文 参考訳(メタデータ) (2023-01-19T12:01:41Z) - A Comprehensive Survey of Data Augmentation in Visual Reinforcement Learning [53.35317176453194]
データ拡張(DA)は、サンプル効率と一般化可能なポリシーを取得するために視覚的RLで広く使われている技術である。
本稿では、視覚的RLで使用されている既存の拡張技法の原則的な分類法を提案し、拡張データをどのように活用するかを詳細に議論する。
視覚的RLにおけるDAに関する最初の総合的な調査として、この研究は、この新興分野に貴重なガイダンスを提供するものと期待されている。
論文 参考訳(メタデータ) (2022-10-10T11:01:57Z) - Survey on Fair Reinforcement Learning: Theory and Practice [9.783469272270896]
本稿では、強化学習(RL)フレームワークを用いて実装されたフェアネスアプローチについて概観する。
本稿では,RL法を適用した様々な実用的応用について論じる。
フェアRLの分野を前進させるために検討すべき主要な課題をいくつか取り上げる。
論文 参考訳(メタデータ) (2022-05-20T09:07:28Z) - Variational Empowerment as Representation Learning for Goal-Based
Reinforcement Learning [114.07623388322048]
本稿では,標準目標条件付きRL (GCRL) を目的変動エンパワーメントによってカプセル化する方法について論じる。
我々の研究は、ゴールベースRLで表現学習技術を評価し、分析し、開発する新しい基礎を築いた。
論文 参考訳(メタデータ) (2021-06-02T18:12:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。