論文の概要: Deep Reinforcement Learning with Function Properties in Mean Reversion
Strategies
- arxiv url: http://arxiv.org/abs/2101.03418v2
- Date: Tue, 12 Jan 2021 03:09:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 07:19:56.144266
- Title: Deep Reinforcement Learning with Function Properties in Mean Reversion
Strategies
- Title(参考訳): 平均回帰戦略における関数特性を持つ深層強化学習
- Authors: Sophia Gu
- Abstract要約: 我々は,OpenAIによって開発された既製のライブラリが,逆転戦略に容易に適応できるかどうかを考察する。
エージェントが検索する必要がある関数空間を狭めることで、より良いパフォーマンスが得られるかどうかを設計し、テストします。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the recent advancement in Deep Reinforcement Learning in the gaming
industry, we are curious if the same technology would work as well for common
quantitative financial problems. In this paper, we will investigate if an
off-the-shelf library developed by OpenAI can be easily adapted to mean
reversion strategy. Moreover, we will design and test to see if we can get
better performance by narrowing the function space that the agent needs to
search for. We achieve this through augmenting the reward function by a
carefully picked penalty term.
- Abstract(参考訳): ゲーム産業におけるDeep Reinforcement Learningの最近の進歩により、我々は、同じ技術が一般的な量的財政問題にも有効かどうか疑問視している。
本稿では,OpenAIによって開発された既製のライブラリが,逆転戦略に容易に適応できるかどうかを考察する。
さらに、エージェントが検索する必要のある関数空間を狭めることで、よりよいパフォーマンスが得られるかどうかを確認し、テストします。
報酬関数を慎重に選択したペナルティ項によって増強することで、これを実現する。
関連論文リスト
- Replication of Multi-agent Reinforcement Learning for the "Hide and
Seek" Problem [0.552480439325792]
ドキュメントの欠如により、一度生成した戦略の複製が困難になる。
本研究のエージェントは、飛行機構に加えて、オープンアルの隠蔽剤や探索剤と同様にシミュレーションされる。
この追加機能により、Hiderエージェントは、約200万ステップから1.6万ステップとシーカーまで追跡戦略を開発することができる。
論文 参考訳(メタデータ) (2023-10-09T06:06:34Z) - Offline Reinforcement Learning with Differentiable Function
Approximation is Provably Efficient [65.08966446962845]
歴史的データを用いて意思決定戦略を最適化することを目的としたオフライン強化学習は、現実の応用に広く適用されている。
微分関数クラス近似(DFA)を用いたオフライン強化学習の検討から一歩踏み出した。
最も重要なことは、悲観的な適合Q-ラーニングアルゴリズムを解析することにより、オフライン微分関数近似が有効であることを示すことである。
論文 参考訳(メタデータ) (2022-10-03T07:59:42Z) - Exploring More When It Needs in Deep Reinforcement Learning [3.442899929543427]
エージェントが必要とするときの騒音付加(AN2N)を探求する深層強化学習における政策のメカニズムを提案する。
エージェントが正常に動作していない過去の状態を評価するために累積報酬を使用し、コサイン距離を用いて現在の状態をさらに調査する必要があるかどうかを測定する。
半チェタ、ホッパー、スイマーなどの連続制御タスクに適用し、性能と収束速度を大幅に向上させる。
論文 参考訳(メタデータ) (2021-09-28T04:29:38Z) - MURAL: Meta-Learning Uncertainty-Aware Rewards for Outcome-Driven
Reinforcement Learning [65.52675802289775]
本研究では,不確かさを意識した分類器が,強化学習の難しさを解消できることを示す。
正規化最大度(NML)分布の計算法を提案する。
得られたアルゴリズムは、カウントベースの探索法と、報酬関数を学習するための先行アルゴリズムの両方に多くの興味深い関係を持つことを示す。
論文 参考訳(メタデータ) (2021-07-15T08:19:57Z) - Simplifying Deep Reinforcement Learning via Self-Supervision [51.2400839966489]
自己改善強化学習(Self-Supervised Reinforcement Learning, SSRL)は、純粋に監督された損失を伴うポリシーを最適化する単純なアルゴリズムである。
SSRLは、より安定した性能と実行時間の少ない現代アルゴリズムと驚くほど競合することを示す。
論文 参考訳(メタデータ) (2021-06-10T06:29:59Z) - Curious Exploration and Return-based Memory Restoration for Deep
Reinforcement Learning [2.3226893628361682]
本稿では,バイナリ成功/障害報酬関数を用いて,単一エージェントの目標達成のためのトレーニングに焦点をあてる。
提案手法は,かなり複雑な状態と動作空間を有する環境でエージェントを訓練するために利用できる。
論文 参考訳(メタデータ) (2021-05-02T16:01:34Z) - Reannealing of Decaying Exploration Based On Heuristic Measure in Deep
Q-Network [82.20059754270302]
本稿では,再熱処理の概念に基づくアルゴリズムを提案し,必要なときにのみ探索を促進することを目的とする。
我々は、訓練を加速し、より良い政策を得る可能性を示す実証的なケーススタディを実施している。
論文 参考訳(メタデータ) (2020-09-29T20:40:00Z) - Provably Efficient Reward-Agnostic Navigation with Linear Value
Iteration [143.43658264904863]
我々は、最小二乗値スタイルのアルゴリズムで一般的に使用される、より標準的なベルマン誤差の概念の下での反復が、ほぼ最適値関数の学習において強力なPAC保証を提供することを示す。
そこで本稿では,任意の(線形な)報酬関数に対して,最適に近いポリシーを学習するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2020-08-18T04:34:21Z) - Discovering Reinforcement Learning Algorithms [53.72358280495428]
強化学習アルゴリズムは、いくつかのルールの1つに従ってエージェントのパラメータを更新する。
本稿では,更新ルール全体を検出するメタラーニング手法を提案する。
これには、一連の環境と対話することで、"何を予測するか"(例えば、値関数)と"どのように学習するか"の両方が含まれている。
論文 参考訳(メタデータ) (2020-07-17T07:38:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。