論文の概要: Multi-Objective reward generalization: Improving performance of Deep
Reinforcement Learning for selected applications in stock and cryptocurrency
trading
- arxiv url: http://arxiv.org/abs/2203.04579v1
- Date: Wed, 9 Mar 2022 08:49:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-10 16:58:07.152428
- Title: Multi-Objective reward generalization: Improving performance of Deep
Reinforcement Learning for selected applications in stock and cryptocurrency
trading
- Title(参考訳): 多目的報酬一般化:ストックおよび暗号取引における選択アプリケーションのためのディープ強化学習の性能向上
- Authors: Federico Cornalba, Constantin Disselkamp, Davide Scassola, Christopher
Helf
- Abstract要約: 株式および暗号通貨取引における多目的深層強化学習の可能性について検討する。
我々は、Fontaine と Friedman arXiv:1809.06364 を一般化した設定の上に構築する。
報奨機構が疎い場合,多目的アルゴリズムはそれに対応する単一目的戦略よりも明確なエッジを持つことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate the potential of Multi-Objective, Deep Reinforcement Learning
for stock and cryptocurrency trading. More specifically, we build on the
generalized setting \`a la Fontaine and Friedman arXiv:1809.06364 (where the
reward weighting mechanism is not specified a priori, but embedded in the
learning process) by complementing it with computational speed-ups, and adding
the cumulative reward's discount factor to the learning process. Firstly, we
verify that the resulting Multi-Objective algorithm generalizes well, and we
provide preliminary statistical evidence showing that its prediction is more
stable than the corresponding Single-Objective strategy's. Secondly, we show
that the Multi-Objective algorithm has a clear edge over the corresponding
Single-Objective strategy when the reward mechanism is sparse (i.e., when
non-null feedback is infrequent over time). Finally, we discuss the
generalization properties of the discount factor. The entirety of our code is
provided in open source format.
- Abstract(参考訳): 株式および暗号通貨取引における多目的深層強化学習の可能性を検討する。
より具体的には、計算速度アップを補完し、累積報酬のディスカウント係数を学習プロセスに追加することにより、一般化された設定 \`a la fontaine と friedman arxiv:1809.06364(報酬重み付け機構は前もって指定されず、学習プロセスに組み込まれている)の上に構築する。
まず,得られた多目的アルゴリズムの一般化を検証し,その予測が対応する単目的戦略よりも安定であることを示す予備的な統計的証拠を提供する。
第2に,報奨機構が不十分な場合(非nullフィードバックが時間とともに頻繁に発生する場合)に,Multi-Objectiveアルゴリズムが対応するSingle-Objective戦略に対して明確なエッジを持つことを示す。
最後に,ディスカウント係数の一般化特性について考察する。
コード全体はオープンソースフォーマットで提供されています。
関連論文リスト
- Achieving More with Less: A Tensor-Optimization-Powered Ensemble Method [53.170053108447455]
アンサンブル学習(英: Ensemble learning)は、弱い学習者を利用して強力な学習者を生み出す方法である。
我々は、マージンの概念を活かした滑らかで凸な目的関数を設計し、強力な学習者がより差別的になるようにした。
そして、我々のアルゴリズムを、多数のデータセットの10倍の大きさのランダムな森林や他の古典的な手法と比較する。
論文 参考訳(メタデータ) (2024-08-06T03:42:38Z) - Dense Reward for Free in Reinforcement Learning from Human Feedback [64.92448888346125]
我々は報酬モデルが単にスカラー出力よりも多くの情報を含んでいるという事実を活用している。
私たちは、これらの注意重みを使って、完了全体に沿って報酬を再分配します。
経験的に、トレーニングを安定化し、学習速度を加速し、実際は、より良い局所最適性をもたらす可能性があることを示す。
論文 参考訳(メタデータ) (2024-02-01T17:10:35Z) - Theoretical Guarantees of Learning Ensembling Strategies with
Applications to Time Series Forecasting [14.037314994161378]
クロスバリデード性能に基づく(有限あるいは有限次元の)積み重ね一般化の族から最高の積み重ね一般化を選択すると、オラクルの最高値よりも「はるかに悪い」結果が得られないことを示す。
理論的解析から着想を得て,確率的予測の文脈において,階層化された一般化の特定のファミリーを提案する。
論文 参考訳(メタデータ) (2023-05-25T07:01:02Z) - Generalization Analysis for Contrastive Representation Learning [80.89690821916653]
既存の一般化誤差境界は負の例の数$k$に線形に依存する。
対数項まで$k$に依存しないコントラスト学習のための新しい一般化境界を確立する。
論文 参考訳(メタデータ) (2023-02-24T01:03:56Z) - Generalization In Multi-Objective Machine Learning [27.806085423595334]
マルチオブジェクト学習は、早期のトレードオフにコミットすることなく、このような問題に対処するための自然なフレームワークを提供する。
統計的学習理論は、これまでのところ、多目的学習の一般化特性についてはほとんど洞察を提供していない。
論文 参考訳(メタデータ) (2022-08-29T11:06:39Z) - Provably Efficient Algorithms for Multi-Objective Competitive RL [54.22598924633369]
エージェントの報酬がベクトルとして表現される多目的強化学習(RL)について検討する。
エージェントが相手と競合する設定では、その平均戻りベクトルから目標セットまでの距離によってその性能を測定する。
統計的および計算学的に効率的なアルゴリズムを開発し、関連するターゲットセットにアプローチする。
論文 参考訳(メタデータ) (2021-02-05T14:26:00Z) - Provable Multi-Objective Reinforcement Learning with Generative Models [98.19879408649848]
目的の選好から最適な政策を学習する単一政策 MORL の問題について検討する。
既存の方法は、多目的決定プロセスの正確な知識のような強い仮定を必要とする。
モデルベースエンベロップ値 (EVI) と呼ばれる新しいアルゴリズムを提案し, 包含された多目的$Q$学習アルゴリズムを一般化する。
論文 参考訳(メタデータ) (2020-11-19T22:35:31Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。