論文の概要: Comprehensive Review of Deep Reinforcement Learning Methods and
Applications in Economics
- arxiv url: http://arxiv.org/abs/2004.01509v1
- Date: Sat, 21 Mar 2020 14:07:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 12:58:45.692186
- Title: Comprehensive Review of Deep Reinforcement Learning Methods and
Applications in Economics
- Title(参考訳): 経済における深層強化学習法と応用の総合的考察
- Authors: Amir Mosavi, Pedram Ghamisi, Yaser Faghan, Puhong Duan
- Abstract要約: DRLの特徴は、高次元問題に適用可能なスケーラビリティと、経済データのノイズおよび非線形パターンとを併用したスケーラビリティである。
DRLのアーキテクチャを経済応用に適用し,複雑性,堅牢性,精度,性能,計算タスク,リスク制約,収益性を明らかにする。
- 参考スコア(独自算出の注目度): 9.080472817672264
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The popularity of deep reinforcement learning (DRL) methods in economics have
been exponentially increased. DRL through a wide range of capabilities from
reinforcement learning (RL) and deep learning (DL) for handling sophisticated
dynamic business environments offers vast opportunities. DRL is characterized
by scalability with the potential to be applied to high-dimensional problems in
conjunction with noisy and nonlinear patterns of economic data. In this work,
we first consider a brief review of DL, RL, and deep RL methods in diverse
applications in economics providing an in-depth insight into the state of the
art. Furthermore, the architecture of DRL applied to economic applications is
investigated in order to highlight the complexity, robustness, accuracy,
performance, computational tasks, risk constraints, and profitability. The
survey results indicate that DRL can provide better performance and higher
accuracy as compared to the traditional algorithms while facing real economic
problems at the presence of risk parameters and the ever-increasing
uncertainties.
- Abstract(参考訳): 経済学における深層強化学習(DRL)手法の人気は指数関数的に高まっている。
高度な動的ビジネス環境を扱うための強化学習(RL)や深層学習(DL)まで幅広い能力を通して、DRLは大きな機会を提供します。
DRLの特徴は、高次元問題に適用可能なスケーラビリティと、経済データのノイズおよび非線形パターンとを併用したスケーラビリティである。
本稿ではまず, dl, rl, およびdeep rl法について, 経済学における多様な応用について概観し, 技術の現状について深く考察する。
さらに,drlのアーキテクチャを経済応用に適用し,複雑性,堅牢性,正確性,性能,計算タスク,リスク制約,収益性に注目した。
調査の結果,DRLはリスクパラメータの存在や不確実性が持続する中で,実際の経済問題に直面しつつ,従来のアルゴリズムと比較して優れた性能と精度を提供できることが示された。
関連論文リスト
- Enhancing Sample Efficiency and Exploration in Reinforcement Learning through the Integration of Diffusion Models and Proximal Policy Optimization [1.631115063641726]
オフラインデータセットのための高品質な仮想トラジェクトリを生成するために拡散モデルを導入し,PPOアルゴリズムを強化するフレームワークを提案する。
RLにおける拡散モデルの可能性、特にオフラインデータセットについて検討し、オンラインRLをオフライン環境に拡張し、拡散モデルによるPPOの性能改善を実験的に検証する。
論文 参考訳(メタデータ) (2024-09-02T19:10:32Z) - D5RL: Diverse Datasets for Data-Driven Deep Reinforcement Learning [99.33607114541861]
ロボット操作と移動環境の現実的なシミュレーションに焦点を当てたオフラインRLのための新しいベンチマークを提案する。
提案するベンチマークでは、状態ベースドメインと画像ベースドメインを対象とし、オフラインRLとオンライン微調整評価の両方をサポートしている。
論文 参考訳(メタデータ) (2024-08-15T22:27:00Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Leveraging Knowledge Distillation for Efficient Deep Reinforcement
Learning in Resource-Constrained Environments [0.0]
本稿では, 深層強化学習(DRL)と知識蒸留(KD)の併用の可能性を探る。
主な目的は、KD技術を用いて改良された異なるDRLアルゴリズムの性能を評価するためのベンチマークを提供することである。
DRLとKDの組み合わせを探求することで、この研究はGPUリソースの少ないモデルの開発を促進し、より早く学習し、複雑な環境でより高速な意思決定を行うことを目的としている。
論文 参考訳(メタデータ) (2023-10-16T08:26:45Z) - A Survey on Causal Reinforcement Learning [41.645270300009436]
本稿では、CRL(Causal Reinforcement Learning)の作業のレビュー、CRL手法のレビュー、RLへの因果性から潜在的な機能について検討する。
特に,既存のCRLアプローチを,因果関係に基づく情報が事前に与えられるか否かに応じて2つのカテゴリに分けた。
我々は、マルコフ決定プロセス(MDP)、部分観測マルコフ決定プロセス(POMDP)、マルチアーム帯域(MAB)、動的治療レジーム(DTR)など、様々なモデルの形式化の観点から、各カテゴリを解析する。
論文 参考訳(メタデータ) (2023-02-10T12:25:08Z) - Pessimistic Model Selection for Offline Deep Reinforcement Learning [56.282483586473816]
深層強化学習(DRL)は多くのアプリケーションにおいてシーケンシャルな意思決定問題を解決する大きな可能性を示している。
主要な障壁の1つは、DRLが学んだ政策の一般化性の低下につながる過度に適合する問題である。
理論的保証のあるオフラインDRLに対する悲観的モデル選択(PMS)手法を提案する。
論文 参考訳(メタデータ) (2021-11-29T06:29:49Z) - Dependability Analysis of Deep Reinforcement Learning based Robotics and
Autonomous Systems [10.499662874457998]
深層強化学習(DRL)のブラックボックスの性質と不確実な展開環境は、その信頼性に新たな課題をもたらす。
本稿では、時間論理における信頼性特性のセットを定義し、DRL駆動RASのリスク/障害のダイナミクスをモデル化するための離散時間マルコフ連鎖(DTMC)を構築する。
実験の結果,提案手法は総合評価の枠組みとして有効であり,また,トレーニングにおいてトレードオフを必要とする可能性のある特性の相違を明らかにする。
論文 参考訳(メタデータ) (2021-09-14T08:42:29Z) - Combining Pessimism with Optimism for Robust and Efficient Model-Based
Deep Reinforcement Learning [56.17667147101263]
実世界のタスクでは、強化学習エージェントはトレーニング中に存在しない状況に遭遇する。
信頼性を確保するため、RLエージェントは最悪の状況に対して堅牢性を示す必要がある。
本稿では,Robust Hallucinated Upper-Confidence RL (RH-UCRL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-18T16:50:17Z) - Offline Reinforcement Learning from Images with Latent Space Models [60.69745540036375]
オフライン強化学習(RL)とは、環境相互作用の静的データセットからポリシーを学習する問題を指します。
オフラインRLのためのモデルベースアルゴリズムの最近の進歩の上に構築し、それらを高次元の視覚観測空間に拡張する。
提案手法は, 実測可能であり, 未知のPOMDPにおけるELBOの下限の最大化に対応している。
論文 参考訳(メタデータ) (2020-12-21T18:28:17Z) - Critic Regularized Regression [70.8487887738354]
批判正規化回帰(CRR)形式を用いてデータからポリシーを学習するための新しいオフラインRLアルゴリズムを提案する。
CRRは驚くほどよく動作し、高次元の状態と行動空間を持つタスクにスケールする。
論文 参考訳(メタデータ) (2020-06-26T17:50:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。