論文の概要: Reinforcement Learning in Macroeconomic Policy Design: A New Frontier?
- arxiv url: http://arxiv.org/abs/2206.08781v1
- Date: Thu, 16 Jun 2022 10:35:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-21 09:35:40.046960
- Title: Reinforcement Learning in Macroeconomic Policy Design: A New Frontier?
- Title(参考訳): マクロ経済政策設計における強化学習 : 新しいフロンティア?
- Authors: Callum Tilbury
- Abstract要約: エージェントベースの計算マクロ経済学は、主流のポリシー設計ツールボックスに入るのに苦労している。
強化学習は近年,いくつかの指数的発展の中心にある。
現代のRL実装は、前例のないレベルの高度化を達成することができた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Agent-based computational macroeconomics is a field with a rich academic
history, yet one which has struggled to enter mainstream policy design
toolboxes, plagued by the challenges associated with representing a complex and
dynamic reality. The field of Reinforcement Learning (RL), too, has a rich
history, and has recently been at the centre of several exponential
developments. Modern RL implementations have been able to achieve unprecedented
levels of sophistication, handling previously-unthinkable degrees of
complexity. This review surveys the historical barriers of classical
agent-based techniques in macroeconomic modelling, and contemplates whether
recent developments in RL can overcome any of them.
- Abstract(参考訳): エージェントベースの計算マクロ経済学は、リッチな学術史を持つ分野であるが、複雑でダイナミックな現実を表現することに関わる課題に苦しめられた、主流の政策設計ツールボックスへの参入に苦慮している分野である。
強化学習(RL)の分野も豊富な歴史を持ち、近年はいくつかの指数的発展の中心となっている。
現代のrl実装は前例のないほど洗練され、これまで考えられなかったほど複雑になった。
本稿では、マクロ経済モデリングにおける古典的エージェントベース手法の歴史的障壁を調査し、RLの最近の発展がそれらを克服できるかどうかを検討する。
関連論文リスト
- A Survey of Meta-Reinforcement Learning [69.76165430793571]
我々は,メタRLと呼ばれるプロセスにおいて,機械学習問題自体として,より優れたRLアルゴリズムを開発した。
本稿では,タスク分布の存在と各タスクに利用可能な学習予算に基づいて,高レベルでメタRL研究をクラスタ化する方法について議論する。
RL実践者のための標準ツールボックスにメタRLを組み込むことの道程について,オープンな問題を提示することによって,結論を下す。
論文 参考訳(メタデータ) (2023-01-19T12:01:41Z) - Reinforcement Learning in Credit Scoring and Underwriting [7.356954349107956]
我々は、行動空間の更新と複数選択のアクションを取り入れて、クレジットスコアリングに強化学習原則を適用した。
より情報的な意思決定を可能にするために,新たに2つのRLベースのクレジットカード代入アルゴリズムを導入する。
論文 参考訳(メタデータ) (2022-12-15T06:36:14Z) - Hyperbolic Deep Reinforcement Learning [8.983647543608226]
双曲空間における潜在表現をモデル化する深層強化学習アルゴリズムを提案する。
Procgen と Atari 100K ベンチマークで一般的なオンライン RL アルゴリズムに適用することで,我々のフレームワークを実証的に検証する。
論文 参考訳(メタデータ) (2022-10-04T12:03:04Z) - Jump-Start Reinforcement Learning [68.82380421479675]
本稿では、オフラインデータやデモ、あるいは既存のポリシーを使ってRLポリシーを初期化するメタアルゴリズムを提案する。
特に,タスク解決に2つのポリシーを利用するアルゴリズムであるJump-Start Reinforcement Learning (JSRL)を提案する。
実験により、JSRLは既存の模倣と強化学習アルゴリズムを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-04-05T17:25:22Z) - FinRL-Meta: A Universe of Near-Real Market Environments for Data-Driven
Deep Reinforcement Learning in Quantitative Finance [58.77314662664463]
FinRL-Metaは、データ駆動型金融強化学習のための市場環境の宇宙を構築している。
まず、FinRL-MetaはDRLベースの戦略の設計パイプラインから財務データ処理を分離する。
第2に、FinRL-Metaは様々な取引タスクに数百の市場環境を提供している。
論文 参考訳(メタデータ) (2021-12-13T16:03:37Z) - Recent Advances in Reinforcement Learning in Finance [3.0079490585515343]
データ量の増加による金融業界の急激な変化は、データ処理やデータ分析に関する技術に革命をもたらした。
強化学習(RL)による新たな発展は、大量の財務データをフル活用することができる。
論文 参考訳(メタデータ) (2021-12-08T19:55:26Z) - Reinforcement Learning for Quantitative Trading [36.85034299183786]
強化学習(RL)は、ロボット工学やビデオゲームなど多くの分野において大きな関心を集めている。
RLの影響は広く、最近、多くの挑戦的なQTタスクを克服する能力を示している。
本稿では,QTタスクに対するRLに基づく手法に関する総合的な研究成果の提供を目的とする。
論文 参考訳(メタデータ) (2021-09-28T16:32:10Z) - Offline Reinforcement Learning from Images with Latent Space Models [60.69745540036375]
オフライン強化学習(RL)とは、環境相互作用の静的データセットからポリシーを学習する問題を指します。
オフラインRLのためのモデルベースアルゴリズムの最近の進歩の上に構築し、それらを高次元の視覚観測空間に拡張する。
提案手法は, 実測可能であり, 未知のPOMDPにおけるELBOの下限の最大化に対応している。
論文 参考訳(メタデータ) (2020-12-21T18:28:17Z) - EMaQ: Expected-Max Q-Learning Operator for Simple Yet Effective Offline
and Online RL [48.552287941528]
オフ・ポリティクス強化学習は、意思決定ポリシーのサンプル効率の学習を約束する。
オフラインのRL設定では、標準のオフポリシーのRLメソッドは大幅に性能が低下する。
本稿では,提案アルゴリズムとより密接な関係を持つ期待値Q-Learning(EMaQ)を提案する。
論文 参考訳(メタデータ) (2020-07-21T21:13:02Z) - Conservative Q-Learning for Offline Reinforcement Learning [106.05582605650932]
CQLは既存のオフラインRLメソッドよりも大幅に優れており、多くの場合、ファイナルリターンの2~5倍高いポリシを学習しています。
理論的には、CQLは現在のポリシーの価値の低いバウンダリを生成し、理論的改善保証を伴う政策学習手順に組み込むことができることを示す。
論文 参考訳(メタデータ) (2020-06-08T17:53:42Z) - Comprehensive Review of Deep Reinforcement Learning Methods and
Applications in Economics [9.080472817672264]
DRLの特徴は、高次元問題に適用可能なスケーラビリティと、経済データのノイズおよび非線形パターンとを併用したスケーラビリティである。
DRLのアーキテクチャを経済応用に適用し,複雑性,堅牢性,精度,性能,計算タスク,リスク制約,収益性を明らかにする。
論文 参考訳(メタデータ) (2020-03-21T14:07:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。