論文の概要: Integrating Deep Reinforcement Learning Networks with Health System
Simulations
- arxiv url: http://arxiv.org/abs/2008.07434v1
- Date: Tue, 21 Jul 2020 07:44:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 04:03:08.176078
- Title: Integrating Deep Reinforcement Learning Networks with Health System
Simulations
- Title(参考訳): 深層強化学習ネットワークと健康システムシミュレーションの統合
- Authors: Michael Allen, and Thomas Monks
- Abstract要約: 我々は、Deep RL NetworksとHealth System Simulationsを統合するためのフレームワークを提供する。
このフレームワークはOpenAI Gymを使用して開発およびテストされたエージェントと互換性がある。
本稿では,Deep RLエージェントとしてDouble Deep Q NetworkやDuelling Double Q Networkを用いた実例を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Background and motivation: Combining Deep Reinforcement Learning (Deep RL)
and Health Systems Simulations has significant potential, for both research
into improving Deep RL performance and safety, and in operational practice.
While individual toolkits exist for Deep RL and Health Systems Simulations, no
framework to integrate the two has been established.
Aim: Provide a framework for integrating Deep RL Networks with Health System
Simulations, and to ensure this framework is compatible with Deep RL agents
that have been developed and tested using OpenAI Gym.
Methods: We developed our framework based on the OpenAI Gym framework, and
demonstrate its use on a simple hospital bed capacity model. We built the Deep
RL agents using PyTorch, and the Hospital Simulatation using SimPy.
Results: We demonstrate example models using a Double Deep Q Network or a
Duelling Double Deep Q Network as the Deep RL agent.
Conclusion: SimPy may be used to create Health System Simulations that are
compatible with agents developed and tested on OpenAI Gym environments.
GitHub repository of code:
https://github.com/MichaelAllen1966/learninghospital
- Abstract(参考訳): 背景と動機:Deep RL(Deep Reinforcement Learning)とHealth Systems Simulations(Health Systems Simulations)を組み合わせることで、Deep RLの性能と安全性の向上、および運用実践の両面において大きな可能性を秘めている。
Deep RLとHealth Systems Simulationsには個別のツールキットが存在するが、この2つを統合するためのフレームワークは確立されていない。
Aim: Deep RL NetworksとHealth System Simulationsを統合するためのフレームワークを提供し、OpenAI Gymを使用して開発、テストされたDeep RLエージェントとの互換性を保証する。
方法:我々はOpenAI Gymフレームワークをベースとしたフレームワークを開発し,簡易な病院ベッド容量モデルでの利用を実証した。
我々はpytorchを用いて深層rlエージェントを構築し,simpyを用いて病院のシミュラテーションを行った。
結果: ディープRLエージェントとしてDouble Deep Q NetworkまたはDuelling Double Deep Q Networkを用いた実例を示した。
結論: SimPyはOpenAI Gym環境で開発されたエージェントと互換性のあるヘルスシステムシミュレーションを作成するために使われる。
GitHubのコードリポジトリ:https://github.com/MichaelAllen 1966/learninghospital
関連論文リスト
- Resilient Control of Networked Microgrids using Vertical Federated
Reinforcement Learning: Designs and Real-Time Test-Bed Validations [5.394255369988441]
本稿では、(a)モデル複雑度、(b)ISRデバイスの未知の動的挙動、(b)マルチパーティ所有のネットワークグリッドにおけるデータ共有に関するプライバシー問題、(2)シミュレーションからハードウェア・イン・ザ・ループテストベッドへの学習制御の移行について、新しいフェデレーション強化学習(Fed-RL)アプローチを提案する。
実験により,シミュレータ学習したRLコントローラは実時間テストベッドのセットアップによる説得力のある結果が得られ,sim-to-realギャップの最小化が検証された。
論文 参考訳(メタデータ) (2023-11-21T00:59:27Z) - PIC4rl-gym: a ROS2 modular framework for Robots Autonomous Navigation
with Deep Reinforcement Learning [0.4588028371034407]
この研究は、ナビゲーションと学習の研究を強化するための基本的なモジュラーフレームワークであるtextitPIC4rl-gymを導入している。
本稿では、DRLエージェントのトレーニングとテストを完全に統合したPIC4rl-gymの全体構造について述べる。
モジュラーアプローチは、新しいプラットフォーム、センサー、モデルを選択することで、シミュレーションを簡単にカスタマイズするために採用されている。
論文 参考訳(メタデータ) (2022-11-19T14:58:57Z) - Parallel Reinforcement Learning Simulation for Visual Quadrotor
Navigation [4.597465975849579]
強化学習(Reinforcement Learning、RL)は、ロボットに物理的な世界の中をナビゲートするように教えるエージェントベースのアプローチである。
本稿では,AirSim上に構築された並列学習を効率的に行うシミュレーションフレームワークを提案する。
このフレームワーク上に構築されたApe-Xは、AirSim環境の分散トレーニングを組み込むように修正されている。
論文 参考訳(メタデータ) (2022-09-22T15:27:42Z) - Deep Reinforcement Learning with Spiking Q-learning [51.386945803485084]
スパイクニューラルネットワーク(SNN)は、少ないエネルギー消費で人工知能(AI)を実現することが期待されている。
SNNと深部強化学習(RL)を組み合わせることで、現実的な制御タスクに有望なエネルギー効率の方法を提供する。
論文 参考訳(メタデータ) (2022-01-21T16:42:11Z) - Learning Connectivity-Maximizing Network Configurations [123.01665966032014]
本稿では、専門家からコミュニケーションエージェントを配置することを学ぶ畳み込みニューラルネットワーク(CNN)を用いた教師あり学習手法を提案する。
我々は,標準ライントポロジやリングトポロジ,ランダムに生成された105万件のテストケース,トレーニング中に見えない大規模なチームについて,CNNのパフォーマンスを実証した。
トレーニング後,本システムは10~20名のエージェントの最適化手法よりも2桁高速な接続構成を生成する。
論文 参考訳(メタデータ) (2021-12-14T18:59:01Z) - RAPID-RL: A Reconfigurable Architecture with Preemptive-Exits for
Efficient Deep-Reinforcement Learning [7.990007201671364]
効率的な深部RL(RAPID-RL)のためのプリエンプティブ出口を持つ再構成可能なアーキテクチャを提案する。
RAPID-RLは入力の難易度に基づいてプリエンプティブ層の条件付き活性化を可能にする。
RAPID-RL は Atari (Drone Navigation) タスクにおいて 0.88x (0.91x) 以上の性能を維持しながら, 演算数 0.34x (0.25x) を発生させることを示す。
論文 参考訳(メタデータ) (2021-09-16T21:30:40Z) - Developing an OpenAI Gym-compatible framework and simulation environment
for testing Deep Reinforcement Learning agents solving the Ambulance Location
Problem [0.0]
本研究では、Deep RLエージェントをテストするためのOpenAI Gym互換フレームワークとシミュレーション環境を開発する。
Deep Qネットワークに基づくDeep RLエージェントの範囲は、このカスタム環境でテストされました。
論文 参考訳(メタデータ) (2021-01-12T12:10:52Z) - DeepCrawl: Deep Reinforcement Learning for Turn-based Strategy Games [137.86426963572214]
Deep CrawlはiOSとAndroid用の完全にプレイ可能なRogueライクなプロトタイプで、すべてのエージェントがDeep Reinforcement Learning (DRL)を使用してトレーニングされたポリシーネットワークによって制御される。
本研究の目的は、近年のDRLの進歩が、ビデオゲームにおける非プレイヤーキャラクターに対する説得力のある行動モデルの開発に有効であるかどうかを理解することである。
論文 参考訳(メタデータ) (2020-12-03T13:53:29Z) - SUNRISE: A Simple Unified Framework for Ensemble Learning in Deep
Reinforcement Learning [102.78958681141577]
SUNRISEは単純な統一アンサンブル法であり、様々な非政治的な深層強化学習アルゴリズムと互換性がある。
SUNRISEは, (a) アンサンブルに基づく重み付きベルマンバックアップと, (b) 最上位の自信境界を用いて行動を選択する推論手法を統合し, 効率的な探索を行う。
論文 参考訳(メタデータ) (2020-07-09T17:08:44Z) - The NetHack Learning Environment [79.06395964379107]
本稿では、強化学習研究のための手続き的に生成されたローグのような環境であるNetHack Learning Environment(NLE)を紹介する。
我々は,NetHackが,探索,計画,技術習得,言語条件付きRLといった問題に対する長期的な研究を促進するのに十分複雑であると主張している。
我々は,分散されたDeep RLベースラインとランダムネットワーク蒸留探索を用いて,ゲームの初期段階における実験的な成功を示す。
論文 参考訳(メタデータ) (2020-06-24T14:12:56Z) - Distributed Reinforcement Learning for Cooperative Multi-Robot Object
Manipulation [53.262360083572005]
強化学習(RL)を用いた協調型マルチロボットオブジェクト操作タスクの検討
分散近似RL(DA-RL)とゲーム理論RL(GT-RL)の2つの分散マルチエージェントRLアプローチを提案する。
本稿では, DA-RL と GT-RL を多エージェントシステムに適用し, 大規模システムへの拡張が期待される。
論文 参考訳(メタデータ) (2020-03-21T00:43:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。