論文の概要: Epidemic Decision-making System Based Federated Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2311.01749v1
- Date: Fri, 3 Nov 2023 06:57:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-11-06 15:00:26.751521
- Title: Epidemic Decision-making System Based Federated Reinforcement Learning
- Title(参考訳): エピデミック意思決定システムに基づくフェデミック強化学習
- Authors: Yangxi Zhou, Junping Du, Zhe Xue, Zhenhui Pan, and Weikang Chen
- Abstract要約: このモデルは、各地の流行状況データと協調訓練データを組み合わせて、流行状況決定のための学習モデルとして活用することができる。
実験により、強化された連合学習は、強化された学習よりも、より最適化された性能とリターンが得られることが示された。
- 参考スコア(独自算出の注目度): 9.22978109583554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Epidemic decision-making can effectively help the government to
comprehensively consider public security and economic development to respond to
public health and safety emergencies. Epidemic decision-making can effectively
help the government to comprehensively consider public security and economic
development to respond to public health and safety emergencies. Some studies
have shown that intensive learning can effectively help the government to make
epidemic decision, thus achieving the balance between health security and
economic development. Some studies have shown that intensive learning can
effectively help the government to make epidemic decision, thus achieving the
balance between health security and economic development. However, epidemic
data often has the characteristics of limited samples and high privacy.
However, epidemic data often has the characteristics of limited samples and
high privacy. This model can combine the epidemic situation data of various
provinces for cooperative training to use as an enhanced learning model for
epidemic situation decision, while protecting the privacy of data. The
experiment shows that the enhanced federated learning can obtain more optimized
performance and return than the enhanced learning, and the enhanced federated
learning can also accelerate the training convergence speed of the training
model. accelerate the training convergence speed of the client. At the same
time, through the experimental comparison, A2C is the most suitable
reinforcement learning model for the epidemic situation decision-making.
learning model for the epidemic situation decision-making scenario, followed by
the PPO model, and the performance of DDPG is unsatisfactory.
- Abstract(参考訳): 疫病の意思決定は、政府が公衆の安全と経済発展を総合的に考慮し、公衆の健康と安全の緊急事態に対応するのに効果的に役立ちます。
疫病の意思決定は、政府が公衆の安全と経済発展を総合的に考慮し、公衆の健康と安全の緊急事態に対応するのに効果的に役立ちます。
いくつかの研究は、集中学習は政府が疫病の判断を効果的に行え、健康保障と経済発展のバランスが達成できることを示した。
いくつかの研究は、集中学習は政府が疫病の判断を効果的に行え、健康保障と経済発展のバランスが達成できることを示した。
しかし、流行データは限られたサンプルと高いプライバシーの特性を持つことが多い。
しかし、流行データは限られたサンプルと高いプライバシーの特性を持つことが多い。
このモデルは、データのプライバシーを保護しつつ、各地の流行状況データを協調訓練に組み合わせて、流行状況決定の学習モデルとして活用することができる。
実験により、強化されたフェデレーション学習は、強化された学習よりもより最適化された性能とリターンを得ることができ、強化されたフェデレーション学習はトレーニングモデルのトレーニング収束速度を加速することを示した。
クライアントのトレーニング収束速度を加速する。
同時に、A2Cは、実験的な比較を通じて、流行状況決定に最も適した強化学習モデルである。
PPOモデルが続く流行状況意思決定シナリオの学習モデルであり,DDPGの性能は不十分である。
関連論文リスト
- SIR-RL: Reinforcement Learning for Optimized Policy Control during Epidemiological Outbreaks in Emerging Market and Developing Economies [0.0]
本研究では,パンデミック時の健康・経済的成果の最適化を目的とした,新たな強化学習フレームワークを提案する。
強化学習を実施することで、政府の対応を最適化し、公衆衛生と経済の安定に関わる競争コストのバランスをとることを目指す。
論文 参考訳(メタデータ) (2024-04-12T12:11:51Z) - Reinforcement Learning for Safe Occupancy Strategies in Educational
Spaces during an Epidemic [9.68145635795782]
本研究は、感染の最小化と教育環境における対人交流の最大化を両立させる戦略を開発するための強化学習(RL)に焦点を当てる。
感染拡大をシミュレートし,様々なRLアルゴリズムの探索を容易にする新しいツールであるSafeCampusを紹介する。
論文 参考訳(メタデータ) (2023-12-23T04:51:23Z) - Agent-Based Model: Simulating a Virus Expansion Based on the Acceptance
of Containment Measures [65.62256987706128]
比較疫学モデルは、疾患の状態に基づいて個人を分類する。
我々は、適応されたSEIRDモデルと市民のための意思決定モデルを組み合わせたABMアーキテクチャを提案する。
スペイン・ア・コルナにおけるSARS-CoV-2感染症の進行状況について検討した。
論文 参考訳(メタデータ) (2023-07-28T08:01:05Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z) - Reinforced Contact Tracing and Epidemic Intervention [8.141401074784406]
我々は,スマートディファレンスコントロール戦略を探索するIDRLECA(Reinforcement Learning Epidemic Control Agent)を開発した。
IDRLECAは感染を非常に低いレベルで抑制し、95%以上の人体移動を維持できる。
論文 参考訳(メタデータ) (2021-02-04T08:31:48Z) - An Optimal Control Approach to Learning in SIDARTHE Epidemic model [67.22168759751541]
本研究では,疫病データから動的コンパートメンタルモデルの時間変化パラメータを学習するための一般的な手法を提案する。
我々はイタリアとフランスの疫病の進化を予報する。
論文 参考訳(メタデータ) (2020-10-28T10:58:59Z) - Steering a Historical Disease Forecasting Model Under a Pandemic: Case
of Flu and COVID-19 [75.99038202534628]
我々は、インフルエンザとCOVID-19が共存する新しいシナリオに、歴史的疾患予測モデルを「操る」ことができる神経伝達学習アーキテクチャであるCALI-Netを提案する。
我々の実験は、現在のパンデミックに歴史的予測モデルを適用することに成功していることを示している。
論文 参考訳(メタデータ) (2020-09-23T22:35:43Z) - COVI White Paper [67.04578448931741]
接触追跡は、新型コロナウイルスのパンデミックの進行を変える上で不可欠なツールだ。
カナダで開発されたCovid-19の公衆ピアツーピア接触追跡とリスク認識モバイルアプリケーションであるCOVIの理論的、設計、倫理的考察、プライバシ戦略について概説する。
論文 参考訳(メタデータ) (2020-05-18T07:40:49Z) - A Deep Q-learning/genetic Algorithms Based Novel Methodology For
Optimizing Covid-19 Pandemic Government Actions [63.669642197519934]
我々はSEIR疫学モデルを用いて、人口の時間とともにウイルスウイルスの進化を表現している。
報酬システムにより、アクションのシーケンス(統合、自己同化、二メートル距離、制限を取らない)を評価する。
どちらの意味でも、パンデミックの悪影響を抑えるために政府が取るべき行動を発見する上で、我々の方法論が有効な手段であることを実証する。
論文 参考訳(メタデータ) (2020-05-15T17:17:45Z) - Optimising Lockdown Policies for Epidemic Control using Reinforcement
Learning [5.174900115018252]
我々は、健康と経済のバランスを保ちながら、各都市や地域ごとのロックダウン決定を定量的に計算する方法を提案する。
これらのポリシーは、疾患パラメータの関数として提案アルゴリズムによって自動的に学習される。
我々は不完全ロックダウンなどの現実的な考察を考察し、強化学習を用いて得られた政策がロックダウンへの有効な定量的アプローチであることを示す。
論文 参考訳(メタデータ) (2020-03-31T11:04:18Z) - Deep reinforcement learning for large-scale epidemic control [0.3694429692322631]
本研究では,パンデミックインフルエンザの予防戦略を自動学習するための深層強化学習手法について検討する。
我々のモデルは、強化学習技術が実現できるように、複雑さと計算効率のバランスをとる。
この実験により, 大規模状態空間を持つ複雑な疫学モデルにおいて, 深層強化学習を用いて緩和策を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-03-30T17:57:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。