論文の概要: Active Screening for Recurrent Diseases: A Reinforcement Learning
Approach
- arxiv url: http://arxiv.org/abs/2101.02766v2
- Date: Wed, 27 Jan 2021 16:41:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-10 14:36:05.868760
- Title: Active Screening for Recurrent Diseases: A Reinforcement Learning
Approach
- Title(参考訳): 再発性疾患に対する能動的スクリーニング : 強化学習アプローチ
- Authors: Han-Ching Ou, Haipeng Chen, Shahin Jabbari and Milind Tambe
- Abstract要約: 我々は,Deep Q-Networks(DQN)に基づく新しい強化学習(RL)手法を提案する。
実世界の複数のネットワーク上でRLアルゴリズムを評価する。
- 参考スコア(独自算出の注目度): 29.78172882606022
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Active screening is a common approach in controlling the spread of recurring
infectious diseases such as tuberculosis and influenza. In this approach,
health workers periodically select a subset of population for screening.
However, given the limited number of health workers, only a small subset of the
population can be visited in any given time period. Given the recurrent nature
of the disease and rapid spreading, the goal is to minimize the number of
infections over a long time horizon. Active screening can be formalized as a
sequential combinatorial optimization over the network of people and their
connections. The main computational challenges in this formalization arise from
i) the combinatorial nature of the problem, ii) the need of sequential planning
and iii) the uncertainties in the infectiousness states of the population.
Previous works on active screening fail to scale to large time horizon while
fully considering the future effect of current interventions. In this paper, we
propose a novel reinforcement learning (RL) approach based on Deep Q-Networks
(DQN), with several innovative adaptations that are designed to address the
above challenges. First, we use graph convolutional networks (GCNs) to
represent the Q-function that exploit the node correlations of the underlying
contact network. Second, to avoid solving a combinatorial optimization problem
in each time period, we decompose the node set selection as a sub-sequence of
decisions, and further design a two-level RL framework that solves the problem
in a hierarchical way. Finally, to speed-up the slow convergence of RL which
arises from reward sparseness, we incorporate ideas from curriculum learning
into our hierarchical RL approach. We evaluate our RL algorithm on several
real-world networks.
- Abstract(参考訳): アクティブスクリーニングは、結核やインフルエンザなどの再発する感染症の拡散を制御する一般的なアプローチである。
このアプローチでは、健康労働者は定期的にスクリーニングのための人口のサブセットを選択する。
しかし、医療従事者の数が限られているため、人口のごく一部のみが一定期間に訪れることができる。
病気の再発と急速な拡散を考えると、長期的な地平線上での感染数の最小化が目的である。
アクティブスクリーニングは、人々のネットワークとその接続に対する逐次組合せ最適化として形式化することができる。
この形式化における主な計算上の課題は、(i)問題の組合せ的性質、(ii)逐次計画の必要性、(iii)人口の感染状態の不確実性から生じる。
アクティブスクリーニングに関するこれまでの研究は、現在の介入の今後の効果を十分に考慮しながら、大規模なタイムホライズにスケールできない。
本稿では,上記の課題に対処すべく,いくつかの革新的適応を含む深層q-networks(dqn)に基づく新しい強化学習(rl)手法を提案する。
まず、グラフ畳み込みネットワーク(GCN)を用いて、基礎となる接触ネットワークのノード相関を利用するQ関数を表現する。
第二に、各時間における組合せ最適化問題の解決を避けるために、ノードセットの選択を決定のサブシーケンスとして分解し、さらに階層的な方法で問題を解く2段階のRLフレームワークを設計する。
最後に、報酬不足から生じるRLの緩やかな収束を高速化するために、カリキュラム学習のアイデアを階層的なRLアプローチに取り入れる。
実世界の複数のネットワーク上でRLアルゴリズムを評価する。
関連論文リスト
- On The Global Convergence Of Online RLHF With Neural Parametrization [36.239015146313136]
Reinforcement Learning from Human Feedback (RLHF)は、大きな言語モデルと人間の価値を結びつけることを目的としている。
RLHFは、教師付き微調整、報酬学習、政策学習を含む3段階のプロセスである。
本稿では、パラメータ化設定におけるAIアライメントのための2段階の定式化を提案し、この問題を解決するための一階法を提案する。
論文 参考訳(メタデータ) (2024-10-21T03:13:35Z) - Joint Admission Control and Resource Allocation of Virtual Network Embedding via Hierarchical Deep Reinforcement Learning [69.00997996453842]
本稿では,仮想ネットワークの埋め込みにおいて,入出力制御と資源配分を併用して学習する深層強化学習手法を提案する。
HRL-ACRAは,受入率と長期平均収益の両面で,最先端のベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2024-06-25T07:42:30Z) - Intelligent Hybrid Resource Allocation in MEC-assisted RAN Slicing Network [72.2456220035229]
我々は,協調型MEC支援RANスライシングシステムにおける異種サービス要求に対するSSRの最大化を目指す。
最適ハイブリッドRAポリシーをインテリジェントに学習するためのRGRLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-02T01:36:13Z) - TC-LIF: A Two-Compartment Spiking Neuron Model for Long-Term Sequential
Modelling [54.97005925277638]
潜在的な可能性や危険に関連する感覚的手がかりの同定は、長期間の遅延によって有用な手がかりを分離する無関係な事象によってしばしば複雑になる。
SNN(State-of-the-art spiking Neural Network)は、遠方のキュー間の長期的な時間的依存関係を確立する上で、依然として困難な課題である。
そこで本研究では,T-LIFとよばれる,生物学的にインスパイアされたTwo-compartment Leaky Integrate- and-Fireのスパイキングニューロンモデルを提案する。
論文 参考訳(メタデータ) (2023-08-25T08:54:41Z) - Correlative Information Maximization: A Biologically Plausible Approach
to Supervised Deep Neural Networks without Weight Symmetry [43.584567991256925]
本稿では,生体神経ネットワークにおける信号伝達を前方方向と後方方向の両方で記述するための新しい規範的アプローチを提案する。
このフレームワークは、従来のニューラルネットワークとバックプロパゲーションアルゴリズムの生物学的評価可能性に関する多くの懸念に対処する。
提案手法は,前方信号伝搬路と後方信号伝搬路の重み対称性問題に対する自然な解法を提供する。
論文 参考訳(メタデータ) (2023-06-07T22:14:33Z) - Bio-Inspired, Task-Free Continual Learning through Activity
Regularization [3.5502600490147196]
継続的学習アプローチは通常、個別のタスク境界を必要とする。
我々は神経科学からインスピレーションを得ており、忘れるのを防ぐために、スパースで重複しない神経表現が提案されている。
空間性に加えて,各層に横方向のリカレント接続を導入し,事前学習した表現をさらに保護する。
本手法は,タスク境界に関する情報を必要とせずに,弾性重み統合やシナプスインテリジェンスなどのよく知られたCL手法と類似した性能を実現する。
論文 参考訳(メタデータ) (2022-12-08T15:14:20Z) - Frequent Itemset-driven Search for Finding Minimum Node Separators in
Complex Networks [61.2383572324176]
本稿では,データマイニングにおける頻繁なアイテムセットマイニングの概念をよく知られたメメティック検索フレームワークに統合する,頻繁なアイテムセット駆動探索手法を提案する。
頻繁なアイテムセット組換え演算子を反復的に使用して、高品質なソリューションで頻繁に発生するアイテムセットに基づいた有望な子孫ソリューションを生成する。
特に、29個の新しい上界を発見し、以前の18個の最もよく知られた境界と一致する。
論文 参考訳(メタデータ) (2022-01-18T11:16:40Z) - Spiking Generative Adversarial Networks With a Neural Network
Discriminator: Local Training, Bayesian Models, and Continual Meta-Learning [31.78005607111787]
スパイキングパターンを再現するためにニューラルネットワークを訓練することは、ニューロモルフィックコンピューティングにおける中心的な問題である。
この研究は、個々のスパイキング信号ではなく、スパイキング信号にマッチするようにSNNを訓練することを提案する。
論文 参考訳(メタデータ) (2021-11-02T17:20:54Z) - Contingency-Aware Influence Maximization: A Reinforcement Learning
Approach [52.109536198330126]
インフルエンス(IM)問題は、インフルエンスの普及を最大化する、ソーシャルネットワーク内のシードノードのサブセットを見つけることを目的としている。
本研究では、招待されたノードがシードであるかどうかが不確実なIM問題(contingency-aware IM)に焦点をあてる。
最初の成功にもかかわらず、より多くのコミュニティへのソリューションの推進における大きな実践上の障害は、欲張りのアルゴリズムの巨大な実行時である。
論文 参考訳(メタデータ) (2021-06-13T16:42:22Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。