論文の概要: Kernel-Based Distributed Q-Learning: A Scalable Reinforcement Learning
Approach for Dynamic Treatment Regimes
- arxiv url: http://arxiv.org/abs/2302.10434v1
- Date: Tue, 21 Feb 2023 04:15:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-22 16:25:07.199363
- Title: Kernel-Based Distributed Q-Learning: A Scalable Reinforcement Learning
Approach for Dynamic Treatment Regimes
- Title(参考訳): カーネルベース分散q-learning:動的治療体制のためのスケーラブル強化学習手法
- Authors: Di Wang, Yao Wang, Shaojie Tang, Shao-Bo Lin
- Abstract要約: 本稿では,動的処理系を生成するための分散Q-ラーニングアルゴリズムを提案する。
提案アルゴリズムは従来の線形Q-ラーニングよりも優れており,予測精度と計算コストの両方でよく使用される深層Q-ラーニングよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 37.06048335758881
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, large amounts of electronic health records (EHRs) concerning
chronic diseases, such as cancer, diabetes, and mental disease, have been
collected to facilitate medical diagnosis. Modeling the dynamic properties of
EHRs related to chronic diseases can be efficiently done using dynamic
treatment regimes (DTRs), which are a set of sequential decision rules. While
Reinforcement learning (RL) is a widely used method for creating DTRs, there is
ongoing research in developing RL algorithms that can effectively handle large
amounts of data. In this paper, we present a novel approach, a distributed
Q-learning algorithm, for generating DTRs. The novelties of our research are as
follows: 1) From a methodological perspective, we present a novel and scalable
approach for generating DTRs by combining distributed learning with Q-learning.
The proposed approach is specifically designed to handle large amounts of data
and effectively generate DTRs. 2) From a theoretical standpoint, we provide
generalization error bounds for the proposed distributed Q-learning algorithm,
which are derived within the framework of statistical learning theory. These
bounds quantify the relationships between sample size, prediction accuracy, and
computational burden, providing insights into the performance of the algorithm.
3) From an applied perspective, we demonstrate the effectiveness of our
proposed distributed Q-learning algorithm for DTRs by applying it to clinical
cancer treatments. The results show that our algorithm outperforms both
traditional linear Q-learning and commonly used deep Q-learning in terms of
both prediction accuracy and computation cost.
- Abstract(参考訳): 近年, がん, 糖尿病, 精神疾患などの慢性疾患に関する電子的健康記録が大量に収集され, 診断が容易になっている。
慢性疾患に関連するERHの動的特性のモデリングは、逐次決定規則のセットである動的治療規則(DTR)を用いて効率的に行うことができる。
強化学習(Reinforcement Learning, RL)はDTRの作成に広く用いられている手法であるが, 大量のデータを効果的に扱えるRLアルゴリズムの開発が進行中である。
本稿では,DTRを生成するための分散Q-ラーニングアルゴリズムを提案する。
我々の研究の新規性は以下の通りである。
1) 方法論的観点から,分散学習とQ-ラーニングを組み合わせることで,DTRを生成する新しい,スケーラブルなアプローチを提案する。
提案手法は、大量のデータを処理し、効果的にDTRを生成するように設計されている。
2)理論的な観点から,統計的学習理論の枠組みの中で導出される分散Q-ラーニングアルゴリズムに対して,一般化誤差境界を提供する。
これらの境界はサンプルサイズ、予測精度、計算負荷の関係を定量化し、アルゴリズムの性能に関する洞察を与える。
3) 本研究は, DTRに対する分散Q-ラーニングアルゴリズムの有効性を臨床的癌治療に適用することにより実証する。
その結果,本アルゴリズムは従来の線形q-learningと,予測精度と計算コストの両面で深層q-learningの両方に勝ることがわかった。
関連論文リスト
- Fine-tuning -- a Transfer Learning approach [0.22344294014777952]
電子健康記録(EHR)の欠落は、この貴重な資源に欠落するデータが豊富にあるため、しばしば妨げられる。
既存の深い計算手法は、計算処理とダウンストリーム解析の両方を組み込んだエンドツーエンドのパイプラインに依存している。
本稿では,モジュール型深層学習型計算・分類パイプラインの開発について検討する。
論文 参考訳(メタデータ) (2024-11-06T14:18:23Z) - DTR-Bench: An in silico Environment and Benchmark Platform for Reinforcement Learning Based Dynamic Treatment Regime [18.443316087890324]
強化学習(Reinforcement Learning, RL)は、個人化医療における動的治療体制(DTR)を最適化する可能性の認知度を高めている。
多様な医療シナリオをシミュレートするベンチマークプラットフォームであるtextitDTR-Benchを紹介した。
我々はこれらの設定の様々な最先端のRLアルゴリズムを評価し、特に実世界の課題の中でその性能を強調した。
論文 参考訳(メタデータ) (2024-05-28T21:40:00Z) - Self-STORM: Deep Unrolled Self-Supervised Learning for Super-Resolution Microscopy [55.2480439325792]
我々は、シーケンス固有のモデルベースのオートエンコーダをトレーニングすることで、そのようなデータの必要性を軽減する、深層無学習の自己教師付き学習を導入する。
提案手法は, 監視対象の性能を超過する。
論文 参考訳(メタデータ) (2024-03-25T17:40:32Z) - Fast Cerebral Blood Flow Analysis via Extreme Learning Machine [4.373558495838564]
拡散相関分光法(DCS)を用いた高速かつ高精度な脳血流解析手法を提案する。
半無限層モデルと多層モデルの両方に対する合成データセットを用いて既存のアルゴリズムを評価する。
その結果、ELMは様々なノイズレベルや光学パラメータにわたって高い忠実度を連続的に達成し、堅牢な一般化能力を示し、反復整合アルゴリズムより優れることを示した。
論文 参考訳(メタデータ) (2024-01-10T23:01:35Z) - Auto-FedRL: Federated Hyperparameter Optimization for
Multi-institutional Medical Image Segmentation [48.821062916381685]
Federated Learning(FL)は、明示的なデータ共有を避けながら協調的なモデルトレーニングを可能にする分散機械学習技術である。
本稿では,Auto-FedRLと呼ばれる,効率的な強化学習(RL)に基づくフェデレーションハイパーパラメータ最適化アルゴリズムを提案する。
提案手法の有効性は,CIFAR-10データセットと2つの実世界の医用画像セグメンテーションデータセットの不均一なデータ分割に対して検証される。
論文 参考訳(メタデータ) (2022-03-12T04:11:42Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z) - Dynamic Mode Decomposition in Adaptive Mesh Refinement and Coarsening
Simulations [58.720142291102135]
動的モード分解(DMD)はコヒーレントなスキームを抽出する強力なデータ駆動方式である。
本稿では,異なるメッシュトポロジと次元の観測からDMDを抽出する戦略を提案する。
論文 参考訳(メタデータ) (2021-04-28T22:14:25Z) - Deep Reinforcement Learning using Cyclical Learning Rates [62.19441737665902]
勾配降下(SGD)に基づく最適化手順における最も影響力のあるパラメータの1つは、学習率である。
循環学習について検討し,様々なDRL問題に対する一般循環学習率の定義法を提案する。
本実験により, 循環学習は, 高度に調整された固定学習率よりも, 類似あるいは良好な結果が得られることがわかった。
論文 参考訳(メタデータ) (2020-07-31T10:06:02Z) - Longitudinal Deep Kernel Gaussian Process Regression [16.618767289437905]
縦型ディープカーネルプロセスレグレッション(L-DKGPR)を導入する。
L-DKGPRは、縦方向のデータから複雑な多レベル相関構造の発見を自動化する。
そこで我々は,L-DKGPRを学習するための効率的なアルゴリズムを,遅延空間誘導点と変分推論を用いて導出した。
論文 参考訳(メタデータ) (2020-05-24T15:10:48Z) - A Systematic Approach to Featurization for Cancer Drug Sensitivity
Predictions with Deep Learning [49.86828302591469]
35,000以上のニューラルネットワークモデルをトレーニングし、一般的な成果化技術を駆使しています。
RNA-seqは128以上のサブセットであっても非常に冗長で情報的であることがわかった。
論文 参考訳(メタデータ) (2020-04-30T20:42:17Z) - Distributed Training of Deep Neural Network Acoustic Models for
Automatic Speech Recognition [33.032361181388886]
ASRのためのディープニューラルネットワーク音響モデルのための分散トレーニング手法の概要について述べる。
提案手法の収束, 高速化, 認識性能を調べるために, 一般のベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-02-24T19:31:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。